Neuer Biomarker zur Diagnose von Demenz entdeckt

„Ich habe mich sozusagen selbst verloren.“, so der Ausspruch von Auguste Deter, der ersten bekannten Alzheimer-Patientin, zur Beschreibung ihrer Symptome. Nur fünf Jahre später verstarb die damals 56-Jährige an den Folgen ihrer Erkrankung. Der Fall Deter läutete den Beginn der Demenzforschung ein. Was ist knapp 120 Jahre später über die Krankheit bekannt und welche Fortschritte macht die Forschung?

Demenz betrifft meist Menschen höheren Alters (Quelle: pixabay, mohamed hassan)

Demenz ist eine neurodegenerative Erkrankung. D. h. Betroffene erleiden einen Verlust an Aktivität und Anzahl von Nervenzellen im Gehirn. Dies zeigt sich, zumindest in frühen Phasen der Alzheimer-Erkrankung, in einer verminderten Gedächtnisleistung. Dabei bedeutet Gedächtnis viel mehr als die reine Merkfähigkeit. Es umfasst viele kognitive Domänen und beinhaltet auch sprachliches Können, räumliches Vorstellungsvermögen und Arbeitsplanung.

Warum steigt die Anzahl der Betroffenen?

Das statistische Bundesamt gibt für Deutschland im Jahr 2021 eine absolute Zahl von 1,7 Millionen Demenzpatient:innen mit einem Alter von 65 Jahren und älter an. Etwa zwei Drittel davon sind von der häufigsten Demenzform, der Alzheimer-Krankheit, betroffen. Begründet durch die geburtenstarken Jahrgänge ab etwa 1950 steigen die Zahlen seit einigen Jahren massiv an. Frauen sind mit ca. 70 % wesentlich häufiger betroffen als Männer. Dies ist auf die höhere Lebenserwartung von Frauen und auch auf physiologische (hormonelle) Ursachen zurückzuführen.

Das Risiko an Demenz zu erkranken, steigt bekanntermaßen mit dem Alter an. Während nur 1 % der 65-Jährigen dement ist, sind bei den über 90-Jährigen über 30 % betroffen.

Alzheimer-Demenz und Frontotemporale Demenz

Jeder kennt die Symptome einer Alzheimer-Demenz (AD), die wie beschrieben mit Gedächtnisverlust einhergehen. Typisch für die frühe Phase der Erkrankung ist das verminderte Kurzzeitgedächtnis. Mit zunehmender Degeneration des Gehirns kommen weitere gravierende Schwierigkeiten wie Verwirrung, Desorientierung, Sprach- und Schlafprobleme, Stimmungsschwankungen und schließlich Sprachverlust und Bewegungsunfähigkeit hinzu.

ADAlzheimer-Demenz
FTDFrontotemporale Demenz
APPAmyloid Precursor Protein (Amyloid Vorläufer Protein)
Amyloid beta
LiquorHirn- bzw. Nervenwasser
NeuronenNervenzellen (hier des Gehirns)

Weniger bekannt ist die frontotemporale Demenz (FTD). Korrekter Fachausdruck ist eigentlich der übergeordnete Begriff frontotemporale lobäre Degeneration. Meist wird jedoch der Ausdruck FTD verwendet. Die Krankheit ist bzgl. der Symptomatik von klassischer AD zu unterscheiden und tritt in viel jüngeren Jahren auf. Betroffene zeigen bereits ab einem Alter von etwa 50 Jahren deutliche Symptome im Sinne einer Persönlichkeitsveränderung. Sie verhalten sich desinteressiert gegenüber nahestehenden Menschen und setzen sich in unsozialer Weise ohne Rücksicht auf gesellschaftliche Gepflogenheiten für ihre Interessen ein. Sie wirken oft unkonzentriert und unbedacht, impulsiv, zeigen verändertes, meist gesteigertes Essverhalten und vernachlässigen ihre Körperhygiene. Erst mit erheblichem Krankheitsfortschritt machen sich Beeinträchtigungen der Gedächtnisleistung bemerkbar.

Wie wird Demenz diagnostiziert?

Die Diagnose beginnt typischerweise mit der Überprüfung der kognitiven Fähigkeiten. Labordiagnostik, bildgebende Verfahren wie die Magnetresonanztomografie (MRT), Positronen-Emissions-Tomografie (PET) und evtl. eine Rückenmarkskanalpunktion zur Entnahme von Nervenwasser ergänzen die zuvor durchgeführten Untersuchungen. In dieser Liquorflüssigkeit kann am Vorhandensein von speziellen Biomolekülen (Marker) eine Diagnose gesichert werden: Ab einer gewissen Konzentration von Markern kann man vom Vorliegen einer Demenz ausgehen.

Was ist los im Gehirn von Demenzpatient:innen?

Mittlerweile kennt man die neurobiologischen Mechanismen, nach denen eine Demenzerkrankung abläuft, ganz gut. Verantwortlich für den Verlust von Nervenzellen sind zwei Proteine: Amyloid-beta (Aβ) und Tau. Aβ wird aus dem Vorläufer-Protein APP gebildet. Dabei wird das in der Membran von Neuronen natürlicherweise vorkommende APP durch sogenannte Sekretasen „zerschnitten“. Aβ ist eines der Fragmente, die dabei entstehen. In einem weiteren Schritt verklumpen Aβ-Fragmente erst zu kleineren Oligomeren, die noch löslich sind und schließlich zu größeren Polymeren. Diese bilden einen Eiweiß-Plaque, der sich an den Nervenzellen absetzt. Das stört die Kommunikation der Neuronen und verursacht Entzündungsreaktionen.

Die zweite Komponente der Veränderung betrifft das Tau-Protein. Dieses Protein kommt genau wie APP auch bei gesunden Menschen vor. Tau-Proteine sind verantwortlich für die Stabilität von Nervenzellen und spielen eine wichtige Rolle bei der Nährstoffversorgung. Bei Demenzpatient:innen sind sie jedoch so chemisch verändert, dass sie zu Fasern, den sogenannten Tau-Fibrillen aggregieren. Die Neuronen verlieren dadurch ihre Form und Funktion.

Schematische Abbildung eines Gehirns im zeitlichen Verlauf (von links nach rechts) einer Demenzerkrankung. (Quelle: freepik, brgfx)

Beide Eiweißablagerungen stören die Nervenreizleitung im Gehirn und sind verantwortlich für das Absterben von Nervenzellen. Die unterschiedlichen Demenzerkrankungen AD und FTD sind im Vorkommen der beiden verschiedenen Protein-Aggregaten begründet: So findet man bei AD-Patient:innen immer Aβ-Plaque und Fasern aus Tau-Polymeren, bei FTD-Patient:innen hingegen werden nur Tau-Fibrillen beobachtet.

Auch die betroffenen Hirnregionen unterscheiden sich, woraus unterschiedliche Unterformen der Erkrankungen AD und FTD und auch eine spezifischere Symptomatik abgeleitet werden können.

Neues Wissen, neue Medikamente und ein neuer Marker

Obwohl an neurodegenerativen Erkrankungen intensiv geforscht wird, muss man sich darüber im Klaren sein, dass es sich bei unserem Gehirn um das komplexeste unserer Organe handelt. Die Forschung ist demnach auch um ein vielfaches aufwändiger als in anderen physiologischen Bereichen.

Die Theorie der Amyloid-Kaskade war lange Zeit umstritten. Auch heute ist die Rolle des Aβ-Plaque noch nicht final geklärt. Zwar ist man sich darüber einig, dass die Ablagerungen eine zentrale Rolle im neurodegenerativen Prozess spielen, aber es gibt noch offene Fragen und scheinbar widersprüchliche Befunde.

So weiß man z. B., dass es Familien gibt, deren Mitglieder über Generationen hinweg trotz sehr hohen Alters keine Demenzanzeichen aufwiesen. Untersuchungen zeigten, dass diese Menschen aufgrund ihres Genoms weniger Amyloid bildeten als der normale Bevölkerungsquerschnitt. Und zwar nicht nur in höherem Alter, sondern lebenslang. Andererseits weiß man seit einigen Jahren, dass Medikamente, die auf die Reduzierung des Plaques abzielen, zwar erfolgreich wirken, also die Ablagerungen deutlich verringern können, aber trotzdem keine nennenswerte Verbesserungen der Gedächtnisleistung erzielen.

Ist das ein Widerspruch? Nicht, wenn man davon ausgeht, dass die Schädigungen vielleicht schon früher entstehen. Mittlerweile weiß man, dass schon zwanzig Jahre vor Auftreten der typischen Demenz-Symptome veränderte Prozesse im Gehirn ablaufen. Schon die als Plaque-Vorstufe entstandenen Aβ-Oligomere könnten Nervenschäden anrichten. Anfang Januar erfolgte in den USA die Zulassung des Medikaments Lecanemap, das bereits auf Plaque-Vorstufen abzielt.

Nur noch 15 % der Medikamente in Forschungsphasen zielen auf die reine Amyloid-Plaque-Reduktion ab. Mit zunehmenden Detailkenntnissen bzgl. der Störungen im Stoffwechsel des menschlichen Gehirns können auch weitere Zielmoleküle als „Angriffspunkt“ neuer Wirkstoffe hinzukommen.

Kürzlich stellte ein internationales Forscher:innenteam einen neuen Biomarker zur Unterscheidung von AD und FTD vor. Ihre Vermutung: Die sogenannte Arginin-Methylierung, eine chemische Modifizierung des Proteinbausteins Arginin, könnte ein Treiber der FTD-Erkrankung sein. Auf den ersten Blick ist das Detailwissen, das klein erscheint im Vergleich zu Eiweißplaque, der schon mit dem bloßen Auge sichtbar sein kann. Auf den zweiten Blick wird jedoch klar: aus solchem Detailwissen setzt sich am Ende unser Wissen über die Funktion von gesundem und krankem Gehirn zusammen. Es ist eben komplex.


Literatur:

https://www.sueddeutsche.de/wirtschaft/erste-alzheimer-patientin-die-akte-auguste-deter-1.2573958

https://exzellent-erklaert.podigee.io/2-new-episode

https://www.dasgehirn.info/aktuell/frage-an-das-gehirn/wie-veraendert-sich-das-gehirn-bei-demenz

https://www.dasgehirn.info/krankheiten/morbus-alzheimer/gefahr-fuers-gehirn-den-ursachen-von-alzheimer-auf-der-spur

https://www.alzheimer-forschung.de/alzheimer/wasistalzheimer/veraenderungen-im-gehirn/

F. Zhang et al., Brain regions show different metabolic and protein arginine methylation phenotypes in frontotemporal dementias and Alzheimer`s disease, Progress in Neurobiology 221: 102400-102413, 2023.

Hexagonales Wasser – Humbug mit Heilversprechen

Die Erzählung vom Wasser mit Gedächtnis trägt viele verschiedene Titel und ist schon einige Jahrzehnte alt. Auch das sog. hexagonale Wasser ist ein solch besonderes Wasser. Angeblich ein Wundermittel, das durch seine spezielle Struktur Informationen speichern kann und heilend wirkt. Sogar von einem neuen – vierten Aggregatzustand ist die Rede.

Wasser in flüssigem Aggregatzustand
Wasser in flüssigem Aggregatzustand (Quelle: pexels)

Den Begriffen Polywasser, hexagonales Wasser, strukturiertes Wasser, belebtes Wasser, 4th Phase Water, Exclusion Zone Water (EZ-Wasser), H9-Wasser und vielen anderen ist eines gemein: Sie beschreiben Wasser im flüssigen Zustand, das durch eine definierte Anordnung der Wassermoleküle eine bestimmte Struktur einnimmt. Innerhalb dieser Struktur soll es dann möglich sein, Informationen oder Energie zu speichern. Die These einer definierten Struktur in Flüssigkeiten ist einigermaßen verblüffend, denn eine solche Fernordnung der Moleküle ist schlecht mit der Dynamik zu vereinbaren, die in diesem Aggregatzustand vorherrscht.

Ein Potpourri heilsamer Wirkungen

Dass also gar wundersame Kräfte am Werk sein müssen, um diesen Verband der Wasserteilchen zusammenzuhalten, scheint den VertreterInnen des strukturierten Wassers klar zu sein, denn es wird geradezu als magisch angepriesen: Als „Der heilige Gral der Gesundheit“ [1], als eines der „beeindruckendsten wissenschaftlichen Phänomene der letzten Jahre“ [2], „Ohne EZ-Wasser kein Leben.“ [3]. „Die besondere hexagonale Struktur bedingt, dass sich selbst Öle im Wasser lösen.“ [4], das hexagonale Wasser „reinigt sich von selbst“ [5].

„Studien zufolge hat sich hexagonales Wasser als wirksam bei der Vorbeugung und Behandlung von Krebs, Diabetes, Alterung und AIDS erwiesen.“ [6] „Hexagonales Wasser ist die natürliche Form des Wassers wie wir es in Gebirgsbächen und heiligen Quellen finden. Die falsche Behandlung des Menschen führt aber dazu, dass unser Trinkwasser aus der Leitung oder aus dem Supermarkt nicht in hexagonaler Struktur vorliegt, sondern die Moleküle rechtwinklig angeordnet sind.“ [7]

Um die Bedeutung dieses speziellen Wassers sogar in noch globalere Zusammenhänge zu setzen, wird sogar die Frage aufgeworfen, ob „ewiges Eis schmilzt, um dem globalen Wasserkreislauf mehr hexagonale Strukturen zur Verfügung zu stellen?“ [8]. Große Versprechungen. Das wirft natürlich Fragen auf: Woher kommt das hexagonale Wasser, wie kann man es herstellen? Und worin genau besteht der Unterschied zu „normalem“ Wasser?

Strukturmodell des hexagonalen Wassers

Die hexagonale Struktur soll es also sein, die das Wasser so besonders macht. Das postulierte Strukturmodell geht dabei hauptsächlich zurück auf den amerikanischen Wissenschaftler Gerald Pollack [9]. Er untersucht die Wechselwirkung von sehr dünnen Wasserschichten an unterschiedlichen Oberflächen. Aus diesen Erkenntnissen leitet er die Existenz einer neuen Wasserphase ab, die er die vierte Phase (neben den drei allgemein bekannten Phasen fest, flüssig und gasförmig) oder „Exclusion Zone Water“ nennt. Diese Phase soll geordnet in hexagonalen Schichten vorliegen.

(a): Schematische Darstellung des Wassermonomers und Berechnung der Summenformel und Ladung; (b): Darstellung der Stapelung der Wasserschichten. (Quelle: [9], eigene Abbildung)

Aus der abgebildeten Struktur (linker Teil der Abbildung, (a)) ermittelt Pollack eine neue Summenformel für das Wasser-Monomer, die dann nicht mehr H2O sondern H3O2 wäre. Jedes dieser Sechsringe bekäme dann eine negative Ladung zugeordnet. Die Hexagone können zu Schichten kondensiert und übereinandergestapelt werden (rechter Teil der Abbildung, (b)) und so. die sog. Exclusion Zone (EZ, dt. Ausschlusszone) bilden. Pollack beschreibt diese Zone als einen Bereich, der absolut frei von im restlichen Wasser gelösten Bestandteilen vorliegt. In der EZ, einer etwa 100-200 μm breiten Zone, dominieren die Wechselwirkungen der Wassermoleküle mit dem Trägermaterial sowie die Wechselwirkungen innerhalb einer Schicht und zwischen den einzelnen Schichten.

Da der Bereich der EZ keine weiteren Bestandteile als H3O2 enthält, würde er eine bislang ungesehen große Anhäufung von negativer Ladung darstellen, denn jedes Hexagon ist wie beschrieben negativ geladen. Diese Ladung wird nicht etwa, wie man annehmen könnte, durch die aus H2O formal übrig gebliebenen H+-Ionen ausgeglichen, sondern – und spätestens jetzt wird es esoterisch – liegt als Elektronenplasma delokalisiert im oder um das Netz vor. Sozusagen als Elektronenspirit.

Die Wasserjünger sehen darin die Lösung für Übersäuerung im Körper, freie Radikale, krankmachende Frequenzen, elektromagnetische Wellen und Signale und sogar negative Gedanken sollen darin aufgenommen werden.

Je nach Interpretation des Pollack`schen Modells werden diese negativen Einflüsse dann direkt im hexagonalen Wasser „neutralisiert“, oder es wird ein positiv geladenes Restwasser herbeigeredet, das alles Schädliche löst und wegspült. Aus Pollack`s ohnehin schon zweifelhaftem Modell einer Wasserphase, die in sehr kleinen Bereichen an Grenzflächen vorliegen soll, wird ohne jegliche weitere Erklärung ein Wasser, dessen gesamte Struktur als hexagonale Netze vorliegen soll.

Auch in der Frage, wie es sich mit der Energie des strukturierten Wassers verhält, werden unterschiedliche Ansätze vertreten. Während die einen gehen davon ausgehen, dass das mehr Ordnung in einem System mit einer Energieerniedrigung einhergeht, gehen andere davon aus, dass das hexagonale Wasser wertvoller und damit energiereicher sein muss.

Wunderwasser selbst herstellen?

In einem Punkt sind sie sich jedoch alle wieder einig: Ein Allheilmittel wie das hexagonale Wasser muss jedem zugänglich sein. Und darum bemühen sie sich redlich. Auf dem Markt sind sowohl fertige Produkte wie Sprays oder Gele, als auch eine beträchtliche Reihe von technischen Geräten zum Herstellen von strukturiertem Wasser erhältlich. Vom einfachen Verwirbler bis zur Anlage für Mehrfamilienhäuser wird alles angeboten.

ProduktPreis [€]Anbieter
Hexagonales Wasser, 100 ml39,90biotikon.de
Hochenergiescheibe aus Glas39,90cellavita.de, sternenwasser.info
Hexagonwassser®-Wirbler (Handwirbler)99,90cellavita.de
Hexagonwasser®-Wirbler-Sets (versch. Ausführungen)215,00 – 327,00cellavita.de
Wassermanschette Harmonei®298,00ambition.life
Bio-Energie-Modul350,00mrwater.eu
Wasserverwirbler alchimator®399,00mrwater.eu
Stein der Harmonie755,25hexagonal.com
Tesla-Waver Wasserenegetisierer, WasserstrukturiererBekanntgabe nur im Rahmen eines
Beratungstermins
ambition.life
Wasserbelebung Easyquell home für das ganze Haus1899,00mrwater.eu
Wasserstrukturiererca. 2000hexagonal.com
Überblick über Produkte mit oder zur Herstellung von hexagonalem Wasser.

Auch einige Erholungszentren werben mit speziell angefertigten Ruhesesseln, die von hexagonalem Wasser umflossen werden. Für etwa 50 € pro halbe Stunde kann man sich in den sog. Recreation Lounges [10] entspannen. Deutschlandweit an 15 Standorten, Heilversprechen inklusive.

Die Werbung mit „wissenschaftlichen“ Belegen ist irreführend

Die Werbung für Produkte und Anwendungen mit hexagonalem Wasser spricht immer wieder von wissenschaftlichen Untersuchungen und Studien und impliziert, dass hier neue Erkenntnisse aus der Forschung vorlägen.

Dies betrifft zum einen die Verwendung von wissenschaftlichen Fachbegriffen. So werden z. B. Entropie, Plasma, Wellenlänge, Feldharmonisierung ohne Erklärung verwendet, um den Anschein eines wissenschaftlichen Kontextes zu erzeugen. So wird z. B. postuliert, das hexagonale Wasser habe eine niedrigere Frequenz als normales Leitungswasser [11]. Was soll die erwähnte Frequenz bedeuten? Sind damit die Eigenschwingungen der O-H-Bindung gemeint? Oder emittiert das Wasser gar Strahlung?

An anderer Stelle [12] wird behauptet, durch die Strukturierung verbessere sich der „Redoxwert“ des Wassers. Einen solchen Wert gibt es nicht. Gemeint ist wahrscheinlich das Standardpotential, welches für ein sog. Redoxpaar (z. B. Cu/Cu2+) angegeben wird. Im Zusammenhang mit Sauerstoff ist das Redoxpaar O2-/(1/2) O2 relevant. Die Reaktion ist Teil unserer Zellatmung. Veratmet wird jedoch der Luftsauerstoff (O2), und nicht der Sauerstoff aus dem Wasser (O2-). Soll der verbesserte „Redoxwert“ im hexagonalen Wasser etwa implizieren, dass sich das Wasser am Atmungsprozess beteiligt? Das wäre natürlich wirklich phänomenal.

Auch die falsche Verwendung von Bildern oder Abbildungen ist irreführend. So werden zur Illustration und zum Stützen der Behauptung, es gäbe eine hexagonale Wasserstruktur verblüffend oft Fotos von Eiskristallen gezeigt. Damit wird der Wechsel zu einem anderen Aggregatzustand schlicht unterschlagen. Und es wird impliziert, dass flüssiges Wasser die gleichen Eigenschaften besitzt wie festes Eis.

Aufnahme eines Eiskristalls mit sechszähliger Dreachse (hexagonale Symmetrie).
Aufnahme eines Eiskristalls mit sechszähliger Drehachse (hexagonale Symmetrie).(Quelle: Gerd Altmann, pixabay)

In manchen Fällen wird fundierte wissenschaftliche Literatur angeführt, die das eigentliche Thema jedoch nur geringfügig tangiert und keinesfalls als wissenschaftlicher Beleg für die eigenen Thesen gilt. Dabei kommen Begriffe wie „Wasserstoffbrücken“, „Cluster“ oder „Anomalie von Wasser“ zwar im Titel der Publikationen vor, der eigentliche Inhalt spricht aber in keinem der Fälle [13-17] von hexagonal geschichteten Wasserstrukturen, vielmehr wird der Begriff nicht einmal erwähnt.

Die wissenschaftliche Grundlage und aktuelle Wasserforschung: Was ist wirklich erforscht?

Einige besondere Eigenschaften hat unser Wasser tatsächlich zu bieten: Viele Stoffe sind in Wasser sehr gut löslich, Wasser hat einen vergleichsweise (z. B. mit EtOH) hohen Schmelz- und Siedepunkt. Die temperaturabhängige Änderung der Viskosität ist spannend, Wasser leitet den elektrischen Strom auch ohne zugesetzte Ladungsträger (Salze) und hat seine maximale Dichte nicht wie andere Stoffe am Gefrierpunkt, also bei 0 °C, sondern bei 4 °C. Deshalb ist Eis leichter als Wasser und Seen gefrieren von oben nach unten.

Das sind zwar im Vergleich zu anderen Flüssigkeiten außergewöhnliche Anomalitäten, doch herrscht wissenschaftlich keineswegs Unklarheit darüber, wieso Wasser sich so verhält. Die Temperaturabhängigkeit der Dichte oder das Verhalten des Schmelzpunktes z. B. stehen im Einklang mit der Tatsache, dass Wasser (H2O) auch zu einem kleinen Anteil auch die schwereren Wasserstoff-Isotope Deuterium (D) und Tritium (T) enthält, die die Werte beeinflussen (Smp. (D2O): 3,8 °C, Smp. (T2O): 4,5 °C). [18]

In aller Munde sind immer wieder die berühmten Wasserstoffbrücken (H-Brücken). Diese beruhen auf der Wechselwirkung zwischen dem partiell negativ geladenen Sauerstoff und dem partiell positiv geladenen Wasserstoff der H2O-Moleküle.

(a): Darstellung des Wassermoleküls; (b): Ilustration von Wasserstoffbrückenbindungen zwischen Wassermolekülen (Quelle: [19], eigene Abbildung)

Es ist wichtig, zu verstehen, dass es sich bei den Wasserstoff-Brücken nicht um „echte“ Bindungen handelt, sondern um eine recht schwache Wechselwirkung, nicht zu vergleichen mit der Bindungsstärke einer kovalenten Bindung, wie sie zwischen Sauerstoff und Wasserstoff innerhalb eines Moleküls existiert. H-Brücken machen etwa 10 % eines solchen Wertes aus [19].

Die Wechselwirkungen kommen nicht nur in Wasser vor, sondern auch in Alkoholen, Aminen und manchen Säuren (z. B. Essigsäure CH3COOH). Sie sind verantwortlich dafür, dass unsere DNA als Doppelhelix und nicht als Einzelstrang vorliegt und bedingen die räumliche Struktur von Proteinen. H-Brücken treten nicht nur zwischen Sauerstoff und Wasserstoff auf, sondern z. B. auch zwischen Molekülen mit –NH- oder –SH-Gruppen. Sie können Strukturen stabilisieren, sind aber niemals ohne zusätzliche Bindungen oder Wechselwirkungen strukturbestimmend.

Seit vielen Jahren existieren Untersuchungen über die Auswirkungen von H-Brücken auf den Zusammenhalt von Wassermolekülen. Für derartige Untersuchungen braucht man eine Methode, die sehr kurze Zeitintervalle betrachten kann, weil H-Brücken sich sehr schnell bilden und wieder lösen.

Das kann man sich so vorstellen, als wolle man bei wenig Licht ein Foto machen. Die Belichtungszeit ist dann entsprechend lange und sowohl Objekt als auch Kamera dürfen sich nicht bewegen, damit das Bild scharf wird. Bewegung führt zu unscharfen Bildern. Wasserstoffbrücken sind sehr dynamisch. Sie existieren nur einige Pikosekunden (1 ps = 10-12 s). Das ist eine ungeheuer kleine Zeitspanne; der millionste Teil einer Millionstel Sekunde, um genau zu sein. Danach erfolgt die Bildung einer neuen Wasserstoffbrücke.

Eine Methode zur Untersuchung von derart schnellen Dynamiken ist die Schwingungs- Rotations-Tunnel-Spektroskopie im fernen Infrarotbereich (FIR-VRT). Damit lassen sich tatsächlich kleine Wassercluster beobachten [14, 15, 20]. Quantenchemische Berechnungen (ab-initio- und DFT-Methoden) liefern Aussagen über die thermodynamische Stabilität dieser Cluster. Die Rechnungen bestätigen die experimentell ermittelten Cluster und machen Voraussagen zur Stabilität von größeren Oligomeren, die mittels Spektroskopie nicht gefunden wurden. Dabei ist es wichtig zu verstehen, dass für jedes Oligomer mehrere Cluster denkbar sind, die sich energetisch geringfügig voneinander unterscheiden [20, 21].

Darstellung der berechneten Strukturisomere des Wasserhexamers (Quelle: [15])

Für das Hexamer wurden fünf Isomere berechnet, im Energie-Ranking liegt der Ring (die strukturelle Einheit der hexagonalen Schichten aus Pollack`s Strukturmodell) an vorletzter Stelle. Das Auftreten des Rings wurde einzig bei sehr speziellen Bedingungen, nämlich in flüssigem Helium (unterhalb von -269 °C) beobachtet [22]. Größere Verbände aus Wassermolekülen sind nur in Clathrathydraten bekannt.

Kritik an Pollack`s Strukturmodell

Das wissenschaftliche Interesse von Wasser an Grenzflächen ist groß und wird wie beschrieben mit modernen spektroskopischen Methoden untersucht [23-25]: Moleküldynamiksimulationen ergänzen die experimentell gewonnenen Erkenntnisse [26]. Keine dieser Erkenntnisse ist mit Pollack`s Modell vereinbar.

In der Tat gibt es einige naheliegende Punkte, die das Strukturmodell sehr unwahrscheinlich machen:

  • Die Ladung der Hexagone (und damit der EZ)

Eine Anhäufung von gleichnamiger Ladung ist irrsinnig und hier zudem ein Widerspruch in sich selbst. Denn einerseits ist die Anziehung von negativer Ladung (des O-Atoms) und positiver Ladung (des H-Atoms) die Voraussetzung für die Bildung der H-Brücken, und damit des ganzen Netzwerks. Andererseits soll die gleiche Anziehung zwischen der negativen Ladung des Netzes und der restlichen H+-Ionen nicht stattfinden?

  • Die Planarität der hexagonalen Netze

Strukturgebendes Merkmal aller untersuchter Wasserverbindungen, ob in kleineren Clustern oder in großen Netzwerken wie sie in Eis gefunden werden, ist immer die tetraedrische Koordination des Sauerstoffatoms (vgl. VSEPR-Modell). Schon die Existenz eines einzigen planaren Rings ist thermodynamisch sehr ungünstig. Das Vorliegen von planaren Wasserschichten ist im flüssigen wie im festen Zustand nicht plausibel.

  • Die Isomerie von Oligomeren

Nach Pauling existieren für die Anordnung von N Wassermolekülen theoretisch (3/2)N Isomere.

Ein hochsymmetrisches Netzwerk aus Millionen von Molekülen mit ist also denkbar unwahrscheinlich.

  • Die Lebensdauer der H-Brücken

Findet in Pollack`s Darstellung leider nicht einmal Erwähnung und wird schlicht ausgeblendet.

  • Die Anzahl der Bindungen und H-Brücken

In allen bekannten Strukturen ist jedes O-Atom über kovalente Bindungen mit zwei H-Atomen verknüpft. Zusätzlich ist jedes O-Atom Akzeptor und Donor einer H-Brücke. Diese Bindungssituation geht mit der tetraedrischen Koordination des Sauerstoffs einher. In Pollack`s Modell werden drei Bindungen zu H-Atomen in einer Ebene mit dem O-Atom und eine H-Brücke zur nächsten Ebene postuliert.

Trotz aller Kritik sollte festgehalten werden, dass sich Pollack`s Ausführungen auf die Grenzfläche, die Exclusion Zone, bezieht. Diese umfasst nach seinen Angaben wenige hundert Mikrometer, also einige zehntel Millimeter. Das Modell ist also keineswegs dazu geeignet auf größere Wassermengen übertragen zu werden. Trotzdem ist Pollack regelmäßig Gastredner auf Kongressen und Symposien von Vereinigungen der Alternativmedizin und alternativer Wasserforschung (z. B. Drei-Länder-Wasser-Symposium der DGEIM, 12.11.2013, New Horizons in Water Science – Homeopathy New Evidence, 13. – 14.07.2018, INK Umweltkongress 29. – 30. 3. 2019). In seinen Vorträgen erklärt er sein Strukturmodell und es wird auf traurige Weise deutlich, wie sehr grundlegende Prinzipien der Strukturchemie missachtet werden, weil er offensichtlich keine Ahnung von deren Kenntnis hat (z. B. https://www.youtube.com/watch?v=7SO55sRzzQo . Minute 33-42). Ihm scheint nicht klar zu sein, dass Strukturmodelle auf Basis von gemessenen oder berechneten Daten erstellt werden. Dazu gehören auch die Angaben von Kennwerten wie Bindungsabstände, Bindungswinkel und die Beschreibung der chemischen und geometrischen Umgebung der an der Struktur beteiligten Atome. Er hingegen entwickelt sein Strukturmodell ausgehend von einer Struktur von Eis, die er im Übrigen auch noch falsch verstanden hat. Messungen oder Berechnungen anhand eines simulierten Strukturmodells hat er nicht angefertigt. Das ist ein bisschen wenig in Anbetracht der Behauptung, dass das hexagonale Wasser den vierten Aggregatzustand darstellen soll.

Doch damit nicht genug. Die Behauptungen zu kommerziell vermarktetem hexagonalem Wasser gehen noch viel weiter.

Kritik an hexagonalem Wasser und dessen Herstellung

Mittels Verwirblern, Steinen oder energetisierten Glasscheiben soll es möglich sein, das gesamte Wasser zu strukturieren. Es ist nicht immer schlecht, wenn Menschen an Dinge glauben, die sich der wissenschaftlichen Lehrmeinung entziehen. Aber unter dem Deckmantel von wissenschaftlicher Evidenz darf das nicht geschehen. Die Werbeversprechen für hexagonales Wasser sind wissenschaftlich haltlos und irreführend. Laut Gesetz gegen unlauteren Wettbewerb (UWG) ist das sogar gesetzlich verboten.


Literatur:

[1]: https://www.youtube.com/watch?v=B98lmqQHZOU

[2]: https://schoepferinsel.com/hexagonales-wasser-wasserwirbler/

[3]: https://www.brain-effect.com/magazin/ez-wasser

[4]: https://www.biotikon.de/Hexagonales-Wasser.html?msclkid=36801465fedd1c818abc77f9947c2c58&utm_source=bing&utm_medium=cpc&utm_campaign=DE%3A%20Produkte%20(Search)&utm_term=hexagonales%20wasser&utm_content=Hexagonales%20Wasser%20stabilisiert

[5]: https://www.neuro-programmer.de/ez-wasser/

[6]: https://www.aquawissen.de/hexagonales-wasser/

[7]: https://www.sundt.de/blogs/magazin/hexagonales-wasser-herstellen?_pos=1&_sid=1166d5dea&_ss=r

[8]: https://www.hexagonal.com/fluesse-hexagonal-strukturieren/

[9]: G. H. Pollack: Wasser, viel mehr als H2O, VAK Verlags GmbH, Kirchzarten 2014.

[10]: https://recreationlounge.de/

[11]: https://www.hexagonal.com/hexagonales-vs-energetisiertes-wasser/ (aufgerufen am 11.01.2022)

[12]: https://misterwater.eu/hexagonales-wasser-aus-dem-alchimator/?sm-p=954094485

[13]: A. Geiger et al.,Molekulare Eigenschaften und Funktion des Wassers , UniReport – Berichte aus der Forschung der Universität Dortmund, 37: 48-50, 2004.

[14]: F. Keutsch, R. Saykally, Water clusters: Untangling the mysteries of the liquid, one molecule at a time, Proc. Natl. Acad. Sci., 98:10533-10540, 2001.

[15]: R. Ludwig, Wasser: von Clustern in die Flüssigkeit, Angew. Chem., 113: 1856-1876, 2001.

[16]: R. Ludwig, D. Paschek, Wasser: Anomalien und Rätsel, Chem. Unserer Zeit, 39: 164-175, 2005.

[17]: K. Fumino et al., Wasserstoffbrücken in protischen ionischen Flüssigkeiten – Ähnlichkeiten mit Wasser, Angew. Chem., 121: 3230-3233, 2009.

[18]: K. Roth, H2O – Jo mei!, Chem. Unserer Zeit, 47: 108-121, 2013.

[19]: W. Mäntele, Elektrosmog und Ökoboom, Ein naturwissenschaftlicher Blick auf populäres Halbwissen, Springer Verlag, Berlin 2021.

[20]: K. Liu et al., Water Clusters, Science, 271(5251): 929-933, 1996.

[21]: J. Kim, K. S. Kim, Structures, binding energies and spectra of isoenergetic water hexamer clusters: Extensive ab initio studies, J. Chem. Phys., 109: 5886-5895, 1998.

[22] K. Nauta, R. E. Miller, Formation of cyclic water hexamer in liquid helium: The smallest piece of ice, Science, 287: 293-295, 2000.

[23]: J. Penfold, The structure of the surface of pure liquids, Rep. Prog. Phys., 64: 777-814, 2001.

[24]: G. L. Richmond, Molecular bonding and interactions at aqueous surfaces as probed by vibrational sum frequency spectroscopy, Chem. Rev., 102: 2693-2724, 2002.

[25]: K. R. Wilson et al., Investigations of volatile liquid surfaces by synchrotron X-ray spectroscopy of liquid microjets, Rev. Sci. Instr., 75: 725-736, 2004.

[26]: I. F. W. Kuo, C. J. Mundy, An Ab intitio molecular dynamics study of an aqueous liquid-vapor interface, Science, 303: 658-660, 2004.

Zur Beurteilung von Studien – eine weitere Handlungsempfehlung

Wer wissenschaftlich seriös erscheinen will, argumentiert mit Studienergebnissen. Oft bleibt es leider bei der reinen Behauptung „Studien haben ergeben…“. Um die Plausibilität dieser Studien zu beurteilen, braucht es zwar tiefes Fachwissen, jedoch kann man sich schon anhand von einigen Rahmen-Parametern ein Bild darüber verschaffen, ob es sich um echte Forschungsergebnisse oder um Aufmerksamkeitsheischerei handelt.

Studien sind verschriftlichte Forschungsberichte zu einem bestimmten Thema. Sie erscheinen als Publikationen in wissenschaftlichen Fachjournalen wie z. B. Science, Nature oder The Lancet. Für jeden wissenschaftlichen Bereich gibt es Hunderte von Fachzeitschriften. Nicht in allen wissenschaftlichen Bereichen wird explizit der Begriff „Studie“ verwendet. Speziell in den Naturwissenschaften spricht man eher von Publikationen. Trotzdem wird im Folgenden der Einfachheit halber der Begriff Studie verwendet, auch wenn nicht immer von Fallstudien die Rede ist. Eine Studie ist immer ein kleiner, aber sehr detaillierter Beitrag zu einer konkreten Fragestellung. Große Zusammenhänge wie z. B. der menschengemachte Klimawandel werden keinesfalls in einer einzigen Studie betrachtet. Die Forschungsergebnisse zu solch umfassenden Themen setzen sich wie ein Puzzle aus unzähligen Studien zu einem Gesamtbild zusammen.

Von der Forschung bis zur Veröffentlichung

Forschung findet in Deutschland nicht nur an den Universitäten, sondern auch an (staatlich geförderten) Instituten wie z. B. den Fraunhofer-Instituten oder den Max-Planck-Instituten statt. Ein relevanter Teil der Forschung wird auch direkt von der Industrie betrieben.

Wer seine Forschungsergebnisse veröffentlichen will, muss sich an eine Fachzeitschrift, ein sog. Journal wenden und seine fertige Studie dort einreichen. Passt das Thema und sind die Ergebnisse auf den ersten Blick plausibel und ausreichend, wird die Studie angenommen. Es ist aber auch möglich, dass sie abgelehnt wird.

Hat das Journal Interesse an einer Publikation, beginnt die Begutachtungsphase, das Peer-Review-Verfahren. Als GutachterInnen werden mehrere ExpertInnen eingesetzt, die zu sehr ähnlichen Forschungsgebieten forschen und sich mit den Mess- und Analysenmethoden sehr gut auskennen. Sie prüfen die Studie auf inhaltliche und formale Fehler und geben dann anonym Rückmeldung, was evtl. verbessert oder nochmals überprüft werden muss. Das Review-Verfahren kann mehrere Durchläufe umfassen und wird erst beendet, wenn die externen GutachterInnen keine Fehler mehr beanstanden. Dann wird die Studie von der Zeitschrift akzeptiert und veröffentlicht. Sie erscheint als Publikation, auch Paper genannt, im Print- und/oder Online-Format.

Studien sind also immer öffentlich zugänglich. Über die Suchmaschine https://scholar.google.de/ oder über Portale wie https://www.researchgate.net/ oder https://pubmed.ncbi.nlm.nih.gov/ (für medizinische oder pharmazeutische Forschungsbereiche) hat jedeR Zugang zu den begutachteten Publikationen. Manchmal ist der Zugang zur kompletten Studie jedoch kostenpflichtig, während die Zusammenfassung, der sog Abstract, immer kostenfrei lesbar ist. Weil das Begutachtungsverfahren mehrere Wochen bis Monate dauern kann und in populären Forschungsbereichen hoher Konkurrenzdruck herrscht, ist es dort üblich, die Ergebnisse schon vor Abschluss des Verfahrens auf sog. Pre-Print-Servern zu veröffentlichen. Wie der Name schon sagt, handelt es sich aber um nicht offiziell veröffentlichte Ergebnisse, von denen man nicht einmal weiß, ob sie überhaupt jemals veröffentlicht werden. Diese Pre-Prints sind zur Einsicht für KollegInnen bestimmt, und für fachfremde Leserschaft ungeeignet. Es ist nicht anzuraten, diese Informationen zu Handlungsempfehlungen oder Argumentationshilfen heranzuziehen.

Wie ist eine Studie aufgebaut?

An eine wissenschaftliche Publikation werden hohe Qualitätsanforderungen gestellt. Ob diese immer erfüllt sind, ist für Laien nicht zu beurteilen. Jedoch kann man sich anhand des Aufbaus einer Studie einen Eindruck verschaffen, ob die übliche Form eingehalten wurde.

Nach dem Titel werden die AutorInnen mit Angabe der Forschungseinrichtungen und Kontaktdaten aufgelistet. Hier werden alle beteiligten Personen aufgeführt, die zur Studie beigetragen haben. Im Abstract zur Publikation werden die Ergebnisse in wenigen Sätzen zusammengefasst, damit LeserInnen zu Beginn wissen, ob die Studie für sie relevant ist.

Beispiel einer ersten Seite einer naturwissenschaftlichen Studie
Beispiel der ersten Seite einer naturwissenschaftlichen Studie

Im ersten Abschnitt der eigentlichen Publikation, der Einleitung, wird das Thema vorgestellt und der Forschungsbeitrag in die bisherigen Erkenntnisse eingeordnet.

 Im zweiten Abschnitt werden dann die Ergebnisse präsentiert und im dritten Abschnitt schließlich ausführlich diskutiert. Die Ergebnisse werden übersichtlich in Tabellen und Abbildungen dargestellt, um den Überblick über meist große Datenmengen zu erleichtern. In der Diskussion setzen sich die AutorInnen kritisch mit den Ergebnissen auseinander, weisen auch auf Widersprüche und Limitationen hin.

Anschließend wird im Experimentellen Teil oder Methodenteil beschrieben, welche Mess- oder Rechenmethoden angewendet wurden, je nach Thema ist auch eine Fehlerbetrachtung nötig. Hier wird sehr transparent Auskunft über alle verwendeten Hilfsmittel, auch über verwendete Computersoftware gegeben. Damit ist sichergestellt, dass die erhaltenen Ergebnisse auch von anderen reproduziert werden können.

Im letzten Teil einer Publikation werden Schlussfolgerungen gezogen. Oft wird hier auch ein Ausblick in laufende oder zukünftige Forschungsarbeiten formuliert.

Am Ende der Studie stehen oft Danksagungen oder Hinweise auf Interessenskonflikte und schließlich die meist sehr lange Literaturliste, eine Aufzählung von anderen Forschungsarbeiten, die für die eigene Arbeit grundlegend sind oder aus denen zitiert wurde. Die Literaturliste umfasst nicht selten mehr als hundert Verweise. Alle sind durch hochgestellt Nummern im Text gekennzeichnet, damit nachvollzogen werden kann, warum die jeweiligen Literaturstellen angegeben wurden.

Der Versuch einer Qualitätsbeurteilung

Eine Studie nach ihren formalen Kriterien zu beurteilen, kann eigentlich jeder. Schwieriger ist die Beurteilung der Qualität. Das obliegt eigentlich nur Fachleuten. Trotzdem gibt es Kennzahlen und einige Fachbegriffe, die zumindest Orientierung geben können.

Eine bekannte, aber oft falsch verwendete Kennzahl ist der sog. Impact-Faktor. Er berechnet sich aus der Anzahl der Zitate auf Publikationen eines Journals im Verhältnis zur Gesamtzahl der erschienenen Publikationen im selben Zeitraum. Der Impact-Faktor wird oft als Qualitätsmerkmal getreu dem Motto „viel zitiert heißt heiß geliebt“ benutzt, was zu Missverständnissen führt. Zum einen bezieht sich der Faktor auf eine Fachzeitschrift und nicht auf Personen und zum anderen lässt er keine Vergleiche zwischen den Fachgebieten zu. In populären Wissenschaftszweigen wie z. B. der Krebsforschung wird um ein Vielfaches mehr publiziert als beispielsweise in experimenteller Astrophysik.

Eine weitere Kennzahl ist der Hirsch-Index, der personenbezogen berechnet wird. Er beschreibt, wie häufig ein Wissenschaftler oder eine Wissenschaftlerin zitiert werden. Auch dieser Zitationsindex ist stark von der Popularität eines Forschungsgebietes und vom Renommee der Forschenden abhängig.

Studien aus der medizinischen oder pharmazeutischen Forschung

Medizinische oder pharmazeutische Forschung beschäftigt sich oft mit der Entstehung von Krankheiten und der Wirksamkeit von Heilmitteln. Um das zu untersuchen, kann man Beobachtungsstudien oder Interventionsstudien durchführen. Beobachtungsstudien können z. B. als Kohortenstudien vorgenommen werden. Z. B. kann das Auftreten einer Krankheit oder die Ermittlung eines Risikofaktors im zeitlichen Verlauf durch Beobachtung einer Gruppe von Versuchspersonen ermittelt werden. Diese Studien werden fast immer begleitend, selten auch rückblickend durchgeführt. Fall-Kontroll-Studien hingegen ziehen meist retrospektive Vergleiche. Zu jedem (Krankheits-) Fall existiert ein gesunder Kontrollfall, das Auftreten der Krankheit wird dann durch Vergleich erforscht.

Interventionsstudien sind Studien, bei der Wirkstoffe oder therapeutische Maßnahmen verordnet werden. Im Idealfall gibt es auch hier eine Kontrollgruppe, die ein Placebo erhält. Das Studiendesign ist sinnvollerweise doppelt verblindet, d. h. weder die Behandelnden noch die StudienteilnehmerInnen wissen, ob sie der Fall- oder der Kontrollgruppe angehören. Die Zuordnung zu einer der beiden Gruppen sollte nach dem Zufallsprinzip, d. h. randomisiert erfolgen.

Schwächen klinischer Studien

Schwierigkeiten in klinischen Studien ergeben sich oft aus der Gruppengröße, die der Untersuchung zugrunde liegt. Wird beispielsweise durch eine Interventionsstudie untersucht, ob ein neues Medikament gegen Bluthochdruck wirksam ist, so wird für den reinen Test der Wirkung eine kleinere Personengruppe genügen, weil der Effekt in zeitlich überschaubarem Rahmen und eindeutig messbar ist. Wird jedoch die Wirksamkeit von täglichem Meditieren auf den Blutdruck untersucht, ist der Effekt schwächer. Deshalb muss auch die Personengruppe vergrößert werden, um sichere Aussagen über die Wirksamkeit treffen zu können. Ein Qualitätsmerkmal von Studien im medizinisch-pharmazeutischen Bereich ist das ausgewogene Verhältnis von Gruppengröße und Effektstärke der Intervention.

Ein weiteres wichtiges Qualitätsmerkmal ist der Ausschluss von Störfaktoren, die z. B. die Messung der Wirksamkeit beeinflussen. In der oben genannten Studie zur Wirksamkeit eines Blutdrucksenkers, würde das Messergebnis verfälscht werden, wenn in der Testgruppe mehr RaucherInnen wären als in der Kontrollgruppe. Die Vermeidung von solchen Confoundern klingt in diesem Beispiel banal, manchmal kennt man aber noch gar nicht alle Risikofaktoren und kann nicht auf den ersten Blick abschätzen, ob man eine unentdeckte Verzerrung oder einen tatsächlichen Effekt beobachtet.

Tatsächlich ist es leider so, dass Forschung lange dauert und sehr kleinteilig arbeitet. Bahnbrechende Erkenntnisse ergeben sich sehr selten aus einzelnen Studien. Es ist eher so, dass eine Vielzahl von Untersuchungen mit der Zeit erst eine echte Sicherheit bringt.


Literatur:

  1. W. Stock, The inflation of impact factors of scientific journals, Chem Phys Chem. 10 (13): 2193-2196, 2009.
  2. M. Schumacher, G. Schulgen, Methodik klinischer Studien. Methodische Grundlagen der Planung, Durchführung und Auswertung. 3. Auflage. Springer-Verlag, Berlin, Heidelberg 2009.
  3. R. Müller-Waldeck, Confounding – und wie man damit umgeht, Ärztl. Journal, Serie: Studien verstehen Teil 3, 2019.  

Wie kann man verlässliche wissenschaftliche Informationen erkennen? Eine Handlungsempfehlung

Information von Desinformation zu unterscheiden, ist nicht immer trivial. Dieser Beitrag gibt einen Überblick darüber, was jede(r) tun kann, um mehr Sicherheit bei der Einordnung von Informationen zu erlangen.

Nicht jeder Falschinformation liegt eine böse Absicht zugrunde. Gerade bei wissenschaftlichen Themen, die in den Bereichen Life Sciences, Gesundheit und Klimawandel sehr populär sind, werden Informationen oft generalisiert oder so stark vereinfacht, dass die falschen Schlüsse daraus gezogen werden. Im Falle von Fake News steckt jedoch eine Absicht hinter der Verbreitung von falschen Informationen. Diese können finanzieller oder ideologischer Natur sein. Fake News sind immer Meldungen, die stark emotionalisieren, polarisieren, und bei LeserInnen oft ein Überraschungsmoment auslösen, was dazu führt, dass die Nachricht schnell geteilt wird.

Bei vielen Berichten ist es für fachfremdes Publikum jedoch schwer zu entscheiden, ob es sich um verlässliche Informationen handelt oder nicht und kann in manchen Fällen tatsächlich nur von ExpertInnen beurteilt werden. Trotzdem gibt es einige Stolperfallen für Falschinformationen, die man nacheinander checken kann:

  1. ExpertInnenstatus prüfen

Recherchiere die AutorInnen oder HerausgerberInnen des Beitrags sowie die ExpertInnen, die genannt werden. Es kommt oft vor, dass angepriesene ExpertInnen nie zum jeweiligen Thema publiziert haben. Auf der Suchmaschine Google Scholar findest du durch eine einfache Namenssuche alle wissenschaftlichen Veröffentlichungen von genannten Personen.

https://scholar.google.de/

2. Achte auf fragwürdige Institutionen

Nicht immer, wenn die Begriffe Institut oder Akademie im Namen enthalten sind, handelt es sich um etablierte Forschungseinrichtungen. Sieh dir die Website an.

3. Achte vor allem im medizinischen Bereich auf Verkaufsangebote.

Wird dir z. B. beim Lesen eines Artikels über die Struktur von Wasser ein Gerät zur Herstellung von vermeintlich heilsamem Wasser angeboten, spricht das eindeutig gegen die Seriosität deiner Quelle.

4. Achte auf den Kontext, indem deine Information steht. Bei Büchern kann das der Verlag sein, bei fachlichen Publikationen das sog. Journal. Schau dir an, wer und was dort sonst noch veröffentlicht wird, um einzuschätzen aus „welcher Ecke“ deine Information kommt.

Das Buch “Corona Fehlalarm?” von K. Reiss und S. Bhakdi z. B. wurde im Goldegg Verlag veröffentlicht. Auf der Website des Verlags findet man zum Thema Gesundheit u. A. Bücher mit den Titeln „Gesundgevögelt in 12 Wochen“ oder „Einmal sterben und zurück. Wie man seinen eigenen Tod überlebt und das Herz neue Adern wachsen lässt“.

5. Achte auf die Stilistik deines Beitrags, besonders auf Emotionalisierung und Generalisierung.

Wissenschaftliche Erkenntnisse werden neutral und präzise präsentiert. Aussagen wie „Wlan permanent, auch nachts den Router an – sagen wir mal eine zerstörerische Frequenz“ (P. Zebergs im Youtube-Video zu „Zelltuning mit Hochfrequenz“ auf dem Kanal von QS24.TV) sind zutiefst unwissenschaftlich.

6. Achte darauf, ob Quellen angegeben werden. Wenn ja, mache dir die Mühe und schau sie dir an. Sind das wissenschaftliche Fachartikel? Wird dort die übermittelte Information auch so präsentiert oder kommt das Schlüsselwort einfach nur vor und die Botschaft ist eine ganz andere? Der Punkt der Quellenrecherche ist zeitaufwändig, aber es kommt tatsächlich oft vor, dass WissenschaftlerInnen falsch oder gar missbräuchlich zitiert werden.

Im Fall des oben angeführten „hexagonalen Wassers“ wird immer wieder ein Wissenschaftler aufgeführt, der zwar zum Thema Wasser publiziert hat, jedoch in ganz anderem Zusammenhang.

7. Wenn Abbildungen dargestellt werden, schau dir an, ob schlüssig ist, was daraus hervorgehen soll. Wird das Dargestellte erklärt? Ist eine Legende angeführt, d. h. ist ersichtlich welche Informationen dargestellt sind? Sind die Achsen beschriftet? Es ist nicht selten, dass sinnlose Abbildungen dem Beitrag einen wissenschaftlichen Anstrich geben. Es kommt auch oft vor, dass Abbildungen einfach kopiert werden, ohne die Quelle zu nennen. Oft passt dann auch der Kontext nicht richtig und es können falsche Schlüsse gezogen werden.

8. Wenn du dir trotz reichlicher Prüfung nicht sicher bist, höre dir die Gegenmeinung an und stelle auch dort eine Faktenanalyse an.

Gute Recherche ist ziemlich viel Arbeit. Zum Glück gibt es Fachleute, die das zum Teil schon übernommen haben. Schau gerne mal vorbei:

https://correctiv.org

https://mimikama.at

https://www.mdr.de/wissen/faktencheck/index.html

https://www.quarks.de/science-cops/

https://www.dw.com/de/faktencheck/t-56578552

https://www.swr3.de/aktuell/fake-news-check/index.html

Das Gen-Taxi fährt mit GPS

Als Gen-Taxis werden funktionale Polymere bezeichnet, die Wirkstoffe umhüllen und zielsicher zu bestimmten Zellen transportieren. Die Herausforderungen im Design solcher Transportmoleküle liegt nicht nur im eigentlichen Transport, sondern auch in Aufnahme ins Zellinnere und der Freisetzung des Wirkstoffs.

Gegen Infektionen und Entzündungsprozesse existieren bereits eine Reihe von guten Wirkstoffen. Diese wirken allerdings systemisch auf den ganzen Körper. Es werden deshalb relativ hohe Dosen verabreicht, um auch am Infektionsort eine Wirkung zu erzielen. Das ist mit manchmal mit unerwünschten Nebenwirkungen verbunden. Um Wirkstoffe gezielt an den Infektionsort zu bringen, verfolgt der Ansatz der Gen-Taxis eine clevere Strategie.

Es ist kein revolutionärer mensch-gemachter Ansatz, sondern eine Kopie dessen, was in der Natur seit jeher und ständig passiert. Hier sind es Viren, die ihren „Wirkstoff“, ihre eigene Erbsubstanz, in unsere Zellen einschleusen. Trotzdem ist die Entwicklung von ähnlichen Transportmolekülen kein Kinderspiel.

Im Falle der Gen-Taxis sind die Taxis an sich Polymere wie z. B. die jüngst bekannt gewordenen Lipid Nanopartikel (LNPs). Dr. Anja Träger vom Jena Center for Soft Matter entwickelt solche polymeren Nanotransporter. Neben genetischem Material wie DNA oder RNA können aber auch Proteine oder kleinere Wirkstoffmoleküle als Fahrgäste in den Taxis fungieren.

Die Polymere haben einen Durchmesser von etwa 100 nm und sind damit 500-mal dünner als ein menschliches Haar. Die Ansprüche an die Transportmoleküle sind hoch: Sie müssen ihren Inhalt stabil und zuverlässig verpacken, der Transport muss direkt und ohne Umwege von statten gehen und es muss möglich sein, bestimmte Zelltypen zu adressieren. Von einer Wirkung auf das Immunsystem sollen z. B. Muskelzellen unbehelligt bleiben. Die Transportmoleküle müssen auf dem Weg zu ihren Zielzellen vom Immunsystem unbemerkt bleiben, dürfen nicht mit Blutproteinen wechselwirken, enzymatisch abgebaut werden und sollen eine gute Wasserlöslichkeit zeigen. Zudem müssen sie so beschaffen sein, dass ihr Inhalt am Zielort einfach und vollständig ausgepackt werden kann. Dann hätten sie ihre Funktion erfüllt und könnten abgebaut werden. Dabei ist wichtig, dass sie sich zu gesundheitlich unbedenklichen Einzelteilen zersetzen lassen.

Um selektiv und spezifisch am Zielort einzugreifen, kann z. B. der Stoffwechsel von Zellen ausgenutzt werden. Die Nanotransporter werden dann gezielt mit einem Nährstoff ausgestattet, der für bestimmte Zelltypen spezifisch ist. Diese und andere Strategien gewährleisten, dass die Wirkstoffe direkt da ankommen, wo sie gebraucht werden und sind quasi das Navigationssystem der Gen-Taxis.

Die Bindung des Wirkstoffs an das Polymer findet im Falle von Nukleinsäuren über die ionische Wechselwirkung der negativ geladenen Phosphatreste an die positiv geladenen Polymermoleküle statt.   

Der Transport ins Zellinnere findet über Endosomen statt. Das sind membrangebundene Zellorganellen, die in einem ersten Schritt mit der Oberfläche der Transportpolymere wechselwirken. In einem zweiten Schritt wird die Membran an dieser Stelle eingestülpt und in einem dritten Schritt abgeschnürt. Das mit Wirkstoff beladene Polymer befindet sich nun in einem Vesikel im Zellinneren.

Schematische Darstellung der Aufnahme von Substanzen durch Endozytose
Schematische Darstellung der Aufnahme von Substanzen durch Endozytose (Quelle: Wikipedia)

Doch damit ist die Reise des Wirkstoffs durch den Körper noch nicht ganz beendet, es muss noch aus dem Transportmolekül ausgepackt werden. An den Mechanismen der Freisetzung (endosomal escape) und der Beeinflussung dahin, dass Wirkstoffe schnell und effizient in der Zelle verfügbar sind, forscht auch die Arbeitsgruppe von Anja Jäger. Dafür werden unterschiedliche Polymer-Systeme getestet, die über hydrophobe Interaktionen, pH-Wert abhängige Mizellen oder auch pH-unabhängige Polymere, die auf Aminen basieren, funktionieren. Ob und wann ein Wirkstoff in den Zellen freigesetzt wird, wird über einen Farbstoff im Inneren des Transportmoleküls elektronenmikroskopisch verfolgt.

Die Weiterentwicklung der Gen-Taxis ist also bei weitem nicht abgeschlossen und auch wenn das System um das PEG-Polymer gut etabliert ist, wird es in Zukunft Alternativen geben.


Literatur:

  1. H. Shete et al., Endosomal escape: a bottleneck in intracellular delivery, J. Nanosci. Nanotechnol., 14 (1): 460-474, 2014.
  2. F. Richter et al., Tuning of Endosomal Escape and Gene Expression by Functional Groups, Molecular Weight and Transfection Medium: A Relationship Study, J. Mater. Chem. B, 8: 5026-5041, 2020.
  3.  T. Bus et al., The Great Escape: How Cationic Polyplexes Overcome the Endosomal Barrier, J. Mater. Chem. B, 6: 6904-6918, 2018.

Antibiotikaresistenzen – ein Wettlauf gegen die Evolution

Etwa hundert Jahre nach der Entdeckung des Penicillins ist die Wirksamkeit von vielen Antibiotika zumindest fragwürdig. Neue Wirkmechanismen und grundlegende Veränderungen in der Methodik, neue Medikamente zu finden, sind vielversprechend, aber auch schneller als die Entwicklung von Resistenzen?

Staphylococcus aureus, ein multiresistenter Keim
Staphylococcus aureus, ein multiresistenter Keim (Quelle: Shutterstock)

Unsere Antibiotika basieren auf Naturstoffen. Schon der erste Vertreter, das Penicillin (A. Fleming 1928) wurde aus dem Schimmelpilz Penicillium Chrysogenum gewonnen. Die heutigen Wirkstoffe werden von Mikroorganismen oder rein synthetisch hergestellt. Ihrer Wirkung liegen zwar unterschiedliche Mechanismen zu Grunde, doch eines haben sie alle gemein: sie töten die Erreger (meist Bakterien) ab. Was auf den ersten Blick Sinn der Sache ist, hat den unangenehmen Nebeneffekt, dass dadurch ein hoher Selektionsdruck erzeugt wird: Wer sich der Wirkung des Antibiotikums entziehen kann, überlebt. Und vererbt die neu gewonnene Eigenschaft.

Schon wenige Jahrzehnte nach der ersten Anwendung von Penicillin wurde über Resistenzen berichtet. Die WHO berichtete 2021 im Fact Sheet Antimicrobial Resistance über Resistenzquoten von bis zu 92.9 % für Escherichia coli und bis zu 74.4 % für Klebsiella pneumoniae. Die Quoten variieren stark von Land zu Land je nach Alltäglichkeit des Gebrauchs von Antibiotika.

Doch nicht nur der manchmal ungerechtfertigte Gebrauch der Medikamente im humanen Gesundheitswesen und in der Agrarwirtschaft sind für das Problem der Resistenzen verantwortlich. Die spärliche Entwicklung neuer Wirkstoffe seit den 60-er Jahren hat den Bakterien einen mächtigen Zeitvorsprung verschafft.

Wirkmechanismen bekannter Antibiotika und Ausbildung von Resistenzen

Antibiotika wirken entweder über die Hemmung der Zellwandsynthese der Bakterien oder über die Störung der Proteinbiosynthese am bakteriellen Ribosom. Dies kann z. B. über die Inhibition der an diesem Prozess beteiligten Enzyme wie z. B. der DNA- Polymerase geschehen, oder über die Erzeugung von DNA- Schäden im bakteriellen Genom. 

Natürlicherweise kommt es aber immer wieder dazu, dass Bakterien Wege finden, diesen Wirkungen auszuweichen. So kann ein gehemmtes Enzym überexprimiert werden, oder ein anderes Protein übernimmt eine ähnliche Funktion eines durch Antibiose geschädigten. Es kommt sogar vor, dass Wirkstoffe, die erfolgreich in Bakterienzellen eingedrungen sind, durch spezielle Transportmechanismen wieder ausgeschleust werden. In einigen Fällen, bei den β-Lactam-Antibiotika, kommt die Resistenz dadurch zustande, dass die Bakterien selbst den Wirkstoff inaktivieren. Hier ist das durch Hydrolyse des Lactam-Rings der Fall.

Grundstruktur des Wirkstoffe Penicillin und Penicillin
Grundstruktur des Wirkstoffe Penicillin (rechts) und Cephalosphin (links).

Bakterien in der Lage, durch Genaustausch (z. B. über Transduktion oder Konjugation) diese neue Information mit anderen Bakterien auszutauschen. „Resistenzgene“ können also übermittelt werden.

Auf der Suche nach neuen Wirkstoffen

Die Grundlage dafür, aktiv gegen Resistenzen vorzugehen, ist natürlich die Kenntnis darüber, wie Wirkstoffe wirken und wie Resistenzen ausgebildet werden. Diese Arbeit ist bereits getan. Bei der Suche nach neuen Wirkstoffen wird heute eine computergestützte Empirik betrieben. Parameter wie Wasserlöslichkeit, Bindungsaffinität, Toxizität und Zellpermeabilität auf Basis von bekannten Wirkstoffen werden in Datenbanken mit gigantischer Menge an Naturstoffen eingefüttert, die dann potenzielle Wirkstoffe präsentiert, die ähnliche Eigenschaften haben wie bekannte Antibiotika. Auch Genome Mining ist so ein Substanz-Screening-Verfahren. Wie bei allen Lebewesen ist der Großteil des Genoms inaktiv. Beim Genome Mining wird gezielt nach Genen gesucht, die für eine jeweilige Anwendung (Antibiotika, Cytostatika) interessante Proteine codieren.

Auch neue Wirkmechanismen werden diskutiert. Der Wirkstoff Platensimycin ist der erste Vertreter einer neuartigen Strukturklasse, die über die Störung der Fettsäuresynthese den Aufbau der Bakterien-Zellwand stören.  

Auch zur Störung der Zellteilung gibt es neue Ansätze wie die antibiotisch wirksamen Acyldepsipeptide (ADEPs). Das 2015 vorgestellte Teixobactin hemmt die Zellwandsynthese gleich mehrfach.

Klug ist die Anwendung von Substanzen, die über mehr als einen Mechanismus wirken. Sog. Definsine wie z. B. Plectasin stört die Zellwandsynthese und stimuliert gleichzeitig das Immunsystem.

Durch die Ausweitung der Suche nach neuen antibiotischen Stoffen beschränken sich ForscherInnen seit einiger Zeit nicht mehr auf die ursprünglich untersuchten Bodenbakterien, sondern werden auch in ganz anderen Systemen fündig: In 300 m Meerestiefe, auf der Oberfläche von Borkenkäfern oder in See-Schwämmen.

Abschwächen der Virulenz

Ein neuer Ansatz, der das Problem bei der Wurzel packt, ist das Abschwächen der Virulenz im Gegensatz zum Ziel, das Bakterium zu töten und damit Selektionsdruck zu erzeugen. Solche Medikamente wären jedoch sehr selektiv und man bräuchte schnell Gewissheit darüber, um welchen Krankheitserreger es sich handelt, wenn man ihn behandeln will.


Literatur:

  1. F. Harrison et al.: A 1,000-Year-Old Antimicrobial Remedy with Antistaphylococcal Activity, mBio. Band 6, 2015.
  2. P. H. Mygind et al.: Plectasin is a peptide antibiotic with therapeutic potential from a saprophytic fungu, Nature. 437 (7061): 975-980, 2005.
  3. P. Sass et al.: Antibiotic acyldepsipeptides activate ClpP peptidase to degrade the cell division protein FtsZ, Proceedings of the National Academy of Sciences,108 (42): 17474-17479, 2011.
  4. C. Fischbach et al: New Antibiotics from Bacterial Natural Products, Nature Biotechnology 24(12): 1541-1550, 2006.
  5. C. Nathan: Antibiotics at the Crossroads, Nature 431: 899-902, 2004.
  6. J. Wang et al, Platensimycin is a selective FabF inhibitor with potent antibiotic properties, Natutre, 441: 358–361, 2006.
  7. R. Shukla et al: Teixobactin kills bacteria by a two-pronged attack on the cell envelope, Nature, 608 (7922): 390-396, 2022.