Lass uns doch mal drüber reden! (Teil 1)

Debatten zu wissenschaftlichen Themen sind beliebt, aber leider oft unproduktiv. Argumentationsfehler und Manipulationsversuche erschweren die sachliche Diskussion. Hier ist eine Zusammenstellung der häufigsten Fehler und Tricks.

Ob Pandemie, Klimawandel, Energiekrise oder Verpackungsmüll, die Probleme unserer Zeit liefern reichlich Stoff für hitzige Debatten. Das birgt Konfliktpotential, zeigt aber auch, dass sich viele Menschen in unserer Gesellschaft (mehr oder weniger) Gedanken darüber machen, wie unser Zusammenleben jetzt und in der Zukunft gestalten werden kann. Und es zeigt, dass wir in der glücklichen Lage sind, an dieser Gestaltung teilzunehmen, wenn wir denn wollen.

Argumentationsfehler entstehen, wenn ein Argument fehlerhaft dargelegt wird. Anders als man vermutet, ist ein Argument nämlich nicht einfach eine Behauptung, sondern besteht aus drei Teilen:

Argument = These + Begründung + Beleg oder Beispiel

Bauen die drei Teile des Arguments nicht schlüssig aufeinander auf, oder ist ein Teil falsch, liegt ein Argumentationsfehler vor. Ob das auch als Manipulationsversuch gewertet werden kann, hängt von der Intention der Person ab, die den Fehler begeht. Manipulation ist immer ein bewusster Täuschungsversuch mit der Absicht, das Denken oder Handeln des Gegenübers für die eigenen Zwecke zu beeinflussen. Mit Unterstellungen sollte man aber vorsichtig sein. Denn: Es ist wesentlich schlauer, die Taktik abzuwehren und bei der Diskussion zu bleiben, als mit einem Manipulationsvorwurf vom eigentlichen Thema abzukommen. Manipulationen wirken immer dann besonders gut, wenn man selbst unsicher ist. Ist die eigene Meinung wohldurchdacht und gefestigt, wird man auch seltener manipuliert.

Viele der folgenden Fehler und Tricks ähneln einander oder verfolgen ein ähnliches Ziel. Grob sind sie hier in drei Kategorien unterteilt: Fehlschlüsse, Ablenkungsmanöver und Gewichtungsfehler.

Die Fehlschlüsse

Fehlschlüsse sind Logikfehler. Sie kommen dadurch zustande, dass die Verknüpfung der drei Teile des Arguments nicht schlüssig ist. Fehlschlüsse kommen in Diskussionen sehr häufig vor. Oft, weil Argumente einfach schlecht durchdacht wurden.

  • Korrelation und Kausalität

Ereignisse hängen zeitlich oder zusammen oder passieren am selben Ort, sind aber nicht ursächlich miteinander verknüpft.

Bsp.: „Im April war Lockdown. Im April hat es oft geregnet. Es hat im April oft geregnet, weil Lockdown war.“

  • Dammbruch-Argument

Ein Ereignis zieht Folgen nach sich, die übertrieben dargestellt werden, um der These mehr Gewicht zu verleihen. Oft auch, um Ängste zu schüren.

Bsp.: „Durch den Krieg in der Ukraine werden viele Menschen flüchten müssen. Wir werden also von einer Flüchtlingswelle überrollt werden.“

  • Argumentum ad ignorantiam

Alles, was bisher nicht bewiesen ist, ist falsch. Oder: alles, wofür es keinen Gegenbeweis gibt, ist richtig.

Bsp.: „Beweise mir, dass es keine Ufos gibt.“

  • Zirkelschlussargument

Die These wird nicht begründet oder belegt, sondern dreht sich im Kreis.

Bsp.: „Das ist mein Stammplatz, weil ich immer hier sitze.“

  • Rückschaufehler

Hinterher ist man immer schlauer…

Bsp.: „War ja klar, dass es an der anderen Kasse schneller geht.“

  • Galileo Gambit

Die Wissenschaftsgeschichte zeigt, dass viele neue Theorien erst nicht anerkannt wurden, sich später aber als korrekt erwiesen haben. Das heißt, aber nicht, dass das auf alle neuen Theorien zutrifft.

Bsp.: „Einstein wurde für seine Relativitätstheorie auch erst ausgelacht.“

  • Cui Bono?

Ein Motiv allein reicht nicht als Beweis aus.

Bsp.: „Die deutsche Bahn finanziert Klimaaktivist:innen sich auf der Straße festzukleben, damit weniger Leute Auto und mehr Leute Bahn fahren.“

  • Erklärungslücke

Kann man eine Behauptung nicht beweisen, wird mit „höheren Mächten“ (Gott, übersinnliche Mächte oder Verschwörungen) argumentiert.

Bsp.: „Das kann nur vorherbestimmt sein.“

In Teil 2 folgen in Kürze weitere Argumentationsfehler, die dann etwas eindeutiger manipulativ sind. Stay tuned!

Was sind „Biokunststoffe“ und welche Möglichkeiten bieten sie (nicht)?

Oft geht mit der Vorsilbe Bio- ein beträchtliches Maß an Greenwashing einher. So auch bei den sogenannten „Biokunststoffen“. Schon die Bezeichnung wirft die Frage auf, was das „Bio“ hier eigentlich bedeuten soll und ist ‑ wenn überhaupt ‑ ein Sammelbegriff für ganz unterschiedliche Materialien.

Die Abbaubarkeit von Kunststoffen im Wasser ist denkbar schlecht. (Quelle: Pexels.com, Shivam Tyagi)

Es gibt viele Gründe herkömmliche Kunststoffe auf Erdölbasis durch andere Werkstoffe zu ersetzen: Verringerung der CO2– und Energiebilanz, Verbesserung der Abbaubarkeit und Vermeidung von Mikroplastik sind wohl die offensichtlichsten. Kann „Bioplastik“ eine Lösung sein?

Um diese Frage zu beantworten, musss man sich zunächst den Begriff „Biokunststoffe“ genauer ansehen. Darunter versteht man zum einen Kunststoffe, die aus biologischen Rohmaterialien hergestellt werden und zum anderen Kunststoffe, die biologisch abbaubar sind.

Einteilung der "Biokunststoffe" nach Ursprungsmaterialen und biologischer Abbaubarkeit.
Einteilung der „Biokunststoffe“ nach Ursprungsmaterialen und biologischer Abbaubarkeit. (Quelle: Wikimedia, ple210)

Nachwachsende Ausgangsmaterialien und biologische Abbaubarkeit

Biologischer Ursprung und biologische Abbaubarkeit gehen jedoch nicht zwangsläufig miteinander einher. Ein Kunststoff wie Kautschuk, der auf erneuerbaren Rohstoffen basiert, kann in der Herstellung durchaus weniger Energie verbrauchen, am Ende aber dennoch ein ähnliches Verwertungsproblem liefern wie erdölbasiertes Plastik. Und umgekehrt können bioabbaubare Kunststoffe auch aus fossilen Ursprungssubstanzen hergestellt werden. Allerdings muss man auch hier präzise sein und zwischen Bioabbaubarkeit und Kompostierbarkeit unterscheiden.

Das Institut für Biokunststoffe und Bioverbundwerkstoffe an der Hochschule Hannover schreibt dazu: „Bioabbaubar heißt jedoch nicht gleichzeitig auch kompostierbar: Bioabbaubar bedeutet, dass ein Werkstoff oder Produkt sich mittels Mikroorganismen nach und nach ohne definierte Bedingungen vollständig in CO2, Wasser und Biomasse abbaut. Der dafür benötigte Zeitraum ist nicht entscheidend oder vorgegeben. Kompostierbar jedoch heißt, dass der Werkstoff oder das Produkt sich unter definierten Bedingungen innerhalb eines bestimmten Zeitraums (Wochen / Monate) vollständig in CO2, Wasser sowie Biomasse umwandeln müssen. (…) Mit Kompostierbarkeit ist damit ein schnellerer biologischer Abbau unter konstanten Bedingungen gemeint. Als kompostierbar gekennzeichnete Produkte bedürfen einer Zertifizierung.“

Neben Materialien, die entweder organischen Ursprungs sind oder ein „organisches Ende“ finden, gibt es in der Tat auch welche, die beides können. Solche Kunststoffe (PLA, PHA oder TPS) basieren z. B. auf dem natürlichen Polymer Stärke. Allerdings erschwert die hohe Wasseraffinität die Anwendungstauglichkeit für viele Zwecke. Als sogenannte Verpackungschips kommen die Stärkepolymere dennoch zum Einsatz und bieten eine gute Alternative für Styropor.

Verpackungschips auf Stärkebasis
Verpackungschips auf Stärkebasis (Quelle: Wikimedia, Christian Gahle, nova-Institut)

In Kunststoffblends können Stärkepolymere mit einer wasserabweisenden Schicht überzogen werden und so auch für andere Zwecke zum Einsatz kommen.

Die Zusammensetzung bestimmt die Eigenschaften

Für viele Anwendungen sind spezielle Eigenschaften wichtig. Härte, Elastizität, Formbarkeit, Bruchfestigkeit, UV-Beständigkeit und Eigengewicht z.B. sind zentrale Argumente bei der Eignung eines Kunststoffs für einen speziellen Zweck. Die Erfahrungen mit Biokunststoffen sind begrenzt; sie machen aktuell nur etwa 1 % des Marktanteils aus. Von den rund 370 Millionen Tonnen des global produzierten Plastiks entfallen etwa 2 Millionen Tonnen auf Biokunststoffe. Oft gelten sie als kompliziert in der Anwendung, was auch auf die mangelnde Erfahrung mit diesen Werkstoffen zurückzuführen ist. Für Anwender:innen gibt es mittlerweile eine Datenbank, die mehr als 1500 Materialien inkl. deren Eigenschaften und technischen Daten auflistet.

Materialien der Zukunft?

Als ein zentrales Vorhaben für die Kreislaufwirtschaft von Kunststoffen hat die EU-Kommission am 30.11.2022 die Schaffung eines politischen Rahmens für Biokunststoffe definiert. In Form von Richtlinien soll festgeschrieben werden, unter welchen Umständen Bioplastik sinnvoll ist und wie solche Produkte gekennzeichnet werden sollen.

Auch wenn der Anteil biobasierter und biologisch abbaubarer Werkstoffe voraussichtlich weiter ansteigen wird, ist nicht absehbar, dass sie in naher Zukunft einen wirklich relevanten Anteil des herkömmlichen Plastiks ersetzen können. Die Kritik an den sogenannten New-Economy-Bioplasics, dass sie wertvolle Anbauflächen blockieren, ist demnach nicht gerechtfertigt. Die Zahlen sprechen für sich: Selbst wenn alle Plastikmaterialien durch Biokunststoffe ersetzt würden, entspräche das nur Einbußen von 2,9 % der globalen landwirtschaftlichen Nutzfläche. Eine vergleichsweise kleine Zahl in Anbetracht der Tatsache, dass rund 70 % der Nutzfläche auf Weideland für Nutztiere anfällt.

Die Kritik am Begriff „Biokunststoff“ ist berechtigt, da er impliziert, dass alle Materialien einfach kompostierbar sind. Dies ist nicht der Fall. Eine Studie zur Abbaubarkeit von verschiedenen Kunststoffen in Meerwasser untersuchte die biologische Abbaubarkeit in der Ostsee und im Mittelmeer. Das Ergebnis zeigt eine deutliche Abhängigkeit der Abbauraten vom Milieu. So wurde beispielsweise Cellulose im Kieler Ostseewasser binnen 20 Tagen zu 90 % abgebaut. Im Mittelmeerwasser bei Elba waren nach der gleichen Zeit noch knapp 50 % des Materials erhalten. Bioabbaubarkeit ist also auch kein Begriff, der pauschal verwendet werden sollte.

Und selbst wenn es so wäre, dass sich Biokunststoffe ganz einfach zersetzen ließen, müsste die Energie- und Ökobilanz der Rohstoffe sowie des Herstellungsprozesses mit in Betracht gezogen werden.

Biokunststoffe sind zukunftsfähige Materialien und die Forschung dazu ist wichtig, weil unsere Erdölvorräte endlich sind. Trotzdem ist der Weg zur „guten Ökobilanz“ noch weit. Aktuell sind Kompostieranlagen noch nicht auf biologisch abbaubares Plastik ausgelegt. Es fehlt noch an Wiederaufbereitungsmöglichkeiten für Biokunststoffe und die Produktion aus Abfallprodukten, beispielsweise aus Abwässern der Milchproduktion oder der Ölgewinnung, steckt noch in den Kinderschuhen. Heute sind Biokunststoffe deshalb noch keine gewichtige Alternative, aber sie bieten vielversprechende Möglichkeiten. Doch egal ob herkömmliches Plastik oder ressourcenschonende Alternativen: Biokunstoff darf kein Wegwerf-Alibi sein. Der Traum von Rohstoffen und Energie im Überfluss ist ausgeträumt und ein gedankenloser Umgang mit Gebrauchsmaterialien ist nicht mehr zeitgemäß.   


Literatur:

https://dakebiku.ifbb-hannover.de/lca/basics

IfBB-Webinarreihe: https://www.ifbb-hannover.de/de/webinare.html

https://www.umweltbundesamt.de/biobasierte-biologisch-abbaubare-kunststoffe#haufig-gestellte-fragen-faq

https://www.umweltbundesamt.de/service/uba-fragen/verrottet-plastik-gar-nicht-nur-sehr-langsam

https://www.kunststoffe.de/a/fachartikel/klimawandel-staerkt-nachfrage-311500

Fun Fact Friday am 10.03.2023

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Ein Halimeter ist ein Gerät zur Messung von Mundgeruch.

Die Bezeichnung „Biokunstoff“ bedeutet nicht zwangsläufig, dass ein Kunststoff biologisch abbaubar ist.

Krokusse enthalten den Giftstoff Picrocrocin. Aufgrund des sehr bitteren Geschmacks ist die Gefahr einer ernsthaften Vergiftung aber eher moderat.

Schneeglöckchen enthalten gleich mehrere giftige Bestandteile. Unter anderem das Alkaloid Galanthamin, das Erbrechen, Durchfall, Benommenheit und Schweißausbrüche auslöst.

Das Datum des meteorologischen Frühlingsanfangs ist immer gleich: am 1. März. Der kalendarische Frühlingsanfang ist der Zeitpunkt, an welchem Tag und Nacht exakt die gleiche Länge haben. In diesem Jahr ist das der 20. März um 22.25 Uhr.

Neuer Biomarker zur Diagnose von Demenz entdeckt

„Ich habe mich sozusagen selbst verloren.“, so der Ausspruch von Auguste Deter, der ersten bekannten Alzheimer-Patientin, zur Beschreibung ihrer Symptome. Nur fünf Jahre später verstarb die damals 56-Jährige an den Folgen ihrer Erkrankung. Der Fall Deter läutete den Beginn der Demenzforschung ein. Was ist knapp 120 Jahre später über die Krankheit bekannt und welche Fortschritte macht die Forschung?

Demenz betrifft meist Menschen höheren Alters (Quelle: pixabay, mohamed hassan)

Demenz ist eine neurodegenerative Erkrankung. D. h. Betroffene erleiden einen Verlust an Aktivität und Anzahl von Nervenzellen im Gehirn. Dies zeigt sich, zumindest in frühen Phasen der Alzheimer-Erkrankung, in einer verminderten Gedächtnisleistung. Dabei bedeutet Gedächtnis viel mehr als die reine Merkfähigkeit. Es umfasst viele kognitive Domänen und beinhaltet auch sprachliches Können, räumliches Vorstellungsvermögen und Arbeitsplanung.

Warum steigt die Anzahl der Betroffenen?

Das statistische Bundesamt gibt für Deutschland im Jahr 2021 eine absolute Zahl von 1,7 Millionen Demenzpatient:innen mit einem Alter von 65 Jahren und älter an. Etwa zwei Drittel davon sind von der häufigsten Demenzform, der Alzheimer-Krankheit, betroffen. Begründet durch die geburtenstarken Jahrgänge ab etwa 1950 steigen die Zahlen seit einigen Jahren massiv an. Frauen sind mit ca. 70 % wesentlich häufiger betroffen als Männer. Dies ist auf die höhere Lebenserwartung von Frauen und auch auf physiologische (hormonelle) Ursachen zurückzuführen.

Das Risiko an Demenz zu erkranken, steigt bekanntermaßen mit dem Alter an. Während nur 1 % der 65-Jährigen dement ist, sind bei den über 90-Jährigen über 30 % betroffen.

Alzheimer-Demenz und Frontotemporale Demenz

Jeder kennt die Symptome einer Alzheimer-Demenz (AD), die wie beschrieben mit Gedächtnisverlust einhergehen. Typisch für die frühe Phase der Erkrankung ist das verminderte Kurzzeitgedächtnis. Mit zunehmender Degeneration des Gehirns kommen weitere gravierende Schwierigkeiten wie Verwirrung, Desorientierung, Sprach- und Schlafprobleme, Stimmungsschwankungen und schließlich Sprachverlust und Bewegungsunfähigkeit hinzu.

ADAlzheimer-Demenz
FTDFrontotemporale Demenz
APPAmyloid Precursor Protein (Amyloid Vorläufer Protein)
Amyloid beta
LiquorHirn- bzw. Nervenwasser
NeuronenNervenzellen (hier des Gehirns)

Weniger bekannt ist die frontotemporale Demenz (FTD). Korrekter Fachausdruck ist eigentlich der übergeordnete Begriff frontotemporale lobäre Degeneration. Meist wird jedoch der Ausdruck FTD verwendet. Die Krankheit ist bzgl. der Symptomatik von klassischer AD zu unterscheiden und tritt in viel jüngeren Jahren auf. Betroffene zeigen bereits ab einem Alter von etwa 50 Jahren deutliche Symptome im Sinne einer Persönlichkeitsveränderung. Sie verhalten sich desinteressiert gegenüber nahestehenden Menschen und setzen sich in unsozialer Weise ohne Rücksicht auf gesellschaftliche Gepflogenheiten für ihre Interessen ein. Sie wirken oft unkonzentriert und unbedacht, impulsiv, zeigen verändertes, meist gesteigertes Essverhalten und vernachlässigen ihre Körperhygiene. Erst mit erheblichem Krankheitsfortschritt machen sich Beeinträchtigungen der Gedächtnisleistung bemerkbar.

Wie wird Demenz diagnostiziert?

Die Diagnose beginnt typischerweise mit der Überprüfung der kognitiven Fähigkeiten. Labordiagnostik, bildgebende Verfahren wie die Magnetresonanztomografie (MRT), Positronen-Emissions-Tomografie (PET) und evtl. eine Rückenmarkskanalpunktion zur Entnahme von Nervenwasser ergänzen die zuvor durchgeführten Untersuchungen. In dieser Liquorflüssigkeit kann am Vorhandensein von speziellen Biomolekülen (Marker) eine Diagnose gesichert werden: Ab einer gewissen Konzentration von Markern kann man vom Vorliegen einer Demenz ausgehen.

Was ist los im Gehirn von Demenzpatient:innen?

Mittlerweile kennt man die neurobiologischen Mechanismen, nach denen eine Demenzerkrankung abläuft, ganz gut. Verantwortlich für den Verlust von Nervenzellen sind zwei Proteine: Amyloid-beta (Aβ) und Tau. Aβ wird aus dem Vorläufer-Protein APP gebildet. Dabei wird das in der Membran von Neuronen natürlicherweise vorkommende APP durch sogenannte Sekretasen „zerschnitten“. Aβ ist eines der Fragmente, die dabei entstehen. In einem weiteren Schritt verklumpen Aβ-Fragmente erst zu kleineren Oligomeren, die noch löslich sind und schließlich zu größeren Polymeren. Diese bilden einen Eiweiß-Plaque, der sich an den Nervenzellen absetzt. Das stört die Kommunikation der Neuronen und verursacht Entzündungsreaktionen.

Die zweite Komponente der Veränderung betrifft das Tau-Protein. Dieses Protein kommt genau wie APP auch bei gesunden Menschen vor. Tau-Proteine sind verantwortlich für die Stabilität von Nervenzellen und spielen eine wichtige Rolle bei der Nährstoffversorgung. Bei Demenzpatient:innen sind sie jedoch so chemisch verändert, dass sie zu Fasern, den sogenannten Tau-Fibrillen aggregieren. Die Neuronen verlieren dadurch ihre Form und Funktion.

Schematische Abbildung eines Gehirns im zeitlichen Verlauf (von links nach rechts) einer Demenzerkrankung. (Quelle: freepik, brgfx)

Beide Eiweißablagerungen stören die Nervenreizleitung im Gehirn und sind verantwortlich für das Absterben von Nervenzellen. Die unterschiedlichen Demenzerkrankungen AD und FTD sind im Vorkommen der beiden verschiedenen Protein-Aggregaten begründet: So findet man bei AD-Patient:innen immer Aβ-Plaque und Fasern aus Tau-Polymeren, bei FTD-Patient:innen hingegen werden nur Tau-Fibrillen beobachtet.

Auch die betroffenen Hirnregionen unterscheiden sich, woraus unterschiedliche Unterformen der Erkrankungen AD und FTD und auch eine spezifischere Symptomatik abgeleitet werden können.

Neues Wissen, neue Medikamente und ein neuer Marker

Obwohl an neurodegenerativen Erkrankungen intensiv geforscht wird, muss man sich darüber im Klaren sein, dass es sich bei unserem Gehirn um das komplexeste unserer Organe handelt. Die Forschung ist demnach auch um ein vielfaches aufwändiger als in anderen physiologischen Bereichen.

Die Theorie der Amyloid-Kaskade war lange Zeit umstritten. Auch heute ist die Rolle des Aβ-Plaque noch nicht final geklärt. Zwar ist man sich darüber einig, dass die Ablagerungen eine zentrale Rolle im neurodegenerativen Prozess spielen, aber es gibt noch offene Fragen und scheinbar widersprüchliche Befunde.

So weiß man z. B., dass es Familien gibt, deren Mitglieder über Generationen hinweg trotz sehr hohen Alters keine Demenzanzeichen aufwiesen. Untersuchungen zeigten, dass diese Menschen aufgrund ihres Genoms weniger Amyloid bildeten als der normale Bevölkerungsquerschnitt. Und zwar nicht nur in höherem Alter, sondern lebenslang. Andererseits weiß man seit einigen Jahren, dass Medikamente, die auf die Reduzierung des Plaques abzielen, zwar erfolgreich wirken, also die Ablagerungen deutlich verringern können, aber trotzdem keine nennenswerte Verbesserungen der Gedächtnisleistung erzielen.

Ist das ein Widerspruch? Nicht, wenn man davon ausgeht, dass die Schädigungen vielleicht schon früher entstehen. Mittlerweile weiß man, dass schon zwanzig Jahre vor Auftreten der typischen Demenz-Symptome veränderte Prozesse im Gehirn ablaufen. Schon die als Plaque-Vorstufe entstandenen Aβ-Oligomere könnten Nervenschäden anrichten. Anfang Januar erfolgte in den USA die Zulassung des Medikaments Lecanemap, das bereits auf Plaque-Vorstufen abzielt.

Nur noch 15 % der Medikamente in Forschungsphasen zielen auf die reine Amyloid-Plaque-Reduktion ab. Mit zunehmenden Detailkenntnissen bzgl. der Störungen im Stoffwechsel des menschlichen Gehirns können auch weitere Zielmoleküle als „Angriffspunkt“ neuer Wirkstoffe hinzukommen.

Kürzlich stellte ein internationales Forscher:innenteam einen neuen Biomarker zur Unterscheidung von AD und FTD vor. Ihre Vermutung: Die sogenannte Arginin-Methylierung, eine chemische Modifizierung des Proteinbausteins Arginin, könnte ein Treiber der FTD-Erkrankung sein. Auf den ersten Blick ist das Detailwissen, das klein erscheint im Vergleich zu Eiweißplaque, der schon mit dem bloßen Auge sichtbar sein kann. Auf den zweiten Blick wird jedoch klar: aus solchem Detailwissen setzt sich am Ende unser Wissen über die Funktion von gesundem und krankem Gehirn zusammen. Es ist eben komplex.


Literatur:

https://www.sueddeutsche.de/wirtschaft/erste-alzheimer-patientin-die-akte-auguste-deter-1.2573958

https://exzellent-erklaert.podigee.io/2-new-episode

https://www.dasgehirn.info/aktuell/frage-an-das-gehirn/wie-veraendert-sich-das-gehirn-bei-demenz

https://www.dasgehirn.info/krankheiten/morbus-alzheimer/gefahr-fuers-gehirn-den-ursachen-von-alzheimer-auf-der-spur

https://www.alzheimer-forschung.de/alzheimer/wasistalzheimer/veraenderungen-im-gehirn/

F. Zhang et al., Brain regions show different metabolic and protein arginine methylation phenotypes in frontotemporal dementias and Alzheimer`s disease, Progress in Neurobiology 221: 102400-102413, 2023.

Fun Fact Friday am 10.02.2023

(Fast) jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Die Epigenetik befasst sich mit den Veränderungen des Erbguts auf Chromatinebene. Die „klassische“ molekulare Genetik beschäftigt sich mit der Veränderung der DNA-Sequenz.

Durch die Zunahme von Lichtverschmutzung von 7-10 % pro Jahr sind am Nachthimmel immer weniger Sterne zu sehen.

Von Eis sind etwa 20 verschiedene Modifikationen bekannt. Darunter auch zwei mit superionischen Eigenschaften.

Als Modifikation bezeichnet man „Varianten“ eines Elements oder einer Verbindung, die unterschiedliche Strukturen und Eigenschaften aufweisen.

Diamant und Graphit sind zwei bekannte Modifikationen des Kohlenstoffs.

Fun Fact Friday am 27.01.2023

(Fast) jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Genau wie beim Menschen lässt auch bei der Fruchtfliege die Fähigkeit zu lernen mit zunehmendem Altern nach.

2015 rief die Internationale Astronomische Union (IAU) dazu auf, Namen für Stern-Exoplanet-Paare vorzuschlagen. Das österreichische Votum fiel auf „Franz und Sissi“, nach welchen der Stern HAT-P-14 und sein Exoplanet jetzt benannt sind.

Das Jucken von Mückenstichen kommt vom Speichelsekret der Stechmücken, das die Tiere in die Haut injizieren damit die Blutgerinnung unterdrückt wird.

Der moderne Mann ist genetisch weiter von der modernen Frau entfernt als vom Neandertaler.

Königswasser ist die Bezeichnung einer sehr starken Säure (konz. HCL und konz. HNO3 3:1). Die Bezeichnung rührt daher, dass sich die „königlichen“ Edelmetalle Gold und Platin in keiner anderen herkömmlichen Säure lösen.

Hexagonales Wasser – Humbug mit Heilversprechen

Die Erzählung vom Wasser mit Gedächtnis trägt viele verschiedene Titel und ist schon einige Jahrzehnte alt. Auch das sog. hexagonale Wasser ist ein solch besonderes Wasser. Angeblich ein Wundermittel, das durch seine spezielle Struktur Informationen speichern kann und heilend wirkt. Sogar von einem neuen – vierten Aggregatzustand ist die Rede.

Wasser in flüssigem Aggregatzustand
Wasser in flüssigem Aggregatzustand (Quelle: pexels)

Den Begriffen Polywasser, hexagonales Wasser, strukturiertes Wasser, belebtes Wasser, 4th Phase Water, Exclusion Zone Water (EZ-Wasser), H9-Wasser und vielen anderen ist eines gemein: Sie beschreiben Wasser im flüssigen Zustand, das durch eine definierte Anordnung der Wassermoleküle eine bestimmte Struktur einnimmt. Innerhalb dieser Struktur soll es dann möglich sein, Informationen oder Energie zu speichern. Die These einer definierten Struktur in Flüssigkeiten ist einigermaßen verblüffend, denn eine solche Fernordnung der Moleküle ist schlecht mit der Dynamik zu vereinbaren, die in diesem Aggregatzustand vorherrscht.

Ein Potpourri heilsamer Wirkungen

Dass also gar wundersame Kräfte am Werk sein müssen, um diesen Verband der Wasserteilchen zusammenzuhalten, scheint den VertreterInnen des strukturierten Wassers klar zu sein, denn es wird geradezu als magisch angepriesen: Als „Der heilige Gral der Gesundheit“ [1], als eines der „beeindruckendsten wissenschaftlichen Phänomene der letzten Jahre“ [2], „Ohne EZ-Wasser kein Leben.“ [3]. „Die besondere hexagonale Struktur bedingt, dass sich selbst Öle im Wasser lösen.“ [4], das hexagonale Wasser „reinigt sich von selbst“ [5].

„Studien zufolge hat sich hexagonales Wasser als wirksam bei der Vorbeugung und Behandlung von Krebs, Diabetes, Alterung und AIDS erwiesen.“ [6] „Hexagonales Wasser ist die natürliche Form des Wassers wie wir es in Gebirgsbächen und heiligen Quellen finden. Die falsche Behandlung des Menschen führt aber dazu, dass unser Trinkwasser aus der Leitung oder aus dem Supermarkt nicht in hexagonaler Struktur vorliegt, sondern die Moleküle rechtwinklig angeordnet sind.“ [7]

Um die Bedeutung dieses speziellen Wassers sogar in noch globalere Zusammenhänge zu setzen, wird sogar die Frage aufgeworfen, ob „ewiges Eis schmilzt, um dem globalen Wasserkreislauf mehr hexagonale Strukturen zur Verfügung zu stellen?“ [8]. Große Versprechungen. Das wirft natürlich Fragen auf: Woher kommt das hexagonale Wasser, wie kann man es herstellen? Und worin genau besteht der Unterschied zu „normalem“ Wasser?

Strukturmodell des hexagonalen Wassers

Die hexagonale Struktur soll es also sein, die das Wasser so besonders macht. Das postulierte Strukturmodell geht dabei hauptsächlich zurück auf den amerikanischen Wissenschaftler Gerald Pollack [9]. Er untersucht die Wechselwirkung von sehr dünnen Wasserschichten an unterschiedlichen Oberflächen. Aus diesen Erkenntnissen leitet er die Existenz einer neuen Wasserphase ab, die er die vierte Phase (neben den drei allgemein bekannten Phasen fest, flüssig und gasförmig) oder „Exclusion Zone Water“ nennt. Diese Phase soll geordnet in hexagonalen Schichten vorliegen.

(a): Schematische Darstellung des Wassermonomers und Berechnung der Summenformel und Ladung; (b): Darstellung der Stapelung der Wasserschichten. (Quelle: [9], eigene Abbildung)

Aus der abgebildeten Struktur (linker Teil der Abbildung, (a)) ermittelt Pollack eine neue Summenformel für das Wasser-Monomer, die dann nicht mehr H2O sondern H3O2 wäre. Jedes dieser Sechsringe bekäme dann eine negative Ladung zugeordnet. Die Hexagone können zu Schichten kondensiert und übereinandergestapelt werden (rechter Teil der Abbildung, (b)) und so. die sog. Exclusion Zone (EZ, dt. Ausschlusszone) bilden. Pollack beschreibt diese Zone als einen Bereich, der absolut frei von im restlichen Wasser gelösten Bestandteilen vorliegt. In der EZ, einer etwa 100-200 μm breiten Zone, dominieren die Wechselwirkungen der Wassermoleküle mit dem Trägermaterial sowie die Wechselwirkungen innerhalb einer Schicht und zwischen den einzelnen Schichten.

Da der Bereich der EZ keine weiteren Bestandteile als H3O2 enthält, würde er eine bislang ungesehen große Anhäufung von negativer Ladung darstellen, denn jedes Hexagon ist wie beschrieben negativ geladen. Diese Ladung wird nicht etwa, wie man annehmen könnte, durch die aus H2O formal übrig gebliebenen H+-Ionen ausgeglichen, sondern – und spätestens jetzt wird es esoterisch – liegt als Elektronenplasma delokalisiert im oder um das Netz vor. Sozusagen als Elektronenspirit.

Die Wasserjünger sehen darin die Lösung für Übersäuerung im Körper, freie Radikale, krankmachende Frequenzen, elektromagnetische Wellen und Signale und sogar negative Gedanken sollen darin aufgenommen werden.

Je nach Interpretation des Pollack`schen Modells werden diese negativen Einflüsse dann direkt im hexagonalen Wasser „neutralisiert“, oder es wird ein positiv geladenes Restwasser herbeigeredet, das alles Schädliche löst und wegspült. Aus Pollack`s ohnehin schon zweifelhaftem Modell einer Wasserphase, die in sehr kleinen Bereichen an Grenzflächen vorliegen soll, wird ohne jegliche weitere Erklärung ein Wasser, dessen gesamte Struktur als hexagonale Netze vorliegen soll.

Auch in der Frage, wie es sich mit der Energie des strukturierten Wassers verhält, werden unterschiedliche Ansätze vertreten. Während die einen gehen davon ausgehen, dass das mehr Ordnung in einem System mit einer Energieerniedrigung einhergeht, gehen andere davon aus, dass das hexagonale Wasser wertvoller und damit energiereicher sein muss.

Wunderwasser selbst herstellen?

In einem Punkt sind sie sich jedoch alle wieder einig: Ein Allheilmittel wie das hexagonale Wasser muss jedem zugänglich sein. Und darum bemühen sie sich redlich. Auf dem Markt sind sowohl fertige Produkte wie Sprays oder Gele, als auch eine beträchtliche Reihe von technischen Geräten zum Herstellen von strukturiertem Wasser erhältlich. Vom einfachen Verwirbler bis zur Anlage für Mehrfamilienhäuser wird alles angeboten.

ProduktPreis [€]Anbieter
Hexagonales Wasser, 100 ml39,90biotikon.de
Hochenergiescheibe aus Glas39,90cellavita.de, sternenwasser.info
Hexagonwassser®-Wirbler (Handwirbler)99,90cellavita.de
Hexagonwasser®-Wirbler-Sets (versch. Ausführungen)215,00 – 327,00cellavita.de
Wassermanschette Harmonei®298,00ambition.life
Bio-Energie-Modul350,00mrwater.eu
Wasserverwirbler alchimator®399,00mrwater.eu
Stein der Harmonie755,25hexagonal.com
Tesla-Waver Wasserenegetisierer, WasserstrukturiererBekanntgabe nur im Rahmen eines
Beratungstermins
ambition.life
Wasserbelebung Easyquell home für das ganze Haus1899,00mrwater.eu
Wasserstrukturiererca. 2000hexagonal.com
Überblick über Produkte mit oder zur Herstellung von hexagonalem Wasser.

Auch einige Erholungszentren werben mit speziell angefertigten Ruhesesseln, die von hexagonalem Wasser umflossen werden. Für etwa 50 € pro halbe Stunde kann man sich in den sog. Recreation Lounges [10] entspannen. Deutschlandweit an 15 Standorten, Heilversprechen inklusive.

Die Werbung mit „wissenschaftlichen“ Belegen ist irreführend

Die Werbung für Produkte und Anwendungen mit hexagonalem Wasser spricht immer wieder von wissenschaftlichen Untersuchungen und Studien und impliziert, dass hier neue Erkenntnisse aus der Forschung vorlägen.

Dies betrifft zum einen die Verwendung von wissenschaftlichen Fachbegriffen. So werden z. B. Entropie, Plasma, Wellenlänge, Feldharmonisierung ohne Erklärung verwendet, um den Anschein eines wissenschaftlichen Kontextes zu erzeugen. So wird z. B. postuliert, das hexagonale Wasser habe eine niedrigere Frequenz als normales Leitungswasser [11]. Was soll die erwähnte Frequenz bedeuten? Sind damit die Eigenschwingungen der O-H-Bindung gemeint? Oder emittiert das Wasser gar Strahlung?

An anderer Stelle [12] wird behauptet, durch die Strukturierung verbessere sich der „Redoxwert“ des Wassers. Einen solchen Wert gibt es nicht. Gemeint ist wahrscheinlich das Standardpotential, welches für ein sog. Redoxpaar (z. B. Cu/Cu2+) angegeben wird. Im Zusammenhang mit Sauerstoff ist das Redoxpaar O2-/(1/2) O2 relevant. Die Reaktion ist Teil unserer Zellatmung. Veratmet wird jedoch der Luftsauerstoff (O2), und nicht der Sauerstoff aus dem Wasser (O2-). Soll der verbesserte „Redoxwert“ im hexagonalen Wasser etwa implizieren, dass sich das Wasser am Atmungsprozess beteiligt? Das wäre natürlich wirklich phänomenal.

Auch die falsche Verwendung von Bildern oder Abbildungen ist irreführend. So werden zur Illustration und zum Stützen der Behauptung, es gäbe eine hexagonale Wasserstruktur verblüffend oft Fotos von Eiskristallen gezeigt. Damit wird der Wechsel zu einem anderen Aggregatzustand schlicht unterschlagen. Und es wird impliziert, dass flüssiges Wasser die gleichen Eigenschaften besitzt wie festes Eis.

Aufnahme eines Eiskristalls mit sechszähliger Dreachse (hexagonale Symmetrie).
Aufnahme eines Eiskristalls mit sechszähliger Drehachse (hexagonale Symmetrie).(Quelle: Gerd Altmann, pixabay)

In manchen Fällen wird fundierte wissenschaftliche Literatur angeführt, die das eigentliche Thema jedoch nur geringfügig tangiert und keinesfalls als wissenschaftlicher Beleg für die eigenen Thesen gilt. Dabei kommen Begriffe wie „Wasserstoffbrücken“, „Cluster“ oder „Anomalie von Wasser“ zwar im Titel der Publikationen vor, der eigentliche Inhalt spricht aber in keinem der Fälle [13-17] von hexagonal geschichteten Wasserstrukturen, vielmehr wird der Begriff nicht einmal erwähnt.

Die wissenschaftliche Grundlage und aktuelle Wasserforschung: Was ist wirklich erforscht?

Einige besondere Eigenschaften hat unser Wasser tatsächlich zu bieten: Viele Stoffe sind in Wasser sehr gut löslich, Wasser hat einen vergleichsweise (z. B. mit EtOH) hohen Schmelz- und Siedepunkt. Die temperaturabhängige Änderung der Viskosität ist spannend, Wasser leitet den elektrischen Strom auch ohne zugesetzte Ladungsträger (Salze) und hat seine maximale Dichte nicht wie andere Stoffe am Gefrierpunkt, also bei 0 °C, sondern bei 4 °C. Deshalb ist Eis leichter als Wasser und Seen gefrieren von oben nach unten.

Das sind zwar im Vergleich zu anderen Flüssigkeiten außergewöhnliche Anomalitäten, doch herrscht wissenschaftlich keineswegs Unklarheit darüber, wieso Wasser sich so verhält. Die Temperaturabhängigkeit der Dichte oder das Verhalten des Schmelzpunktes z. B. stehen im Einklang mit der Tatsache, dass Wasser (H2O) auch zu einem kleinen Anteil auch die schwereren Wasserstoff-Isotope Deuterium (D) und Tritium (T) enthält, die die Werte beeinflussen (Smp. (D2O): 3,8 °C, Smp. (T2O): 4,5 °C). [18]

In aller Munde sind immer wieder die berühmten Wasserstoffbrücken (H-Brücken). Diese beruhen auf der Wechselwirkung zwischen dem partiell negativ geladenen Sauerstoff und dem partiell positiv geladenen Wasserstoff der H2O-Moleküle.

(a): Darstellung des Wassermoleküls; (b): Ilustration von Wasserstoffbrückenbindungen zwischen Wassermolekülen (Quelle: [19], eigene Abbildung)

Es ist wichtig, zu verstehen, dass es sich bei den Wasserstoff-Brücken nicht um „echte“ Bindungen handelt, sondern um eine recht schwache Wechselwirkung, nicht zu vergleichen mit der Bindungsstärke einer kovalenten Bindung, wie sie zwischen Sauerstoff und Wasserstoff innerhalb eines Moleküls existiert. H-Brücken machen etwa 10 % eines solchen Wertes aus [19].

Die Wechselwirkungen kommen nicht nur in Wasser vor, sondern auch in Alkoholen, Aminen und manchen Säuren (z. B. Essigsäure CH3COOH). Sie sind verantwortlich dafür, dass unsere DNA als Doppelhelix und nicht als Einzelstrang vorliegt und bedingen die räumliche Struktur von Proteinen. H-Brücken treten nicht nur zwischen Sauerstoff und Wasserstoff auf, sondern z. B. auch zwischen Molekülen mit –NH- oder –SH-Gruppen. Sie können Strukturen stabilisieren, sind aber niemals ohne zusätzliche Bindungen oder Wechselwirkungen strukturbestimmend.

Seit vielen Jahren existieren Untersuchungen über die Auswirkungen von H-Brücken auf den Zusammenhalt von Wassermolekülen. Für derartige Untersuchungen braucht man eine Methode, die sehr kurze Zeitintervalle betrachten kann, weil H-Brücken sich sehr schnell bilden und wieder lösen.

Das kann man sich so vorstellen, als wolle man bei wenig Licht ein Foto machen. Die Belichtungszeit ist dann entsprechend lange und sowohl Objekt als auch Kamera dürfen sich nicht bewegen, damit das Bild scharf wird. Bewegung führt zu unscharfen Bildern. Wasserstoffbrücken sind sehr dynamisch. Sie existieren nur einige Pikosekunden (1 ps = 10-12 s). Das ist eine ungeheuer kleine Zeitspanne; der millionste Teil einer Millionstel Sekunde, um genau zu sein. Danach erfolgt die Bildung einer neuen Wasserstoffbrücke.

Eine Methode zur Untersuchung von derart schnellen Dynamiken ist die Schwingungs- Rotations-Tunnel-Spektroskopie im fernen Infrarotbereich (FIR-VRT). Damit lassen sich tatsächlich kleine Wassercluster beobachten [14, 15, 20]. Quantenchemische Berechnungen (ab-initio- und DFT-Methoden) liefern Aussagen über die thermodynamische Stabilität dieser Cluster. Die Rechnungen bestätigen die experimentell ermittelten Cluster und machen Voraussagen zur Stabilität von größeren Oligomeren, die mittels Spektroskopie nicht gefunden wurden. Dabei ist es wichtig zu verstehen, dass für jedes Oligomer mehrere Cluster denkbar sind, die sich energetisch geringfügig voneinander unterscheiden [20, 21].

Darstellung der berechneten Strukturisomere des Wasserhexamers (Quelle: [15])

Für das Hexamer wurden fünf Isomere berechnet, im Energie-Ranking liegt der Ring (die strukturelle Einheit der hexagonalen Schichten aus Pollack`s Strukturmodell) an vorletzter Stelle. Das Auftreten des Rings wurde einzig bei sehr speziellen Bedingungen, nämlich in flüssigem Helium (unterhalb von -269 °C) beobachtet [22]. Größere Verbände aus Wassermolekülen sind nur in Clathrathydraten bekannt.

Kritik an Pollack`s Strukturmodell

Das wissenschaftliche Interesse von Wasser an Grenzflächen ist groß und wird wie beschrieben mit modernen spektroskopischen Methoden untersucht [23-25]: Moleküldynamiksimulationen ergänzen die experimentell gewonnenen Erkenntnisse [26]. Keine dieser Erkenntnisse ist mit Pollack`s Modell vereinbar.

In der Tat gibt es einige naheliegende Punkte, die das Strukturmodell sehr unwahrscheinlich machen:

  • Die Ladung der Hexagone (und damit der EZ)

Eine Anhäufung von gleichnamiger Ladung ist irrsinnig und hier zudem ein Widerspruch in sich selbst. Denn einerseits ist die Anziehung von negativer Ladung (des O-Atoms) und positiver Ladung (des H-Atoms) die Voraussetzung für die Bildung der H-Brücken, und damit des ganzen Netzwerks. Andererseits soll die gleiche Anziehung zwischen der negativen Ladung des Netzes und der restlichen H+-Ionen nicht stattfinden?

  • Die Planarität der hexagonalen Netze

Strukturgebendes Merkmal aller untersuchter Wasserverbindungen, ob in kleineren Clustern oder in großen Netzwerken wie sie in Eis gefunden werden, ist immer die tetraedrische Koordination des Sauerstoffatoms (vgl. VSEPR-Modell). Schon die Existenz eines einzigen planaren Rings ist thermodynamisch sehr ungünstig. Das Vorliegen von planaren Wasserschichten ist im flüssigen wie im festen Zustand nicht plausibel.

  • Die Isomerie von Oligomeren

Nach Pauling existieren für die Anordnung von N Wassermolekülen theoretisch (3/2)N Isomere.

Ein hochsymmetrisches Netzwerk aus Millionen von Molekülen mit ist also denkbar unwahrscheinlich.

  • Die Lebensdauer der H-Brücken

Findet in Pollack`s Darstellung leider nicht einmal Erwähnung und wird schlicht ausgeblendet.

  • Die Anzahl der Bindungen und H-Brücken

In allen bekannten Strukturen ist jedes O-Atom über kovalente Bindungen mit zwei H-Atomen verknüpft. Zusätzlich ist jedes O-Atom Akzeptor und Donor einer H-Brücke. Diese Bindungssituation geht mit der tetraedrischen Koordination des Sauerstoffs einher. In Pollack`s Modell werden drei Bindungen zu H-Atomen in einer Ebene mit dem O-Atom und eine H-Brücke zur nächsten Ebene postuliert.

Trotz aller Kritik sollte festgehalten werden, dass sich Pollack`s Ausführungen auf die Grenzfläche, die Exclusion Zone, bezieht. Diese umfasst nach seinen Angaben wenige hundert Mikrometer, also einige zehntel Millimeter. Das Modell ist also keineswegs dazu geeignet auf größere Wassermengen übertragen zu werden. Trotzdem ist Pollack regelmäßig Gastredner auf Kongressen und Symposien von Vereinigungen der Alternativmedizin und alternativer Wasserforschung (z. B. Drei-Länder-Wasser-Symposium der DGEIM, 12.11.2013, New Horizons in Water Science – Homeopathy New Evidence, 13. – 14.07.2018, INK Umweltkongress 29. – 30. 3. 2019). In seinen Vorträgen erklärt er sein Strukturmodell und es wird auf traurige Weise deutlich, wie sehr grundlegende Prinzipien der Strukturchemie missachtet werden, weil er offensichtlich keine Ahnung von deren Kenntnis hat (z. B. https://www.youtube.com/watch?v=7SO55sRzzQo . Minute 33-42). Ihm scheint nicht klar zu sein, dass Strukturmodelle auf Basis von gemessenen oder berechneten Daten erstellt werden. Dazu gehören auch die Angaben von Kennwerten wie Bindungsabstände, Bindungswinkel und die Beschreibung der chemischen und geometrischen Umgebung der an der Struktur beteiligten Atome. Er hingegen entwickelt sein Strukturmodell ausgehend von einer Struktur von Eis, die er im Übrigen auch noch falsch verstanden hat. Messungen oder Berechnungen anhand eines simulierten Strukturmodells hat er nicht angefertigt. Das ist ein bisschen wenig in Anbetracht der Behauptung, dass das hexagonale Wasser den vierten Aggregatzustand darstellen soll.

Doch damit nicht genug. Die Behauptungen zu kommerziell vermarktetem hexagonalem Wasser gehen noch viel weiter.

Kritik an hexagonalem Wasser und dessen Herstellung

Mittels Verwirblern, Steinen oder energetisierten Glasscheiben soll es möglich sein, das gesamte Wasser zu strukturieren. Es ist nicht immer schlecht, wenn Menschen an Dinge glauben, die sich der wissenschaftlichen Lehrmeinung entziehen. Aber unter dem Deckmantel von wissenschaftlicher Evidenz darf das nicht geschehen. Die Werbeversprechen für hexagonales Wasser sind wissenschaftlich haltlos und irreführend. Laut Gesetz gegen unlauteren Wettbewerb (UWG) ist das sogar gesetzlich verboten.


Literatur:

[1]: https://www.youtube.com/watch?v=B98lmqQHZOU

[2]: https://schoepferinsel.com/hexagonales-wasser-wasserwirbler/

[3]: https://www.brain-effect.com/magazin/ez-wasser

[4]: https://www.biotikon.de/Hexagonales-Wasser.html?msclkid=36801465fedd1c818abc77f9947c2c58&utm_source=bing&utm_medium=cpc&utm_campaign=DE%3A%20Produkte%20(Search)&utm_term=hexagonales%20wasser&utm_content=Hexagonales%20Wasser%20stabilisiert

[5]: https://www.neuro-programmer.de/ez-wasser/

[6]: https://www.aquawissen.de/hexagonales-wasser/

[7]: https://www.sundt.de/blogs/magazin/hexagonales-wasser-herstellen?_pos=1&_sid=1166d5dea&_ss=r

[8]: https://www.hexagonal.com/fluesse-hexagonal-strukturieren/

[9]: G. H. Pollack: Wasser, viel mehr als H2O, VAK Verlags GmbH, Kirchzarten 2014.

[10]: https://recreationlounge.de/

[11]: https://www.hexagonal.com/hexagonales-vs-energetisiertes-wasser/ (aufgerufen am 11.01.2022)

[12]: https://misterwater.eu/hexagonales-wasser-aus-dem-alchimator/?sm-p=954094485

[13]: A. Geiger et al.,Molekulare Eigenschaften und Funktion des Wassers , UniReport – Berichte aus der Forschung der Universität Dortmund, 37: 48-50, 2004.

[14]: F. Keutsch, R. Saykally, Water clusters: Untangling the mysteries of the liquid, one molecule at a time, Proc. Natl. Acad. Sci., 98:10533-10540, 2001.

[15]: R. Ludwig, Wasser: von Clustern in die Flüssigkeit, Angew. Chem., 113: 1856-1876, 2001.

[16]: R. Ludwig, D. Paschek, Wasser: Anomalien und Rätsel, Chem. Unserer Zeit, 39: 164-175, 2005.

[17]: K. Fumino et al., Wasserstoffbrücken in protischen ionischen Flüssigkeiten – Ähnlichkeiten mit Wasser, Angew. Chem., 121: 3230-3233, 2009.

[18]: K. Roth, H2O – Jo mei!, Chem. Unserer Zeit, 47: 108-121, 2013.

[19]: W. Mäntele, Elektrosmog und Ökoboom, Ein naturwissenschaftlicher Blick auf populäres Halbwissen, Springer Verlag, Berlin 2021.

[20]: K. Liu et al., Water Clusters, Science, 271(5251): 929-933, 1996.

[21]: J. Kim, K. S. Kim, Structures, binding energies and spectra of isoenergetic water hexamer clusters: Extensive ab initio studies, J. Chem. Phys., 109: 5886-5895, 1998.

[22] K. Nauta, R. E. Miller, Formation of cyclic water hexamer in liquid helium: The smallest piece of ice, Science, 287: 293-295, 2000.

[23]: J. Penfold, The structure of the surface of pure liquids, Rep. Prog. Phys., 64: 777-814, 2001.

[24]: G. L. Richmond, Molecular bonding and interactions at aqueous surfaces as probed by vibrational sum frequency spectroscopy, Chem. Rev., 102: 2693-2724, 2002.

[25]: K. R. Wilson et al., Investigations of volatile liquid surfaces by synchrotron X-ray spectroscopy of liquid microjets, Rev. Sci. Instr., 75: 725-736, 2004.

[26]: I. F. W. Kuo, C. J. Mundy, An Ab intitio molecular dynamics study of an aqueous liquid-vapor interface, Science, 303: 658-660, 2004.

Element des Monats Dezember: Kupfer

Die Vorweihnachtszeit braucht Glanz und Gloria. Mit reichlich Glow kommt das Kupfer als Element des Monats daher, wobei es natürlich viel mehr kann als einfach nur zu glänzen. Es kann eben auch mal in grün oder blau erstrahlen, und ganz eventuell gibt es sogar Kupferverbindungen, die gänzlich farblos sind.

Kupferschrott mit und ohne Patina (glänzende oder matte Oberfläche)
Kupferschrott mit und ohne Patina (glänzende oder matte Oberfläche) (Quelle: pixabay, alexa)

Kupfer (Cu) ist das erste Element der Gruppe 11 im Periodensystem. Zu dieser sog. Kupfer-Gruppe gehören auch die Elemente Silber (Ag) und Gold (Au). Als schwerstes, aber auch kurzlebigstes Element der Kupfer-Gruppe existiert auch das radioaktive Röntgenium (Rg), das 1994 am Teilchenbeschleuniger UNILAC in Darmstadt erstmals erzeugt wurde. Seine Halbwertszeit liegt im Millisekundenbereich, danach zerfällt es unter Emission von Alphastrahlung.

Die Elemente der Gruppe 11 (Rg ausgeschlossen) werden auch Münzmetalle genannt. Sie weisen moderate Schmelzpunkte um 900 – 1100 °C auf und sind allesamt von edlem Charakter, d. h. sie oxidieren nicht oder nur langsam. Diese Eigenschaft wird anhand des Standardpotentials der Metalle deutlich: Die Werte der Redoxpaare liegen im positiven Bereich, was für eine gute Korrosionsbeständigkeit spricht.

RedoxpaarE0 [V]
Cu/Cu2++ 0.34
Ag/Ag++ 0.80
Au/Au3++ 1.50

Kupfer zeichnet sich außerdem durch seine exzellente elektrische Leitfähigkeit und seine gute Wärmeleitfähigkeit aus. Als reines Metall ist es für viele Anwendungen aufgrund seiner Duktilität sehr geeignet, denn es lässt sich gut formen und walzen. Kupfer ist bis heute ein zentrales Element für Konstruktions- und Funktionswerkstoffe.

Verwendung von Kupfer als Konstruktions- und Funktionswerkstoffe
Verwendung von Kupfer als Konstruktions- und Funktionswerkstoffe (Quelle: dt. Kupferinstitut)

Die ersten Anwendungen des Edelmetalls reichen bis 50 000 v. Chr. zurück. Legierungen mit anderen Metallen konnte man jedoch erst wesentlich später herstellen. Unter den über 400 Kupferlegierungen, die man heute kennt, erlangten v. A. die Bronzen (Cu und Sn) und die Messingphasen (Cu und Zn) Berühmtheit, doch auch die Nickellegierung „Konstantan“ mag Manchem ein Begriff sein. Die Bronzen waren in der Menschheitsgeschichte so bedeutend, dass gleich ein ganzes Zeitalter nach diesen Werkstoffen benannt wurde. Als Edelmetall ist Kupfer nicht ganz günstig. Der Kilopreis hat sich seit dem Frühjahr 2020 nahezu verdoppelt und liegt nun bei 7,83 € pro kg (Quelle: deutsches Kupferinstitut, 15.12.2022). Der Abbau erfolgt hauptsächlich aus südamerikanischen Sulfiden und Oxiden, wobei die Erze z. T. nur sehr geringe Kupfermengen enthalten. Die Hälfte des in Deutschland benötigten Kupfers stammt aus der Rückgewinnung aus Schrott.

Die Bedeutung von Kupfer in physiologischen Prozessen

Kupfer ist für den Menschen als Spurenelement wichtig. Es kommt in einigen Enzymen vor und hat im Wesentlichen die Funktion Elektronen zu übertragen. Hierfür sind v. A. die Oxidationsstufen +I und +II wichtig. So kommt Kupfer z. B. im bekanntesten Enzym der Atmungskette, der Cytochrom-c-Oxidase vor.

Als Cofaktor der Tyrosinase, einem Membranprotein, das in fast allen Lebewesen vorkommt, ist es an der Bildung von Melanin in unserer Haut beteiligt. Fehlt das Enzym, spricht man von Albinismus.

Bei gesunden Menschen wird Kupfer im Magen-Darm-Trakt aus der Nahrung resorbiert. Dabei bedarf es keiner speziellen Ernährung, denn in kleinen Mengen ist das Metall in Getreide, Fleisch, Meerestieren, Pilzen, Nüssen, Rosinen und Schokolade enthalten. Der tägliche Bedarf sinkt mit dem Alter. So brauchen Säuglinge und Kleinkinder 75 μg Cu pro kg Körpergewicht, Schulkinder und Teenager 40 μg/kg und Erwachsene nur noch 20 μg/kg. Die deutsche Gesellschaft für Ernährung empfiehlt die tägliche Aufnahme von 1 – 1,5 mg Kupfer für Erwachsene, was mit einer ausgewogenen Ernährung mühelos abgedeckt werden kann, denn ein Kupfermangel wird bei gesunden Menschen fast nie beobachtet.

Allerdings sind in Zusammenhang mit Kupfer zwei Stoffwechselkrankheiten bekannt: Bei Morbus Wilson reichert sich Kupfer in der Leber und in anderen Organen an, was durch die Gabe von Kupfer-bindenden Medikamenten wie z. B. Chelatbildnern reguliert werden kann. Ein größeres Problem ist das Menke-Syndrom, eine Kupfer-Mangelerkrankung, die auf einen Gendefekt auf dem X-Chromosom zurückzuführen ist. Leider hilft die Gabe von biologisch gut verwertbarem Kupfer, z. B. in Form von Histidinkomplexen nur sehr bedingt und die Betroffenen sterben in den ersten Lebensjahren. In der Empfängnisverhütung ist die spermizide Wirkung von Kupferionen bekannt.

Die antimikrobielle Wirkung von Kupfer und Kupferverbindungen

Im Obst- und Weinbau werden Kupferverbindungen, meist Kupfersulfatlösungen (CuSO4) zur Vorbeugung und zur Behandlung von Pilzerkrankungen wie Mehltau eingesetzt. Auch in der Tiermedizin kann Kupfersulfat gegen Strahlfäule bei Huftieren verwendet werden.

Ähnlich wie bei Silber wird auch für Kupfer die antimikrobielle Wirkung des reinen Metalls untersucht. Schon im Altertum wurde beobachtet, dass Wasser, das in Kupfergefäßen gelagert wurde, länger haltbar war und sich weniger Algen bildeten als bei der Lagerung von Wasser in Tonkrügen. Allerdings ist hier auch Vorsicht geboten, denn säurehaltige Lebensmittel oxidieren einen beträchtlichen Teil der Kupferoberfläche und hohe Kupferkonzentrationen sind nicht unbedenklich. Die in den 70er und 80er Jahren in Indien aufgetretene „Indische Kinderzirrhose“ beschreibt eine Kupfervergiftung einhergehend mit oft tödlich verlaufenden Leberschäden indischer Babys und Kinder. Unklar ist, ob die Ursache tatsächlich in der Verwendung von Kupfer-Milchkannen lag, oder ob es sich um eine ungewöhnlich hohe Prävalenz des Gendefekts im Zusammenhang mit Morbus Wilson handelte.

Als oberer Grenzwert gibt die WHO einen Wert von 10 mg Cu pro Tag für einen durchschnittlichen Erwachsenen an. Die Trinkwasserverordnung in Deutschland sieht als gesetzlichen Grenzwert 2 mg Kupfer pro Liter Leitungswasser vor. Bei der Aufnahme von hohen Dosen im zeistelligen mg-Bereich erfolgen typische Vergiftungssymptome wie Erbrechen, Kopfschmerzen, Schüttelfrost und ein trockenes brennendes Gefühl im Mund. Als Aufnahmehemmer werden in solchen Fällen D-Pencillamin, Trientine oder hohe Dosen von Zink gegeben.

Die Chemie des Kupfers: von rot bis blau-grün

Die Chemie von Kupfer ist geprägt von typisch metallischen Eigenschaften, also der Neigung Elektronen abzugeben. An Luft oxidieren Kupferoberflächen langsam zu Kupfer(I)-oxid (Cu2O), was dem Metall die typische rotbraune Farbe verleiht und matt erscheint. Elementares Kupfer hingegen ist heller und glänzt. Wohl bekannt ist auch die typisch grüne Patina, die sich auf Kupferoberflächen oft bildet.

Oberer Teil der Freiheitsstatue auf Ellis Island. Gut zu erkennen sind die zusammengesetzten Kupoferpaltten am oberen Arm der Statue.
Oberer Teil der Freiheitsstatue auf Ellis Island. Gut zu erkennen sind die zusammengesetzten Kupferplatten am oberen Arm der Statue. (Quelle: pixabay, Arpan Parikh)

Dies wird insbesondere in Städten beobachtet, wo die Luft viel CO2 und SO2 enthält. Auch chloridhaltige Meeresluft begünstigt die Bildung der Patina, die aus den basischen Carbonaten, Sulfaten und Chloriden (CuCO• Cu(OH)2, CuSO• Cu(OH)2 und CuCl• Cu(OH)2) zusammengesetzt ist.

Die bevorzugten Oxidationsstufen in geläufigen Kupferverbindungen sind +I und +II. Kupfer(I)-Verbindungen können mehr oder weniger ionische Verbindungen wie die Halogenide, Oxide und Sulfide sein. Auch organische Kupfer(I)-Verbindungen wie die Gilman-Cuprate (R2CuLi) sind bekannt. Letztere kommen neben neutralen Organokupferverbindungen (R-Cu) bei C,C-Kupplungsreaktionen zum Einsatz.

Cu(+II) ist die in wässrigem Medium stabilste Wertigkeit des Kupfers. Dies kann mit der hohen Hydratationsenthalpie und der Bildung des blauen Aquakomplexes [Cu(H2O)6]2+ begründet werden. Für Cu2+ existieren zudem eine Reihe weiterer farbenfrohe grüne bis blaue Komplexe, die in der analytischen Chemie als Nachweisreaktionen verwendet werden können.

Auch einige kupferhaltige Malerfarben, wie das Scheelesche Grün, das Pariser Grün sowie die Minerale Malachit und Azurit enthalten Cu2+.

Die kupferhaltigen Minerale Malachit (grün) und Azurit (blau)
Die kupferhaltigen Minerale Malachit (grün) und Azurit (blau)

Neben den schon erwähnten Kupfer(+I)- und (+II)-Verbindungen existieren auch Verbindungen mit Kupfer in der Oxidationsstufe 0, wie z. B. das metastabile Carbonyl Cu2CO6.

Die höheren Oxidationsstufen +III und +IV sind durch starke Oxidationsmittel zugänglich, aber selten.


Literatur:

J. Emsley, Mörderische Elemente, Wiley-VCH, Weinheim 2006.

S. Herres-Pawlis, A. Hoffmann, Sepia, Sonnenbräune und Stromkabel- Kupfer ist überall!, erschienen in Chemie der Elemente, GdCh (Herausgeber), 2019.

B. Schmitz, Die Rolle von Kupfer als nachhaltiger Werkstoff, Deutsches Kupferinstitut (Herausgeber), 2020.

E. Riedel, C. Janiak, Anorganische Chemie, 8. Auflage, de Gruyter, Berlin 2011.

A. F. Holleman, E. Wiberg, Lehrbuch der Anorganischen Chemie, 102. Auflage, de Gruyter, Berlin 2007.

https://www.pharmazeutische-zeitung.de/inhalt-01-2005/medizin1-01-2005/

https://www.kupfer.de

Fun Fact Friday am 30.12.2022

(Fast) jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Das Gehirn von Männern ist mit ca. 1400 g etwa 100 – 200 g schwerer als das Gehirn von Frauen.

Das Gehirn von Albert Einstein war „nur“ 1230 g schwer.

Um Feuerwerkskörper rot leuchten zu lassen, verwendet man in der Pyrotechnik Calciumsalze.

Für pinke Feuerwerkskörper werden Strontiumsalze verwendet.

Grünes Feuerwerk erhält seine leuchtende Farbe von der Zugabe von Bariumsalzen.

Fun Fact Friday am 9.12.2022

(Fast) jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Das Volumen von LNG (Liquefied Natural Gas) ist im Vergleich zum gasförmigen Zustand auf ein 600-stel verringert.

Gas zu verflüssigen ist keine Neuerung angesichts der Energiekrise, sondern ein seit 1896 bekanntes Verfahren, das nach dem Ingenieur Karl von Linde benannt wurde.

Unter einem Wurmloch ist in der allgemeinen Relativitätstheorie ist eine Art Brücke zwischen zwei raum-zeitlich getrennten Bereichen zu verstehen.

Im Rahmen eines Frühwarnsystems ist es Gegenstand von Untersuchungen, ob Hunde Epilepsie-Anfälle bei betroffenen HundehalterInnen zu einem frühen Zeitpunkt bemerken und Warnzeichen geben können.

Aufgrund seiner Seltenheit wird das Alkalimetall Lithium auch „weißes Gold“ genannt.

Chemie ist, wenn es knallt und stinkt

Weißkittlige Meschen in Laboren und Kolben gefüllt mit wabernden bunten Flüssigkeiten, Explosionen im Reagenzglas oder stinkender gelber Qualm – so wird Chemie oft dargestellt. Die meisten ChemikerInnen arbeiten jedoch gar nicht in Laboren. Was tun sie denn dann? Was erfinden oder entdecken sie und was hat die Welt der Atome und Moleküle mit unserem Alltag zu tun?

Chemie ist die Wissenschaft, die sich mit dem Aufbau, den Eigenschaften und den Reaktionen von Stoffen beschäftigt. Eine Naturwissenschaft also.

In der Chemie wird es erst spannend, wenn man genau hinsehen kann. Wenn man beobachten und messen kann und dann zu erklären versucht, warum die Dinge so sind wie sind. Warum Reaktionen ablaufen und wie. Warum manche Stoffe bestimmte Eigenschaften haben, wie z. B. Magnetismus oder Farbigkeit. Und was man damit machen könnte. Wie man diese Eigenschaften, wenn man sie endlich verstanden hat, vielleicht auch verändern könnte. Das hört sich einfach an, ist aber manchmal unendlich kompliziert.

Chemie in unserem Alltag

Es ist uns vielleicht nicht immer bewusst, aber Chemie begegnet uns in unserem Alltag ständig. Die Farbstoffe in Buntstiften wurden z. B. speziell so entwickelt, dass das Rot schön leuchtet und möglichst lange nicht verblasst. Der Wäscheweichspüler, der mit den Wollfasern deiner Kuschelsocken so wechselwirkt, dass sich die Oberfläche weich, aber nicht schmierig anfühlt oder die Babywindel, die bei nur etwa zehn Gramm Eigengewicht mehrere Hundert Milliliter Babyurin binden kann – das sind nur einige wenige Beispiele, die uns das Leben bunt und angenehm machen.

Hinter diesen Erfindungen steckt oft jahrelange Forschung. Manchmal läuft das ganz gezielt ab und ist speziell auf ein bestimmtes Produkt ausgerichtet. Im Falle des Superabsorbers, so nennt man das wasserbindende Material in der Babywindel, wussten die EntwicklerInnen wahrscheinlich ziemlich schnell, wozu man den Stoff mit dem sperrigen Namen Natriumpolyacrylat verwendet werden kann.

Wassermoleküle binden an der Oberfläche des Natriumacrylats.
Wassermoleküle (H2O) binden an der Oberfläche des Natriumacrylats.

Meist ist es aber so, dass eine neue Entdeckung das Ergebnis jahrelanger Grundlagenforschung ist. Die Entwicklung von kompostierbaren Kunststoffen, z. B. auf PLA-Basis (PLA ist ein sogenanntes Polymer aus Milchsäure) hat viele Jahre gedauert und es wird immer noch an der Entwicklung von neuen Stoffen gearbeitet. So hat der große deutsche Chemiekonzern BASF kürzlich einen abbaubaren Kunststoff vorgestellt, mit dem man Papier beschichten kann. Gute Neuigkeiten für das Verpackungsmüll-Problem!

Die neuen mRNA-Impfstoffe gegen SARS-CoV-2 – die „Corona-Impfstoffe“ – basieren auf mehr als 30-jähriger Forschungserfahrung. Lediglich die Anwendung der Methode als Impfung ist neu.

ForscherInnen sind Teamplayer

In der naturwissenschaftlichen Forschung wird Stück für Stück wird wie bei einem Puzzle ein Teil nach dem anderen zu einem schlüssigen Gesamtbild zusammengefügt. Manche Ecken sind schnell zusammengesetzt, an anderen hängt und hängt man und es geht nicht voran. Seit einigen Jahrzehnten arbeiten ForscherInnen an Universitäten oder in der Industrie interdisziplinär zusammen. D. h. WissenschaftlerInnen aus verschiedenen Gebieten wie Physik, Chemie, Biologie, Medizin und Pharmazie erarbeiten Lösungen gemeinsam. Die Teilgebiete der Naturwissenschaften werden längst nicht mehr als voneinander getrennt betrachtet.

Die Arbeit im Reinraum oder am Supercomputer

So sind auch die großen Erfindungen, Entdeckungen und Entwicklungen nicht mehr einer Disziplin zuzuordnen. Bei der Entwicklung von Batterien, Akkus und Solarzellen sind PhysikerInnen, ChemikerInnen und KristallographInnen beteiligt. Ihre Arbeit findet hauptsächlich am Computer und manchmal im sogenannten Reinraum statt. Das ist ein spezielles Labor, in dem Temperatur, Luftdruck und Lichtverhältnisse konstant und staubfrei gehalten werden. Die Arbeit findet manchmal sogar in Schutzanzügen mit Atemluftschläuchen statt und ist sehr anstrengend.

Wissenschaftler in einen Reinraum mit gelber Beleuchtung
Wissenschaftler in einen Reinraum mit gelber Beleuchtung (Quelle: https://www.nasa.gov/multimedia/imagegallery/index.html)

Vor einigen Jahren wurde für die Entwicklung der blauen Leuchtdiode (die Abkürzung LED steht für den englischen Begriff Light Emitting Diode) ein Nobelpreis an Materialwissenschaftler vergeben. Auf die blauen LEDs, ohne die auch keine Leuchtdioden mit weißem Licht möglich wären, hatte man jahrzehntelang gewartet. Was heute in Lichterketten für ein paar Euro zu haben ist, hat vor weniger als zehn Jahren die Lehrmeinung revolutioniert und viele ExpertInnen zweifelten lange daran, ob man jemals blaue LEDs haben würde. Die Entwicklung hat viel mit dem Verständnis von Materialeigenschaften zu tun. In der Theorie wusste man ganz genau, wie so ein Stoff beschaffen sein muss, man konnte ihn nur eben lange nicht herstellen. Die Forschung findet auf diesem Teilgebiet hauptsächlich am Computer statt. Durch Modelle kann man berechnen, ob eine Verbindung oder ein System aus verschiedenen Stoffen für eine Anwendung in Frage kommt. Die Rechnungen dauern selbst auf leistungsfähigen Computern mehrere Tage.

Manchmal darf es doch noch die Handarbeit im Labor sein

Die Forschung und Entwicklung in den Bereichen Medizin und Pharmazie sind praxisorientierter. Um z. B. in der Antibiotika-Forschung bessere Wirkstoffe zu entwickeln, müssen sich die ForscherInnen schon selbst ins Labor stellen. Trotzdem werden hier nicht nur Synthese-ChemikerInnen gebraucht. Bis ein neues Medikament auf dem Markt ist, braucht es unter anderem die Mitarbeit von MedizinerInnen, BiologInnen und PharmakologInnen. Chemie ist also nicht immer bunt, laut und gefährlich. Aber das ist auch ganz gut so, denn weniger spannend wird dadurch nicht. Im Gegenteil: je genauer man hinsieht, umso mehr kann man staunen, wie vielfältig sie ist, unsere (chemische) Welt.

Fun Fact Friday am 2.12.2022

Fast jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Gaia, das Weltraumteleskop der ESA schickte 2022 Daten zu 1,8 Milliarden Sternen zur Erde.

Verdauungsgeräusche werden in der Medizin Borborygmus genannt.

Magenknurren entsteht dadurch, dass der leere Magen Luft in den Darm drückt.

In der klassischen Mechanik kennt man (auch abhängig vom Bezugssystem) verschiedene Trägheitskräfte. Die bekanntesten sind: Zentrifugalkraft, Corioliskraft und Eulerkraft.

Säurestärken werden durch den pKS-Wert angegeben. Starke Säuren haben einen kleinen Wert (Salzsäure: pKS (HCl)= -3), schwache Säuren einen höheren Wert (Essigsäure: : pKS (CH3COOH )= 4,8).

Das Beweismittel aus dem Zellkern – DNA-Analyse in der Kriminaltechnik

Es ist an sich nichts Neues, dass anhand von DNA-Spuren TäterInnen überführt oder Opfer identifiziert werden können. Zumindest sofern sich ihre DNA-Sequenz in der polizeilichen Datenbank befindet. Zwei neuere Methoden erleichtern die Ermittlungsarbeit auch in Fällen, bei denen die Datenbank keinen Treffer anzeigt.

Unser Genom besteht aus drei Milliarden Basenpaaren. Nur etwa drei Prozent davon kodieren für Genprodukte, wie z. B. Proteine. Noch viel weniger, nämlich nur knappe 0.5 % unterscheiden sich von Mensch zu Mensch. Eine Möglichkeit solche genetischen Unterschiede zur Differenzierung von Menschen zu nutzen, basiert auf den sog. Short Tandem Repeats (STRs). Das sind DNA- Abschnitte mit Wiederholungseinheiten von wenigen Basenpaaren.    

Short Tandem Repeat der Abfolge A-T, A-T, T-A, G-C (Adenin grün, Thymin rot, Guanin blau, Cytosin gelb)

Solche Abschnitte entstehen durch Mutationen, sind aber in der Regel nicht mit dem Auftreten von Krankheiten oder Störungen verbunden. In unserem Genom kommen mehrere hunderttausend solcher Wiederholungseinheiten vor. Wie ein Fingerabdruck sind sie typisch für einen speziellen Menschen. STRs werden weitervererbt. Das Ausmaß gemeinsamer Repeat-Abschnitte kann also den Verwandtschaftsgrad anzeigen.

Eine weitere personentypische Besonderheit in der DNA-Sequenz sind Unterschiede in einem einzigen Basenpaar, sog. Single Nucleotide Polymorphismen (SNPs).

Single Nucleotide Polymorphism am Beispiel von drei Varianten.
Single Nucleotide Polymorphism am Beispiel von drei Varianten: Person 1 (oben) trägt an der Stelle das Basenpaar Adenin-Thymin, Person 2 (Mitte) das Basenpaar Guanin-Cytosin und Person 3 (unten) das Basenpaar Thymin-Adenin.

Weil es viel zu aufwendig ist, das gesamte Genom zu analysieren, nutzt man den Vergleich von bestimmten Abschnitten, auf denen SNPs typischerweise vorkommen als Marker.

In der Forensik können je nach Fragestellung verschiedene Methoden zur Ermittlung herangezogen werden. Anhand von DNA-Spuren an Tatorten können Personen identifiziert oder es können Prognosen über Ihr äußeres Erscheinungsbild gegeben werden. Diese Verfahren sind Realfall aber bei weitem nicht so trivial wie sie erscheinen, denn oft sind die gefundenen Spuren in unzureichendem Maße vorhanden oder die Qualität der Probe ist mangelhaft.

Überblick über die forensischen DNA-Analyse-Methoden DNA-Profiling, DNA-Genealogie, DNA-Phänotypisierung
Überblick über die forensischen DNA-Analyse-Methoden DNA-Profiling, DNA-Genealogie, DNA-Phänotypisierung

DNA-Phänotypisierung

Die DNA- Phänotypisierung erfolgt über die Analyse von SNPs in den Genen, die für typische äußere Merkmale kodieren.

Seit 2019 ist es in Deutschland rechtlich möglich, anhand von DNA-Proben Aussagen über das äußere Erscheinungsbild einer Person zu treffen. Dabei können jedoch nur Rückschlüsse auf Pigmentierung von Haut und Haaren und auf die Augenfarbe gezogen werden. Die Testergebnisse werden als Wahrscheinlichkeitswerte ausgedrückt. Nicht für alle Merkmale gelten die gleichen Voraussagegenauigkeiten. So sind z. B. dunkle Haut oder blaue Augen mit höherer Wahrscheinlichkeit zutreffend als helle Haut oder dunkle Augen.

Eine Aussage über die biogeographische Herkunft von potenziellen TäterInnen ist in Deutschland nicht erlaubt. In speziellen Fällen macht die Justiz in Bayern jedoch Ausnahmen.

Informationen zum biologischen Alter dürfen hingegen gewonnen werden, auch wenn das nicht über die SNP-Marker analysiert werden kann. Zur Altersbestimmung nutzt man die Kenntnis, dass unsere DNA im Laufe der Zeit chemischen Veränderungen (Methylierungs-/ Demethylierungsreaktion v. a. an Cytosin in CpG-Dinukleotiden in Promoterregionen bestimmter Gene) unterliegen. Anhand dieser Veränderungen (dem Methylierungsmuster) kann in einer Altersspanne von 20–60 Jahren das biologische Alter von gesuchten Personen auf eine Genauigkeit von etwa fünf Jahren abgeschätzt werden. Bei jüngeren und älteren Menschen ist das Verfahren aufgrund von Wachstum oder vermehrtem Auftreten von Krankheiten zu störanfällig.

Keine Aussagen liefert die Phänotypisierung hinsichtlich der Körpergröße oder des Haarverlusts.

DNA-Profiling

Beim DNA-Profiling werden bis zu 20 Genabschnitte mit typischen Wiederholungseinheiten (STRs) analysiert. Dieser genetische Fingerabdruck wird dann mit Datensätzen aus einer Datenbank verglichen. Die gesuchte Person kann aber nur ermittelt werden, wenn ihre Daten aufgrund von älteren Straftaten in der Datenbank hinterlegt sind. Auch wenn es auf den ersten Blick wie Zufall erscheint, ob TäterInnen in einer Datenbank zu finden sind, so sind die Erfolge beachtlich: In etwa einem Drittel der untersuchten Fälle, waren TäterInnen bereits in der Datenbank erfasst. Das BKA verfügte 2020 über 870 000 Datensätze, das FBI über 14 Millionen!

Doch was, wenn die gesuchte Person nicht in der Datenbank zu finden ist? Und eine Phänotypisierung keine hilfreichen Daten liefert?

Forensische DNA-Genealogie

In solchen Fällen kann über Daten von biologischen Verwandten auf gesuchte Person rückgeschlossen werden. In einigen europäischen Ländern ist es bereits erlaubt, die Daten aus Ahnenforschungsdatenbanken für forensische Untersuchungen zu verwenden. Anbieter wie MyHeritage, FamiliyTreeDNA, AncestryDNA und andere verkaufen eine für deutsche Verhältnisse sehr spezielle Dienstleistung: Für etwa hundert Euro kann man auf Basis der eigenen DNA einen Stammbaum erstellen lassen, der viele Generationen zurückreicht. Wie im Film, per Wattestäbchen-Probe.

Nicht nur in den USA, wo sich mehr als 35 Millionen Menschen zur Ahnensuche per DNA-Vergleich entschlossen haben, sondern auch in Schweden und der Niederlande findet die Genealogie viele Fans. Dabei dürfte den meisten Menschen nicht klar sein, wie weitreichend sich genetische Informationen zurückverfolgen lassen. Wären die Sequenzen von nur einem Prozent der US-Amerikaner in der Datenbank, wären in Europa 90 Prozent der Verwandten dritten Grades darüber identifizierbar.

Die Suche nach der Identität von TäterInnen oder unidentifizierten Opfern wird durch die forensische Genealogie enorm erleichtert. Aber wie kommen die ErmittlerInnen von einem Datensatz zum anderen? Man muss sich die Verwandtschaftsbeziehungen wie einen Apfelbaum mit vielen großen und kleineren Ästen vorstellen. Die Suche ist wie der Weg von einem Apfel zu einem anderen im Baum.

Wenn man über die Datenbank eine Übereinstimmung zwischen der gesuchten Person und einer durch einen Datensatz bekannten gefunden hat, geht man ausgehend von der bekannten Person – dem Apfel den Baum rückwärts, von der Krone Richtung Stamm. Auf diesem Wege werden sich beide Datensätze genetisch immer ähnlicher. Irgendwann hat man so gemeinsame Vorfahren – einen gemeinsamen Ast – ermittelt und bewegt sich dann vorwärts bis zum Kreis der engsten Verwandten. Da die gesuchte Person – der zweite Apfel – selbst nicht in der Datenbank gelistet ist, liefert die Datenbank natürlich nur die nächsten Verwandten. Den Rest übernimmt die Polizei per Handarbeit. Geburtsregister, Meldeämter, Kirchenverzeichnisse und ähnliches geben Aufschluss über den engsten ermittelten Kreis um die gesuchte Person.

Wenn es um die Aufklärung von Verbrechen geht, wird es die Mehrheit der Bevölkerung wahrscheinlich durchaus in Ordnung finden, genetische Informationen zu Hilfe zu nehmen. Menschen, die endlich abschließen können mit quälenden Fragen, wenn TäterInnen gefunden oder Opfer identifiziert wurden. Familien, die Angehörige wiederfinden, die auf tragische Weise von ihnen getrennt wurden, Kinde, die ihre leiblichen Eltern kennenlernen können. Dieselben Daten jedoch in den Händen von rassistischen Fanatikern wären ein Albtraum. Auch diesen Fall gilt es zu bedenken.


Literatur:

  1. B. Brinkmann, Forensische DNA-Analytik, Dtsch. Aerztebl., 101 (34-35): 2329-2334, 2004.
  2. P. Schneider et al., The use of forensic DNA phenotyping in predicting appearance and biogeographic ancestry, Dtsch. Aerztebl. Int., 116: 873-880, 2019.
  3. M. Rauner, Schaurige Verwandtschaft, Zeit Wissen, 2/2021.
  4. https://geneticgenealogygirl.com/de/ (aufgerufen am 18.11.2022)

Element des Monats Oktober: Krypton

Den meisten fällt zu Krypton überhaupt nichts ein, einige wenige fabulieren über ferne Planeten und noch weniger finden es eigentlich ganz spannend, dass ein so selbstgefälliges Element wie Krypton eben doch manchmal zu was gut ist und sogar in Einzelfällen Verbindungen mit anderen Elementen eingeht – wenn auch nur unter Zwang…

Die Edelgase wurden im 19. Jahrhundert entdeckt. Schon damals war den Forschern klar, dass es sich dabei um äußerst unreaktive Bestandteile der Luft handelt. Krypton wurde nach Helium und Argon durch Destillation von flüssiger Luft von William Ramsay und Morris William Travers entdeckt.

„There remained […] a gas which showed besides the spectrum of argon a bright yellow and bright green line […] The new gas, which we named “krypton” or “hidden” was found to be […] when purified fourty times as heavy as hydrogen.” 

Sir William Ramsey in seiner Rede zum Nobelpreis über Entdeckung des Kryptons im Jahr 1894.

Die weiteren schwereren Edelgase folgten nur wenige Jahre später. 1900 wurde das radioaktive Element Radon entdeckt, das jedoch bis zum Jahr 1923 unter dem Namen Nito oder Radium-Emanation geführt wurde. In den frühen Zweitausendern kam letztendlich das kurzlebigste und schwerste Homologe Organesson dazu.

Vorkommen und Verwendung

Wie alle Elemente der achten Hauptgruppe ist auch das Krypton bei Standardbedingungen ein einatomiges Gas, das farblos und äußerst reaktionsträge ist. Es kommt in unserer Atmosphäre sehr selten vor: Nur etwa 1 Teilchen von einer Million Luftteilchen ist ein Krypton-Atom. In der Erdhülle ist das Element mit einer Häufigkeit von 1.9 • 10-5 ppm (parts per million) noch viel seltener. In anderen Teilen unseres Universums kommt es jedoch bedeutend häufiger vor. Die Anwendung von Krypton ist überschaubar. Es wird fast ausschließlich als Füllgas oder Zusatz in Glüh-, Halogen- und Leuchtstofflampen und in Geigerzählern verwendet. In Glühlampen z. B. setzt das Edelgas die Abdampfrate des Wolframs in der Glühwendel herab und ermöglich so höhere Glühtemperaturen.

Gasentladungslampen gefüllt mit den fünf Edelgasen.
Gasentladungslampen gefüllt mit den fünf Edelgasen (Quelle: Pslawinski, wikimedia)

Zur Untersuchung der Lungenventilation in der Computertomografie wird ein Gemisch aus Xenon und Krypton als Kontrastmittel eingesetzt, um die narkotisierende Wirkung des reinen Xenons zu begrenzen. Die Absorption von elektromagnetischer Strahlung wird auch im Flüssig-Krypton-Kalorimeter, einem Teilchendetektor, der am Genfer Forschungszentrum CERN zum Einsatz kommt, ausgenutzt. Das Kalorimeter ist hier ein Teil eines riesigen Detektorsystems, das zu Untersuchung extrem seltener Zerfallsreaktionen von Elementarteilchen benötigt wird.  

Verbindungen mit und ohne Bindung

Die Anzahl der „echten“ Verbindungen, in denen Krypton mit seinen Bindungspartnern mehr als nur eine recht unverbindliche Wechselwirkung eingeht, ist äußerst klein. Schon seit vielen Jahren ist die Verbindung Kryptondifluorid KrF2 bekannt. Ein extrem effizientes Oxidationsmittel. Neben der Fluorverbindung sind nur Verbindungen mit Kr–O- und Kr–N- Bindungen bekannt.

Mit den Krypton-Clathraten ist eine Fülle von physikalischen Verbindungen mit schwächeren Wechselwirkungen zu Krypton bekannt. In solchen Einlagerungsverbindungen ist das Edelgasatom in einer Art Käfigstruktur eingeschlossen. Im einfachsten Fall wird das Käfiggerüst aus Wassermolekülen gebildet. In Anwesenheit von Krypton, das sich leidlich gut (etwa 100 ml Gas in 1 l Wasser bei 0 °C) in gefrierendem Wasser löst, bildet Wasser nicht wie gewöhnlich eine hexagonale Eisstruktur, sondern eine kubische Struktur aus. Im kubischen Eis existieren zwar weniger Hohlräume, diese sind jedoch größer und können das große Krypton-Atom mit einem Van-der-Waals-Radius von 3.8 Å aufnehmen.

Ähnlich funktioniert die Einlagerung auch in Metallorganischen Gerüstverbindungen (MOFs), die so designt werden können, dass Poren und Kanäle ausgebildet werden, die gewünschte Größen und Formen aufweisen. Anwendung finden sie dann z. B. als Trennsystem für Xenon und Krypton.

In tiefen Gewässern und fernen Planeten

Die (geistige) Verbindung von Krypton mit Planeten und fernen Gestirnen ist kein reines Hirngespinst von Science-Fiction. Tatsächlich werden Proben von Asteroiden oder Gesteinsproben vom Mond auf ihren Krypton-Gehalt untersucht. Das Isotop 81Kr hat eine Zerfallszeit von 229 000 Jahren und lässt damit Untersuchungen zu, die weit außerhalb des zeitlichen Rahmens von 14C sind.

81Kr entsteht durch Wechselwirkung von stabilem Kr mit kosmischer Strahlung im oberen Atmosphärenbereich. Untersuchungen von Tiefengewässern und extraterrestischem Gesteinsmaterial lassen Rückschlüsse auf die Bildung der Erde und des Mondes zu. Es kam also durchaus von Vorteil sein, derart reaktionsträge zu sein.


Literatur:

  1. F. Aston et al., Report of the International Committee on Chemical Elements, J. Am. Chem. Soc., 45 (4): 867–874, 1923.
  2. Y. Oganessian et al., Synthesis of the isotopes of elements 118 and 116 in the 249Cf and 245Cm+48Ca fusion reactions, Phys. Rev. C., 74 (4): 44602–44602, 2006.
  3. D. Chon et al., Effect of low-xenon and krypton supplementation on signal/noise of regional CT-based ventilation measurements, J. Appl. Physiol., 102: 1535–1544, 2007.
  4. J. Brod, M. Gorbahn, Electroweak corrections to the charm quark contribution to K + → π + ν ν ¯ kaon-decay, Phys. Rev. D, 78 (3): 34006, 2008.
  5. J. F. Lehmann, The chemistry of Kr, Coord. Chem. Rev., 233:1-39, 2002.
  6. R. Barrer, D. Ruzicka, Non-stoichiometric clathrate compounds of water. Part 4: Kinetics of formation of clathrate phases, Transactions of the Faraday Society, 58: 2262-2271, 1962.
  7. C. Buizert, 81Kr dating identifies 120000-year-old ice at Taylor Glacier, Antarctica, Proc. Natl. Acad. Sci.U.S.A., 111 (9): 6876-6881, 2014.
  8. P. Will et al., Indigenous noble gases in the Moon`s interior, Sci. Adv., 8 (32): 2-8, 2022.

Fun Fact Friday am 11.11.2022

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Sauerstoff ist sowohl das häufigste Element auf der Erde als auch in unserem Körper.

Werden die Blätter der Tabakpflanze bei Regen gepflückt, verursacht das an der Blattoberfläche gelöste Nikotin Green Tobacco Sickness, die mit Übelkeit, Schwindel und Blutdruckschwankungen einhergeht.

Viren sind keine Lebewesen. Zur Vermehrung brauchen sie immer Wirtszellen.

Im August 1897 synthetisierte Felix Hoffman erstmals Acetylsalicylsäure und wenige Tage später Diacetylmorphin. Die Substanzen sind heute als Aspirin und Heroin bekannt.

In Deutschland kommen drei geologische Formationen für atomare Endlager in Frage: Steinsalz, Granit oder Tonstein.

Zur Beurteilung von Studien – eine weitere Handlungsempfehlung

Wer wissenschaftlich seriös erscheinen will, argumentiert mit Studienergebnissen. Oft bleibt es leider bei der reinen Behauptung „Studien haben ergeben…“. Um die Plausibilität dieser Studien zu beurteilen, braucht es zwar tiefes Fachwissen, jedoch kann man sich schon anhand von einigen Rahmen-Parametern ein Bild darüber verschaffen, ob es sich um echte Forschungsergebnisse oder um Aufmerksamkeitsheischerei handelt.

Studien sind verschriftlichte Forschungsberichte zu einem bestimmten Thema. Sie erscheinen als Publikationen in wissenschaftlichen Fachjournalen wie z. B. Science, Nature oder The Lancet. Für jeden wissenschaftlichen Bereich gibt es Hunderte von Fachzeitschriften. Nicht in allen wissenschaftlichen Bereichen wird explizit der Begriff „Studie“ verwendet. Speziell in den Naturwissenschaften spricht man eher von Publikationen. Trotzdem wird im Folgenden der Einfachheit halber der Begriff Studie verwendet, auch wenn nicht immer von Fallstudien die Rede ist. Eine Studie ist immer ein kleiner, aber sehr detaillierter Beitrag zu einer konkreten Fragestellung. Große Zusammenhänge wie z. B. der menschengemachte Klimawandel werden keinesfalls in einer einzigen Studie betrachtet. Die Forschungsergebnisse zu solch umfassenden Themen setzen sich wie ein Puzzle aus unzähligen Studien zu einem Gesamtbild zusammen.

Von der Forschung bis zur Veröffentlichung

Forschung findet in Deutschland nicht nur an den Universitäten, sondern auch an (staatlich geförderten) Instituten wie z. B. den Fraunhofer-Instituten oder den Max-Planck-Instituten statt. Ein relevanter Teil der Forschung wird auch direkt von der Industrie betrieben.

Wer seine Forschungsergebnisse veröffentlichen will, muss sich an eine Fachzeitschrift, ein sog. Journal wenden und seine fertige Studie dort einreichen. Passt das Thema und sind die Ergebnisse auf den ersten Blick plausibel und ausreichend, wird die Studie angenommen. Es ist aber auch möglich, dass sie abgelehnt wird.

Hat das Journal Interesse an einer Publikation, beginnt die Begutachtungsphase, das Peer-Review-Verfahren. Als GutachterInnen werden mehrere ExpertInnen eingesetzt, die zu sehr ähnlichen Forschungsgebieten forschen und sich mit den Mess- und Analysenmethoden sehr gut auskennen. Sie prüfen die Studie auf inhaltliche und formale Fehler und geben dann anonym Rückmeldung, was evtl. verbessert oder nochmals überprüft werden muss. Das Review-Verfahren kann mehrere Durchläufe umfassen und wird erst beendet, wenn die externen GutachterInnen keine Fehler mehr beanstanden. Dann wird die Studie von der Zeitschrift akzeptiert und veröffentlicht. Sie erscheint als Publikation, auch Paper genannt, im Print- und/oder Online-Format.

Studien sind also immer öffentlich zugänglich. Über die Suchmaschine https://scholar.google.de/ oder über Portale wie https://www.researchgate.net/ oder https://pubmed.ncbi.nlm.nih.gov/ (für medizinische oder pharmazeutische Forschungsbereiche) hat jedeR Zugang zu den begutachteten Publikationen. Manchmal ist der Zugang zur kompletten Studie jedoch kostenpflichtig, während die Zusammenfassung, der sog Abstract, immer kostenfrei lesbar ist. Weil das Begutachtungsverfahren mehrere Wochen bis Monate dauern kann und in populären Forschungsbereichen hoher Konkurrenzdruck herrscht, ist es dort üblich, die Ergebnisse schon vor Abschluss des Verfahrens auf sog. Pre-Print-Servern zu veröffentlichen. Wie der Name schon sagt, handelt es sich aber um nicht offiziell veröffentlichte Ergebnisse, von denen man nicht einmal weiß, ob sie überhaupt jemals veröffentlicht werden. Diese Pre-Prints sind zur Einsicht für KollegInnen bestimmt, und für fachfremde Leserschaft ungeeignet. Es ist nicht anzuraten, diese Informationen zu Handlungsempfehlungen oder Argumentationshilfen heranzuziehen.

Wie ist eine Studie aufgebaut?

An eine wissenschaftliche Publikation werden hohe Qualitätsanforderungen gestellt. Ob diese immer erfüllt sind, ist für Laien nicht zu beurteilen. Jedoch kann man sich anhand des Aufbaus einer Studie einen Eindruck verschaffen, ob die übliche Form eingehalten wurde.

Nach dem Titel werden die AutorInnen mit Angabe der Forschungseinrichtungen und Kontaktdaten aufgelistet. Hier werden alle beteiligten Personen aufgeführt, die zur Studie beigetragen haben. Im Abstract zur Publikation werden die Ergebnisse in wenigen Sätzen zusammengefasst, damit LeserInnen zu Beginn wissen, ob die Studie für sie relevant ist.

Beispiel einer ersten Seite einer naturwissenschaftlichen Studie
Beispiel der ersten Seite einer naturwissenschaftlichen Studie

Im ersten Abschnitt der eigentlichen Publikation, der Einleitung, wird das Thema vorgestellt und der Forschungsbeitrag in die bisherigen Erkenntnisse eingeordnet.

 Im zweiten Abschnitt werden dann die Ergebnisse präsentiert und im dritten Abschnitt schließlich ausführlich diskutiert. Die Ergebnisse werden übersichtlich in Tabellen und Abbildungen dargestellt, um den Überblick über meist große Datenmengen zu erleichtern. In der Diskussion setzen sich die AutorInnen kritisch mit den Ergebnissen auseinander, weisen auch auf Widersprüche und Limitationen hin.

Anschließend wird im Experimentellen Teil oder Methodenteil beschrieben, welche Mess- oder Rechenmethoden angewendet wurden, je nach Thema ist auch eine Fehlerbetrachtung nötig. Hier wird sehr transparent Auskunft über alle verwendeten Hilfsmittel, auch über verwendete Computersoftware gegeben. Damit ist sichergestellt, dass die erhaltenen Ergebnisse auch von anderen reproduziert werden können.

Im letzten Teil einer Publikation werden Schlussfolgerungen gezogen. Oft wird hier auch ein Ausblick in laufende oder zukünftige Forschungsarbeiten formuliert.

Am Ende der Studie stehen oft Danksagungen oder Hinweise auf Interessenskonflikte und schließlich die meist sehr lange Literaturliste, eine Aufzählung von anderen Forschungsarbeiten, die für die eigene Arbeit grundlegend sind oder aus denen zitiert wurde. Die Literaturliste umfasst nicht selten mehr als hundert Verweise. Alle sind durch hochgestellt Nummern im Text gekennzeichnet, damit nachvollzogen werden kann, warum die jeweiligen Literaturstellen angegeben wurden.

Der Versuch einer Qualitätsbeurteilung

Eine Studie nach ihren formalen Kriterien zu beurteilen, kann eigentlich jeder. Schwieriger ist die Beurteilung der Qualität. Das obliegt eigentlich nur Fachleuten. Trotzdem gibt es Kennzahlen und einige Fachbegriffe, die zumindest Orientierung geben können.

Eine bekannte, aber oft falsch verwendete Kennzahl ist der sog. Impact-Faktor. Er berechnet sich aus der Anzahl der Zitate auf Publikationen eines Journals im Verhältnis zur Gesamtzahl der erschienenen Publikationen im selben Zeitraum. Der Impact-Faktor wird oft als Qualitätsmerkmal getreu dem Motto „viel zitiert heißt heiß geliebt“ benutzt, was zu Missverständnissen führt. Zum einen bezieht sich der Faktor auf eine Fachzeitschrift und nicht auf Personen und zum anderen lässt er keine Vergleiche zwischen den Fachgebieten zu. In populären Wissenschaftszweigen wie z. B. der Krebsforschung wird um ein Vielfaches mehr publiziert als beispielsweise in experimenteller Astrophysik.

Eine weitere Kennzahl ist der Hirsch-Index, der personenbezogen berechnet wird. Er beschreibt, wie häufig ein Wissenschaftler oder eine Wissenschaftlerin zitiert werden. Auch dieser Zitationsindex ist stark von der Popularität eines Forschungsgebietes und vom Renommee der Forschenden abhängig.

Studien aus der medizinischen oder pharmazeutischen Forschung

Medizinische oder pharmazeutische Forschung beschäftigt sich oft mit der Entstehung von Krankheiten und der Wirksamkeit von Heilmitteln. Um das zu untersuchen, kann man Beobachtungsstudien oder Interventionsstudien durchführen. Beobachtungsstudien können z. B. als Kohortenstudien vorgenommen werden. Z. B. kann das Auftreten einer Krankheit oder die Ermittlung eines Risikofaktors im zeitlichen Verlauf durch Beobachtung einer Gruppe von Versuchspersonen ermittelt werden. Diese Studien werden fast immer begleitend, selten auch rückblickend durchgeführt. Fall-Kontroll-Studien hingegen ziehen meist retrospektive Vergleiche. Zu jedem (Krankheits-) Fall existiert ein gesunder Kontrollfall, das Auftreten der Krankheit wird dann durch Vergleich erforscht.

Interventionsstudien sind Studien, bei der Wirkstoffe oder therapeutische Maßnahmen verordnet werden. Im Idealfall gibt es auch hier eine Kontrollgruppe, die ein Placebo erhält. Das Studiendesign ist sinnvollerweise doppelt verblindet, d. h. weder die Behandelnden noch die StudienteilnehmerInnen wissen, ob sie der Fall- oder der Kontrollgruppe angehören. Die Zuordnung zu einer der beiden Gruppen sollte nach dem Zufallsprinzip, d. h. randomisiert erfolgen.

Schwächen klinischer Studien

Schwierigkeiten in klinischen Studien ergeben sich oft aus der Gruppengröße, die der Untersuchung zugrunde liegt. Wird beispielsweise durch eine Interventionsstudie untersucht, ob ein neues Medikament gegen Bluthochdruck wirksam ist, so wird für den reinen Test der Wirkung eine kleinere Personengruppe genügen, weil der Effekt in zeitlich überschaubarem Rahmen und eindeutig messbar ist. Wird jedoch die Wirksamkeit von täglichem Meditieren auf den Blutdruck untersucht, ist der Effekt schwächer. Deshalb muss auch die Personengruppe vergrößert werden, um sichere Aussagen über die Wirksamkeit treffen zu können. Ein Qualitätsmerkmal von Studien im medizinisch-pharmazeutischen Bereich ist das ausgewogene Verhältnis von Gruppengröße und Effektstärke der Intervention.

Ein weiteres wichtiges Qualitätsmerkmal ist der Ausschluss von Störfaktoren, die z. B. die Messung der Wirksamkeit beeinflussen. In der oben genannten Studie zur Wirksamkeit eines Blutdrucksenkers, würde das Messergebnis verfälscht werden, wenn in der Testgruppe mehr RaucherInnen wären als in der Kontrollgruppe. Die Vermeidung von solchen Confoundern klingt in diesem Beispiel banal, manchmal kennt man aber noch gar nicht alle Risikofaktoren und kann nicht auf den ersten Blick abschätzen, ob man eine unentdeckte Verzerrung oder einen tatsächlichen Effekt beobachtet.

Tatsächlich ist es leider so, dass Forschung lange dauert und sehr kleinteilig arbeitet. Bahnbrechende Erkenntnisse ergeben sich sehr selten aus einzelnen Studien. Es ist eher so, dass eine Vielzahl von Untersuchungen mit der Zeit erst eine echte Sicherheit bringt.


Literatur:

  1. W. Stock, The inflation of impact factors of scientific journals, Chem Phys Chem. 10 (13): 2193-2196, 2009.
  2. M. Schumacher, G. Schulgen, Methodik klinischer Studien. Methodische Grundlagen der Planung, Durchführung und Auswertung. 3. Auflage. Springer-Verlag, Berlin, Heidelberg 2009.
  3. R. Müller-Waldeck, Confounding – und wie man damit umgeht, Ärztl. Journal, Serie: Studien verstehen Teil 3, 2019.  

Fun Fact Friday am 28.10.2022

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Das Hormon Brain Natriuretic Peptide (BNP) wird bei der Dehnung der Herzkammern von den Herzmuskelzellen gebildet. Es fördert die Urinausscheidung und bewirkt eine Weitung der Blutgefäße.

Eine hohe Anzahl von heißen Wäschen führt wider aller Erwartungen zu höherer Bakterienvielfalt in der Einspülkammer der Waschmaschine.

Es gibt Menschen, die davon überzeugt sind, dass sich besondere Wasserstrukturen – wie hexagonales Wasser – positiv auf unser Befinden und unsere Gesundheit auswirken.

Die ersten Nobelpreise wurden 1901, fünf Jahre nach dem Tod Alfred Nobels vergeben.

In intermetallischen Verbindungen ist es möglich, dass Elemente wie z. B. Aluminium, die man typischerweise als Kationen kennt, auch negative (Partial-) Ladungen tragen.

Fun Fact Friday am 21.10.2022

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

In der forensischen DNA-Phänotypisierung erfolgt die Bestimmung von äußerlichen Merkmalen wie Haut- und Haar- und Augenfarbe über die Analyse von Einzelnukleotidpolymorphismen (SNPs) anhand von DNA-Spuren am Tatort.

Das biologische Alter kann auf diese Weise nicht bestimmt werden, sondern wird anhand des Methylierungsmusters der DNA abgeschätzt.

Nach Vulkanausbrüchen entstehen durch sehr schnell fließende dünnflüssige Lava manchmal tunnelförmige Röhren. Das hat man auf Hawaii, Island und Teneriffa, und jetzt auch auf dem Mond beobachtet.

Nur 3 % unseres Genoms kodiert für Protein-Sequenzen.

Die Elemente Nihonium, Moscovium, Tennessine und Oganessonsind sind die jüngsten des Periodensystems. Sie wurden 2016 offiziell hinzugefügt.

Wie kann man verlässliche wissenschaftliche Informationen erkennen? Eine Handlungsempfehlung

Information von Desinformation zu unterscheiden, ist nicht immer trivial. Dieser Beitrag gibt einen Überblick darüber, was jede(r) tun kann, um mehr Sicherheit bei der Einordnung von Informationen zu erlangen.

Nicht jeder Falschinformation liegt eine böse Absicht zugrunde. Gerade bei wissenschaftlichen Themen, die in den Bereichen Life Sciences, Gesundheit und Klimawandel sehr populär sind, werden Informationen oft generalisiert oder so stark vereinfacht, dass die falschen Schlüsse daraus gezogen werden. Im Falle von Fake News steckt jedoch eine Absicht hinter der Verbreitung von falschen Informationen. Diese können finanzieller oder ideologischer Natur sein. Fake News sind immer Meldungen, die stark emotionalisieren, polarisieren, und bei LeserInnen oft ein Überraschungsmoment auslösen, was dazu führt, dass die Nachricht schnell geteilt wird.

Bei vielen Berichten ist es für fachfremdes Publikum jedoch schwer zu entscheiden, ob es sich um verlässliche Informationen handelt oder nicht und kann in manchen Fällen tatsächlich nur von ExpertInnen beurteilt werden. Trotzdem gibt es einige Stolperfallen für Falschinformationen, die man nacheinander checken kann:

  1. ExpertInnenstatus prüfen

Recherchiere die AutorInnen oder HerausgerberInnen des Beitrags sowie die ExpertInnen, die genannt werden. Es kommt oft vor, dass angepriesene ExpertInnen nie zum jeweiligen Thema publiziert haben. Auf der Suchmaschine Google Scholar findest du durch eine einfache Namenssuche alle wissenschaftlichen Veröffentlichungen von genannten Personen.

https://scholar.google.de/

2. Achte auf fragwürdige Institutionen

Nicht immer, wenn die Begriffe Institut oder Akademie im Namen enthalten sind, handelt es sich um etablierte Forschungseinrichtungen. Sieh dir die Website an.

3. Achte vor allem im medizinischen Bereich auf Verkaufsangebote.

Wird dir z. B. beim Lesen eines Artikels über die Struktur von Wasser ein Gerät zur Herstellung von vermeintlich heilsamem Wasser angeboten, spricht das eindeutig gegen die Seriosität deiner Quelle.

4. Achte auf den Kontext, indem deine Information steht. Bei Büchern kann das der Verlag sein, bei fachlichen Publikationen das sog. Journal. Schau dir an, wer und was dort sonst noch veröffentlicht wird, um einzuschätzen aus „welcher Ecke“ deine Information kommt.

Das Buch “Corona Fehlalarm?” von K. Reiss und S. Bhakdi z. B. wurde im Goldegg Verlag veröffentlicht. Auf der Website des Verlags findet man zum Thema Gesundheit u. A. Bücher mit den Titeln „Gesundgevögelt in 12 Wochen“ oder „Einmal sterben und zurück. Wie man seinen eigenen Tod überlebt und das Herz neue Adern wachsen lässt“.

5. Achte auf die Stilistik deines Beitrags, besonders auf Emotionalisierung und Generalisierung.

Wissenschaftliche Erkenntnisse werden neutral und präzise präsentiert. Aussagen wie „Wlan permanent, auch nachts den Router an – sagen wir mal eine zerstörerische Frequenz“ (P. Zebergs im Youtube-Video zu „Zelltuning mit Hochfrequenz“ auf dem Kanal von QS24.TV) sind zutiefst unwissenschaftlich.

6. Achte darauf, ob Quellen angegeben werden. Wenn ja, mache dir die Mühe und schau sie dir an. Sind das wissenschaftliche Fachartikel? Wird dort die übermittelte Information auch so präsentiert oder kommt das Schlüsselwort einfach nur vor und die Botschaft ist eine ganz andere? Der Punkt der Quellenrecherche ist zeitaufwändig, aber es kommt tatsächlich oft vor, dass WissenschaftlerInnen falsch oder gar missbräuchlich zitiert werden.

Im Fall des oben angeführten „hexagonalen Wassers“ wird immer wieder ein Wissenschaftler aufgeführt, der zwar zum Thema Wasser publiziert hat, jedoch in ganz anderem Zusammenhang.

7. Wenn Abbildungen dargestellt werden, schau dir an, ob schlüssig ist, was daraus hervorgehen soll. Wird das Dargestellte erklärt? Ist eine Legende angeführt, d. h. ist ersichtlich welche Informationen dargestellt sind? Sind die Achsen beschriftet? Es ist nicht selten, dass sinnlose Abbildungen dem Beitrag einen wissenschaftlichen Anstrich geben. Es kommt auch oft vor, dass Abbildungen einfach kopiert werden, ohne die Quelle zu nennen. Oft passt dann auch der Kontext nicht richtig und es können falsche Schlüsse gezogen werden.

8. Wenn du dir trotz reichlicher Prüfung nicht sicher bist, höre dir die Gegenmeinung an und stelle auch dort eine Faktenanalyse an.

Gute Recherche ist ziemlich viel Arbeit. Zum Glück gibt es Fachleute, die das zum Teil schon übernommen haben. Schau gerne mal vorbei:

https://correctiv.org

https://mimikama.at

https://www.mdr.de/wissen/faktencheck/index.html

https://www.quarks.de/science-cops/

https://www.dw.com/de/faktencheck/t-56578552

https://www.swr3.de/aktuell/fake-news-check/index.html

Fun Fact Friday am 14.10.2022

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

1-2 % unserer Gene stammen vom Neandertaler.

Heute vor 75 Jahren wurde zum ersten Mal von einem Flugzeug die Schallmauer durchbrochen.

Die Ursache für die Demenz bei Kindern (Neuronale Ceroid-Lipofuszinose NCL) ist ein Gendefekt der CLN-Gene, die für die Funktion der Lysosomen kodieren.

Albert Einstein hat den Nobelpreis für Physik 1921 nicht für die Relativitätstheorie, sondern für die Entdeckung des Gesetzes des photoelektrischen Effektes (Quantelung der Energie) erhalten.

Braune Zwerge sind astronomische Objekte, die zu leicht sind, um in ihrem Inneren Wasserstofffusion in Gang zu setzen und wie Sterne zu leuchten.

Fun Fact Friday am 7.10.2022

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Ein Triel (sprich Tri—el) ist ein Element der dritten Hauptgruppe.

Ein Triel (sprich Triil) ist ein hochbeiniger Brutvogel, der in Mitteleuropa vom Aussterben bedroht ist.

Die Bezeichnung „dehydriert“ für Wassermangel bei Lebewesen ist unsinnig. Es sollte dehydratisiert heißen.

Elementarteilchen mit ganzzahligem Spin nennt man Bosonen, Elementarteilchen mit halbzahligem Spin heißen Fermionen.

Das Masernvirus ist sehr eng mit dem Erreger der Rinderpest verwandt.

Wissenschaftsjournalismus während und nach der Coronapandemie – Herausforderungen und Chancen

Die Coronapandemie geht mit einem unvergleichbaren medialen Weltereignis einher. Nie war das öffentliche Interesse an wissenschaftlichen Erkenntnissen größer und nie wurden auf vergleichbare Weise Handlungsempfehlungen aus wissenschaftlichen Erkenntnissen gewonnen. Durch das enorme öffentliche Interesse haben sich Schwierigkeiten und Chancen in der Entwicklung des Wissenschaftsjournalismus konkretisiert.

WissenschaftsjournalistInnen stehen im Informationsfluss zwischen Forschung und Öffentlichkeit. Um ihre Rolle zu verstehen und die Qualität des Wissenschaftsjournalismus zu beurteilen, muss auch die Wissenschaftskommunikation (generelle Kommunikation der Forschenden) insgesamt und die Öffentlichkeit als Auditorium beleuchtet werden.

Die Öffentlichkeit als fachfremdes Auditorium

Bei der Betrachtung der Öffentlichkeit wird dabei im Folgenden davon ausgegangen, dass diese selbst fachfremd ist. Die erste Frage, der nachgegangen werden muss, ist: Wie funktioniert eigentlich Meinungsbildung? Hier muss man zunächst zwischen epistemischer und psychologischer Sicherheit bzgl. der eigenen Meinung unterscheiden. Die epistemische Sicherheit erlangt man durch belastbare wissenschaftliche Evidenz. Die psychologische Sicherheit ist dagegen ist der Glaube, etwas sicher zu wissen. Dass der Unterschied zwischen beiden eklatant ist, ist vielen Menschen leider nicht bewusst. Natürlich spielen individuelle Erfahrungen mit Wissenschaft eine große Rolle, aber von größerer Tragweite ist die mediale Entwicklung der vergangenen Jahrzehnte.

Medienkompetenz in einer veränderten medialen Umgebung

Die Qualitätsmedien wurden zugunsten der sozialen Medien immer weiter verdrängt. Dies bringt den Effekt mit sich, dass mittlerweile auch Quellen wie z. B. Facebook, Youtube oder Messenger-Chatgruppen zur Informationssuche etabliert sind. Natürlich finden sich auch in sozialen Netzwerken qualitativ hochwertige wissenschaftliche Informationsquellen, jedoch sind diese vergleichsweise rar und treten fast immer in Form einer ergänzenden Funktion auf. Etablierte Institutionen oder WissenschaftlerInnen verbreiten Informationen auch aber nicht ausschließlich über Twitter oder Facebook. Es ersetzt ihre Publikationen in Fachjournalen nicht.

Sind Menschen also auf welchen Wegen auch immer zu Informationen gelangt, dann kann das ihr künftiges Handeln zu einer bestimmten Fragestellung beeinflussen (Decision Value), es kann ihr Handeln rechtfertigen (Reputational Value) und/oder die Informationen werden dazu genutzt andere zu überzeugen (Influence Value). Die Tragweite der gewonnen Informationen wurde während des zweiten Pandemiejahres 2021 insbesondere in der Impf-Frage sichtbar.

Leider ist der Weg Information suchen, Information beurteilen, Entscheidung treffen, handeln nicht so linear wie er scheint. Im zeitlichen Ablauf der Pandemie hat sich etwa ab Spätsommer 2020 eine relativ große Verunsicherung in der Bevölkerung bzgl. der Beurteilung der dargebotenen Informationen gezeigt.

Die Rolle der öffentlichen Debatte (insbesondere im Wahljahr 2021)

Im Vergleich zur Zeit des ersten Lockdowns, in der eigentlich nur eine einzige Information – „Vermeiden Sie Kontakte, bleiben Sie zu Hause“ – transportiert wurde, war die Situation mit Ausblick auf die kommende kalte Jahreszeit erheblich komplizierter zu erklären. Zwischen Fragestellungen des Lüftens, des Maske-Tragens, des Hände-Schüttelns, des Abstand-Haltens, und der gesamten Öffnungsdebatte haben viele Menschen ihr Vertrauen in die Kommunikation verloren und den Diskurs als ein Zer-reden empfunden. Wenn die Kommunikation nicht nachvollzogen werden kann, entsteht Verunsicherung.

Ein weiterer Punkt, der verunsichert, ist die sich ändernde Sachlage. Anfänglich wurde die Verdopplungszeit als Kennwert eingeführt, bei höheren Fallzahlen dann die Inzidenz und schließlich war der R-Wert das relevante Maß für die Infektionstätigkeit. Zusätzlich lieferte die Wissenschaft mit rasender Geschwindigkeit eine große Menge an Forschungsergebnissen, was das mediale Interesse weiter befeuerte. Im Monat März 2020 erschienen über 600.000 Meldungen zu den Schlüsselwörtern Corona, SARS-CoV-2 und COVID-19 in der deutschen Presse. Dazu zählen auch Falschmeldungen. Bereits im Sommer 2020 sprach die WHO von einer Infodemie als Bezeichnung für das Phänomen, dass sich Falschinformationen zu SARS-CoV-2 on- und offline schneller und weiter verbreiteten als evidenzbasiertes Wissen. Falschinformationen kursierten auch zum Umgang mit der Pandemie in anderen Ländern. Der sog. Schwedische Sonderweg wurde oft so dargestellt, als würde Schweden gänzlich auf Maßnahmen zur Eindämmung des Virus verzichten.

Die Rolle des Journalismus und die Notwendigkeit des Wissenschaftsjournalismus

Ein großes Problem in der Kommunikation während der gesamten Pandemie ist die spärliche Ausstattung der Redaktionen mit WissenschaftsjournalistInnen. 2017 betrug der Anteil am gesamten Journalismus 1–2 %. Übernehmen fachfremde Ressorts die Funktion von WissenschaftsjournalistInnen, birgt das ein hohes Potential an Fehlinformationen und falschen Einschätzungen. Im schlimmsten Fall werden Forschungsergebnisse falsch beurteilt. Wer die üblichen Methoden und Qualitätsstandards nicht kennt, der kann sich auch durch schlechte Forschung beeindrucken lassen. Es ist elementar wichtig, dass (Wissenschafts-) JournalistInnen die Reputation der WissenschaftlerInnen kennen und beurteilen können, ob Ergebnisse verlässlich sind. ExpertInnen sollten nach wissenschaftlichen Kriterien ausgewählt werden und nicht nach Sympathie oder medialer Wirkung.

Weiter ist es wichtig, dass Informationen klar und unmissverständlich, aber nicht zu stark vereinfacht transportiert werden. Eine zu vereinfachte Darstellung führt zu einem Easiness-Effekt, der bewirkt, dass Laien sich in der Beurteilung von Sachverhalten überschätzen, wenn diese zu stark vereinfach dargestellt werden. Eine ähnliche kognitive Verzerrung beschreibt der Dunning-Kruger-Effekt. Er drückt die Unfähigkeit aus, seine eigene Inkompetenz zu erkennen. Wie oft haben wir alle den Satz „Sind wir nicht alle kleine Virologen?“ gehört. Nein, sind wir eben nicht.

Als problematisch hat es sich auch immer wieder erwiesen, wenn zu wenig auf die Entwicklung der Informationslage eingegangen wurde. Weiten Teilen der Bevölkerung ist nicht klar, wie lange wissenschaftlicher Erkenntnisgewinn dauert. Und nicht jeder Informations-Baustein sollte als breaking news präsentiert werden. Überhaupt ist das Verkürzen von Informationen problematisch zu sehen und wurde von WissenschaftlerInnen im Fokus der Öffentlichkeit immer wieder kritisiert. Auch beim Anstellen von Vergleichen ist Vorsicht geboten. Wer z. B. die Inzidenzen von verschiedenen Ländern miteinander vergleicht, sollte auch auf demographische Unterschiede und Gemeinsamkeiten hinweisen.

Um die Neutralität der Wissenschaft in der öffentlichen Wahrnehmung zu bewahren, ist es dringend angeraten, dem Wissenschaftsjournalismus seinen berechtigten Platz einzuräumen, denn die Pandemie ist nicht das letzte Problem mit engem wissenschaftlichem Bezug, was vor einer breiten Öffentlichkeit dargestellt und medial begleitet werden muss.


Literatur:

  1. M. Schäfer, How Changing Media Structures are Affecting Science News Coverage, The Oxford Handbook of the Science of Science Communication, Kapitel 4, Oxford University Press 2017.
  2. V. Stollorz, Herausforderungen für den Journalismus über Wissenschaft in der Coronapandemie – erste Beobachtungen zu einem Weltereignis, Bundesgesundheitsblatt – Gesundheitsforschung – Gesundheitsschutz, 1: 70-76, 2021.
  3. G. Ruhrmann, D. Daube, Die Rolle der Medien in der COVID-19-Pandemie, Infektionen und Gesellschaft (Akademie der Wissenschaften in Hamburg, A. Lohse, Hrsg.), S. 119-134, 2021.

Fun Fact Friday am 23.9.2022

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Mit „spukhafter Fernwirkung“ bezeichnete Albert Einstein die Beobachtung, dass die Quantenzustände von bestimmten Teilchen miteinander in Verbindung stehen können, auch wenn sie sich in großer räumlicher Entfernung voneinander befinden.

Fast zwei Drittel aller Ameisen leben in den tropischen Regenwäldern und den tropischen Savannen.

Am Fraunhofer Institut für organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) in Dresden wurde eine Methode entwickelt, Saatgut mit Elektronen zu behandeln, um Bakterien, Pilze und Viren abzutöten.

CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats,) ist eine „Genschere“, die man so designen kann, dass sie an (fast) jeder beliebigen Stelle des Genoms einen DNA-Doppelstrangbruch erzeugen kann.  Die vollständige Bezeichnung der gentechnischen Methode ist CPISPR-Cas9.

Für die grüne Farbe von Feuerwerkskörpern ist das Element Barium verantwortlich.

Fun Fact Friday am 16.9.2022

Jeden Freitag werden hier fünf Fun Facts aus unterschiedlichen naturwissenschaftlichen Bereichen vorgestellt.

Louise Joy Brown wurde am 25.7.1978 in Oldham (Großbritannien) geboren. Sie ist der erste Mensch, der durch eine künstliche Befruchtung gezeugt wurde.

Bei der Beurteilung der Leistungsfähigkeit von Quantencomputern muss nicht nur auf die Anzahl der verschränkten Qubits, sondern auch auf die Fehlerquote geachtet werden.

Unter Kryptobiose versteht man einen Zustand, den ein Organismus unter extremen Bedingungen wie Sauerstoffmangel, Kälte oder Wassermangel einnehmen kann. In diesem Zustand ist kein Stoffwechsel mehr messbar, der Organismus ist jedoch nicht tot.

Die Speicherung von Bewegungsabläufen im Gehirn nennt man prozeduales Gedächtnis.

Um die Nobelpreismedallien von James Franck und Max von Laue vor den deutschen Nationalsozialisten zu retten, löste der Chemiker George de Hevesy die Medaillen in Königswasser auf. Nach Kriegsende wurden aus den gelösten Metallen neue Medaillen hergestellt.

Element des Monats September: Indium

Das Element mit der Ordnungszahl 49 ist selten. Obwohl es sich auf den ersten Blick wie ein typisches Metall verhält, kann man ihm beim genaueren Hinsehen doch auch etwas Kovalentes und Ionisches abgewinnen. Indium ist eines der Elemente, bei dem Bindungstheorie spannend wird.

Das BIld zeigt reines, silbern glänzendes Metall
Das reine Metall ist weich und silbern glänzend. (Quelle: https://assignmentpoint.com/indium)

Indium ist ein typisch unedles Metall. Es glänzt silbern, ist weich und duktil. Es ist das weichste Metall, das wir in den Händen halten können. Es lässt sich leicht biegen und macht dabei ein merkwürdig knirschendes Geräusch, das an das bekannte „Zinngeschrei“ seines Nachbarelements erinnert. Indium schmilzt ab 157 °C und bleibt dann bis 2000 °C flüssig.

Von Indium sind 38 Isotope und 45 Kernisomere bekannt. Natürlich vorkommend sind 115In mit 66 Neutronen und einer Häufigkeit von 95,7 % sowie 113In (64 Neutronen) mit einer Häufigkeit von 4,3 %. Unter Normalbedingungen kristallisiert Indium in einer tetragonal verzerrten kubisch flächenzentrierten Struktur. Weitere Modifikationen sind nur unter hohen Drücken von mehr als 45 GPa bekannt.

Entdeckung und Vorkommen: selten, unedel, aber teuer

Das Schwermetall ist sehr selten. Seine Häufigkeit in der Erdkruste liegt bei 0,05 ppm. Indium wurde deshalb auch erst sehr spät entdeckt: 1863 stießen F. Reich und T. Richter von der Bergakademie Freiberg in Sachsen bei der Suche nach Thallium in einem Zink-Erz auf das Element. Seinen Namen verdankt Indium der indigoblauen Flammenfarbe. Diese kommt durch einen elektronischen Übergang vom 5p-Grundzustand in das 6s-Niveau des angeregten Zustands zustande und entspricht der Spektrallinie bei 451 nm, also blauer Farbe.

Indium kommt in Mineralien wie Indit (FeIn2S4) oder Roquestit (CuInS2) vor, die hauptsächlich in Canada, China und Peru abgebaut werden. In kleineren Mengen ist Indium auch in Zink-haltigen Erzen wie Sphalerit (ZnS) enthalten, die z. B. auch in Deutschland gefunden werden. Der Gehalt an Indium liegt jedoch im ppm-Bereich und der Abbau ist deshalb wenig lukrativ.

Die globale Verfügbarkeit aller In-Vorräte wird auf 11.000 t geschätzt, was Indium zu einem knappen Rohstoff macht. 2008 lag der recycelte Anteil erstmals über der Menge an neu gewonnenem Metall, was den Preis deutlich sinken ließ.

Zeitliche Entwicklung des Indium-Preises. Die Angaben beziehen sich auf die Preise pro kg und wertden in € angezeigt.
Die zeitliche Entwicklung des Indium-Preises. Die Angaben beziehen sich auf die Preise pro kg und wertden in € angezeigt. (Quelle: www.indium-preis.de)

Lange bedeutungslos, heute unverzichtbar

Die ersten Anwendungen des unedlen Metalls waren recht unspektakulär und standen in engem Zusammenhang mit seiner Weichheit und der Ungiftigkeit für den menschlichen Körper. So wurde es ab den 30-er Jahren in Zahnfüllungen oder zum Überzug von Legierungen verwendet. Speziellere und spannendere Anwendungen folgten im 21. Jahrhundert mit fortschreitender Entwicklung der Halbleitertechnik und Informationstechnologie. Heute wird Indium in Lasern und Leuchtdioden sowie in der Hochfrequenztechnik verwendet. Es ist Bestandteil der ITOs (Indium-Tin-Oxides), die als transparente leitende Materialien Anwendung in Touchscreens und flüssigkristallinen Bildschirmen finden. In jedem Smartphone sind mehrere Milligramm Indium verbaut. Auch in Dünnschichtsolarzellen, den CIGS (Kupfer-Indium-Gallium-Diselenide, CuInxGa1-xSe2) wird Indium verwendet.

Oxidationsstufen und ein Hauch von Bindungstheorie

Neben der für die dritte Hauptgruppe typische Oxidationsstufe +III sind auch Verbindungen mit einwertigem In bekannt. Die Ausbildung der s2-Kationen für In wird durch seine Stellung im Periodensystem gerechtfertigt. Innerhalb der Hauptgruppen werden niedrige Oxidationszahlen zu den schwereren Elementen hin stabilisiert. Die gemischt-valente Verbindung In2Br4 enthält Indium in beiden Oxidationsstufen.

Metallorganische Alkyl- oder Aryl-Verbindungen sind nur von In+III stabil. Analoge In+I-Verbindungen disproportionieren schon unterhalb von Raumtemperatur. Auch einige In+II– Verbindungen mit In-In-Einfachbindungen sind bekannt, sie benötigen allerdings eine hohe sterische Abschirmung, sonst findet auch hier eine Disproportionierung statt. Insgesamt ist die In-C-Bindung nicht sonderlich stabil und thermische Zersetzung erfolgt oft schon bei moderaten Temperaturen.

In Gruppe 13 des Periodensystems findet der Übergang von Nichtmetallen zu Metallen statt. Das leichteste Element dieser Gruppe, das Bor, ist ein typisches Nichtmetall. Die schwereren Homologen sind Metalle, also typische Kationenbildner. Salzartige Verbindungen wie InBr3 sind aus den Elementen darstellbar.

Daneben existieren aber auch viele Indium-Bromide und Iodide mit kovalenten In-In-Bindungen.

In zahlreichen intermetallischen Phasen wie z. B. CaIn oder CaIn2 tragen dier Indium-Atome gar negative Ladungen. Die Art der Bindung nicht mehr mit den einfachen Bindungskonzepten zu erklären.

Die Kristallsturkturen von CaIn und CaIn2.
Die Kristallsturkturen von CaIn (links) und CaIn2 (rechts). Die Indium-Atome sind in blau, die Calcium-Atome in gelb dargestellt.

In der Struktur von CaIn (Struktur rechts) sind kleine isolierte In-Einheiten zu erkennen. In diesen Vierringen ist jedes Indium-Atom zweibindig. Die formale Ladung ist nicht so einfach zu bestimmen. Eine ionische Zerlegung nach dem Zintl-Konzept erklärt die Ladungsverteilung nicht: 4 CaIn à 4 Ca2+ + [In4]12- – 4 e

Durch eine solche Zerlegung bleibt ein Elektronenmangel von 4 ebestehen, der durch die Ca-Kationen nicht ausgeglichen werden kann.

Für Vertreter des CaIn2-Strukturtyps (Struktur links) funktioniert die ionische Zerlegung. Die vierbindigen In-Atome sind formal einfach negativ geladen.

Die beiden Beispiele zeigen, dass eine einfache Aussage über die Bindungsverhältnisse anhand der Summenformel nur für echte Salze funktioniert. Anhand der intermetallischen Indium-Verbindungen können spannende Untersuchungen der elektronischen Struktur angestellt werden, die durch quantenchemische Rechnungen ergänzt werden. Die Vielfalt dieser Verbindungen füllt ganze Doktorarbeiten…


Literatur:

  1.  W. Uhl, Indium – selten und wichtig, in: Chemie der Elemente (GdCh Hrsg.), S. 39-41 Frankfurt 2019.
  2. https://www.institut-seltene-erden.de/seltene-erden-und-metalle/strategische-metalle-2/indium
  3. A. Hollemann, N. Wiberg, Lehrbuch der anorganischen Chemie, Band 1, 103. Auflage, De Gruyter 2017.