Jörn Müller

Jörn Müller

23.09.2015
Publiziert in News

Vor kurzem hat sich der bekannte Physiker und Kosmologe Stephen Hawking mit einer Idee zur Lösung des Informations-Paradoxons bei Schwarzen Löchern zu Wort gemeldet. Nach Einsteins Allgemeiner Relativitätstheorie (ART) verschwindet Materie beim Überschreiten des Ereignishorizonts eines Schwarzen Lochs (SL) gemeinsam mit der von der Materie transportierten Information auf Nimmerwiedersehen. Die Information ist verloren. Nach den Regeln der Quantenmechanik hat jedoch Information auf ewig Bestand und kann nicht vernichtet werden. Diesen Widerspruch bezeichnet man als Informations-Paradoxon. Die Lösung des Problems sieht Hawking in einem auf den ersten Blick plausiblen Prozess: Die Information gelangt gar nicht in das Innere des SL, sondern wird am Ereignishorizont gespeichert, um von dort mit der Hawking-Strahlung – auf die wir gleich zu sprechen kommen – wieder nach außen transportiert zu werden. Dabei soll die Information jedoch chaotisch „verwirbelt“ sein, sodass sie nicht mehr „lesbar“ und somit für physikalische und praktische Anwendungen wertlos ist.

          1975 postulierte Stephen Hawking, dass von Schwarzen Löchern eine Strahlung ausgeht, die ihnen Energie entzieht und sie schrumpfen lässt. Ursächlich für diese Strahlung sind sich fortwährend im Vakuum ereignende sogenannte Vakuumfluktuationen, wobei spontan virtuelle Teilchen/Antiteilchenpaare entstehen, die sofort wieder zerstrahlen und die für ihre Entstehung dem Vakuum entliehene Energie wieder an das Vakuum zurückgeben. Ereignet sich eine derartige Fluktuation in unmittelbarer Nähe des Ereignishorizonts eines SL, so kann es aufgrund der starken Raumzeitkrümmung in diesem Bereich zu einer Trennung der virtuellen Teilchenpaare kommen. Eines der beiden Teilchen fliegt in das SL, während das andere, nun als reales Teilchen, sich vom SL als sogenannte Hawking-Strahlung wegbewegt.

Hawkingstgrahlung                             

 Entstehung der Hawking-Strahlung am Ereignishorizont eines SL

 

Die Energie für die Trennung, für die Wandlung des virtuellen in ein reales Teilchen und für die Bewegungsenergie des Teilchens gehen zu Lasten des SL. Da E = mc2, verliert das SL entsprechend an Masse, es schrumpft und „verdampft“ schließlich komplett. Bei einem SL von einer Sonnenmasse vergehen dabei circa 1066 Jahre. Der Begriff „Strahlung“ umfasst, je nach Masse des SL, nicht nur unterschiedliche Teilchen unterschiedlicher Masse, sondern auch elektromagnetische Wellen, die bei der Annihilation von realen Teilchen und Antiteilchen am Rande des Ereignishorizonts entstehen (siehe Grafik).

Hawing Strahlung Credit E. Siegel on the quantum origin of Hawking Radiation

Entstehung der Hawkink-Strahlung (Credit: E. Siegel, on the quantum origin of Hawking Radiation)

 

          Eine andere Erklärung der Hawking-Strahlung beruht auf den Gesetzen der Thermodynamik. Demnach strahlen alle Körper, je nach ihrer Temperatur, elektromagnetische Wellen, das heißt Licht ab. Auch Schwarzen Löchern lässt sich eine Temperatur T zuordnen. Sie ist umgekehrt proportional zur Masse M des SL und wird daher mit zunehmender Masse immer niedriger.

 Hawking Temp. aus Wikipedia                                             

Formel zur Berechnung der Hawking-Temperatur eines SL

 

Entsprechend strahlen kleine SL stärker als massereiche. Mit welcher Intensität, in welchen Wellenlängenbereichen diese Objekte Licht abgeben, lässt sich mit der von Max Planck aufgestellten Strahlungsformel berechnen. Stellare SL – sie entstehen bei Supernova-Explosionen von Sternen mit wenigstens 25 Sonnenmassen – weisen Temperaturen von rund einem Millionstel Kelvin auf (Null Kelvin, die Temperatur am absoluten Nullpunkt, entspricht minus 273,15 Grad Celsius). Da – siehe Formel – T umgekehrt proportional zur Masse des SL ist, hat ein SL von einigen Millionen Sonnenmassen nur noch eine Temperatur von etwa einem Billiardstel Kelvin. Damit dürfte die zu erwartende Strahlungsleistung massiver SL so gering sein, dass man einen enormen messtechnischen Aufwand betreiben müsste, allein um sie aus dem Rauschen der sehr schwachen kosmischen Hintergrundstrahlung herauszufiltern. Der „thermodynamische Ansatz“ zur Hawking-Strahlung scheint jedoch insofern unvollständig, da er quantenmechanische Prozesse nicht berücksichtigt, sodass damit nur eine Emission elektromagnetischer Wellen erklärbar ist.

          Erwähnt sei noch, dass es bislang nicht gelungen ist, Hawking-Strahlung experimentell nachzuweisen. Den Grund dafür haben wir angedeutet. Die folgenden Ausführungen machen daher nur Sinn, wenn es die Hawking-Strahlung wirklich gibt. Gehen wir also davon aus: sie existiert.

          Zurück zum Informations-Paradoxon. Verdampft ein SL aufgrund des mit der Hawking-Strahlung einhergehenden Energieverlustes, dann, so der erste Gedanke, sollte auch eventuell vorab vom SL verschluckte Information perdu sein. Man kann den Standpunkt vertreten, das sei nicht schlimm. Denn unseres Wissens hat bislang niemand die Information vermisst, die in den SL seit Anbeginn ihrer Existenz verschwunden sein mag. Vom Standpunkt der theoretischen Physik ist das natürlich zu kurz gedacht. Denn hier geht es um die Gesetze der Quantenphysik und Relativitätstheorie. Sind sie verletzt? Sollte Information tatsächlich verloren gehen können, dann muss die Quantenphysik „repariert“ werden. Kommt die Information aber wieder zum Vorschein, so hat die Allgemeine Relativitätstheorie ein Problem, denn nach deren Gesetzen kann aus einem SL nichts entkommen.

Die Physiker und Kosmologen Lee Smolin und Sabine Hossenfelder haben vor Kurzem denkbare Lösungen dieses Paradoxons zusammengestellt. Eine besagt: Die Information ist in der Tat verloren, und die Gesetzte der Quantenmechanik sind unvollständig. Ein anderer Lösungsweg setzt auf die Entstehung eines neuen Raumzeit-Gebiets im SL, eine Art Baby-Universum, in welchem die Information gespeichert und bewahrt ist. Wieder andere Lösungen ziehen „Weiße Löcher“ in Betracht, hypothetische, zu den SL konträre Objekte, in die nichts hineinfallen, sondern nur etwas entweichen kann, einschließlich Information. Man kann sich auch vorstellen, dass SL gar nicht komplett verdampfen, sondern lediglich auf ein unvorstellbar kleines Volumen schrumpfen, in dem die Information verbleibt. Es könnte auch sein, dass die Information auf irgendeine Art vom Inneren des SL nach außen kopiert wird, sodass sie, selbst wenn das SL total verdampft, dennoch erhalten bleibt. Ein letzter Vorschlag zielt schließlich darauf ab, dass die Information gar nicht in das Innere des SL gelangt, sondern verschlüsselt am Ereignishorizont des SL „abgelegt“ wird und von dort wieder verfügbar sein soll. In diese Richtung geht auch der von Hawking ins Spiel gebrachte Vorschlag zur Lösung des Informations-Paradoxons.

          Hawkings Vorschlag besagt, dass die Information gar nicht in das SL gelangen soll, sondern schon am Ereignishorizont abgefangen und dort als zweidimensionale Modifikation der dreidimensionalen Materie abgelegt wird. Hawking spricht von einer „Supertranslationen“, die immer dann dem Ereignishorizont des SL aufgeprägt wird, wenn die in das SL stürzende Materie den Ereignishorizont überschreitet. Hawking sagt dazu etwas mysteriös: „Die Idee ist, dass diese Supertranslation ein Hologramm der einströmenden Teilchen bildet. Dadurch erhalten sie all die Information, die sie sonst verlieren würden“. Wobei noch zu ergänzen ist, dass die in das SL fallende Materie, wie von der Allgemeinen Relativitätstheorie verlangt, verloren ist. Wie jedoch die Information vom Ereignishorizont auf die Hawking-Strahlung übergeht, dazu erfährt man nichts. Lediglich, dass sie chaotisch verändert und somit nicht mehr lesbar sein soll.

Die wissenschaftliche Gemeinde hat diesen Vorschlag mit gemischten Gefühlen aufgenommen. Es fehlt schlichtweg noch an „Substanz“, denn bislang hat Hawking seine Idee weder in einer Publikation präzisiert noch irgendwelche Gleichungen geliefert. Man fragt sich, ob dieser Vorschlag wirklich zu einer Lösung des Informations-Paradoxons führen kann, oder ob damit nicht zu den bereits mannigfaltigen Lösungsvorschlägen lediglich ein weiterer hinzugefügt ist, der die allgemeine Ratlosigkeit noch verstärkt. Manche gehen sogar so weit zu behaupten: Hätte nicht Hawking, sondern jemand anderes diese Idee öffentlich gemacht, kaum einer hätte sich darum gekümmert. Vielleicht macht uns Hawking aber bald schlauer, denn in Kürze wollen er und seine Kollegen zu diesem Thema einen Fachartikel veröffentlichen.

So verworren die Angelegenheit ist, immer mehr Wissenschaftler glauben mittlerweile, dass hier die Stringtheorie, an deren Durchbruch mit Nachdruck gearbeitet wird, weiter helfen könnte. Obwohl von manchem renommierten Wissenschaftler, auch in unserem nahen Umfeld, strikt abgelehnt, scheint sie im Vergleich zu den Jahrzehnte langen Versuchen, die Quantentheorie mit der Allgemeinen Relativitätstheorie zu versöhnen, das Potential zu haben, die Gravitation in die Quantenfeldtheorie mit einzubeziehen. Das scheint unverzichtbar, um genauere Aussagen z. B. zu Singularitäten – unendlich kleine Raumzeitpunkte von unendlicher Dichte –, zu denen die Allgemeine Relativitätstheorie bei sehr kleinen Skalen führt und zu Schwarzen Löchern machen zu können: Gibt es Singularitäten wirklich, oder sind sie lediglich das Resultat unzulänglicher mathematischer Gleichungen und wie sieht es im Innern von SL aus? Herrscht hier erst mal Klarheit, darf man auch auf eine Lösung des Informations-Paradoxons hoffen.

 

Jörn Müller (23. Sept. 2015)

16.09.2015
Publiziert in News

Bringen wir es auf den Punkt: Dass es überhaupt etwas „Greifbares" im Universum gibt, ist einem „Verstoß“ gegen die Regeln des Teilchenzerfalls geschuldet. Wäre in der Frühphase des Universums alles mit „rechten Dingen“ zugegangen, der Kosmos wäre strukturlos und ausschließlich von Strahlung erfüllt. Folgt man den Theorien der Kosmologen und Teilchenphysiker, so gab es in der Planck-Ära des Universums, 10-44 Sekunden nach dem Urknall, nur eine alles bestimmende Ur-Kraft, die alle heute bekannten Wechselwirkungen in sich vereinte. In der Zeit 10-34 bis 10-32 Sekunden nach dem Big Bang kam es dann zu einem Phasenübergang, bei dem sich diese „Ur-Kraft“ – manche nennen sie auch X-Kraft – in eine die starke, die schwache und die elektromagnetische Kraft vereinheitlichende Kraft und in die Gravitationskraft aufspaltete. Kosmologen bezeichnen diese Epoche als GUT-Ära (GUT = Grand Unified Theorie). Diese Periode wurde bestimmt durch sogenannte X- und Y-Bosonen und deren Antiteilchen. Mit einer Ruhemasse von ca. 1016 Giga-eV, was rein rechnerisch rund 110 Millionen Kilogramm entspricht, waren diese Teilchen extrem massereich. Aufgrund der steten Expansion des Universums sank die Temperatur jedoch immer weiter ab, sodass sich kurz darauf eine weitere Symmetriebrechung ereignete, bei der sich die in der GUT-Ära vorherrschende Kraft in die starke Kernkraft und in die elektromagnetische und die schwache Kraft zusammenfassende elektroschwache Wechselwirkung aufspaltete. Dabei zerfielen auch die X- und Y-Bosonen in Quarks und Leptonen. Beide Teilchen sind Elementarteilchen und gehören zu den Grundbausteinen der Materie. (Man kennt insgesamt 12 Leptonen: das Elektron, das Myon, das Tau, zu jedem ein Neutrino und zu allen wiederum ein Antiteilchen).

 Zerfall X Y Bosonen                                              

Wie die Grafik zeigt, wurde beim Zerfall der Bosonen sowohl die Baryonenzahl als auch die Leptonenzahl verletzt. Da der Zerfall asymmetrisch verlief, entstanden nicht gleich viele Teilchen und Antiteilchen, vielmehr kamen auf rund zehn Milliarden Antiteilchen zehn Milliarden und ein zusätzliches Teilchen „normaler“ Materie. Als dann die Temperatur im Kosmos so weit gesunken war, dass Teilchen und Antiteilchen nicht mehr nebeneinander bestehen konnten, vernichteten sich Teilchen und Antiteilchen gegenseitig zu Photonen, die wir noch heute als „Kosmische Hintergrundstrahlung“ beobachten können. Dabei blieb von jeweils 20 Milliarden Teilchen und Antiteilchen nur das eine überzählige normale Teilchen übrig, das keinen Partner für eine Zerstrahlungsreaktion gefunden hatte. Aus diesem winzigen Überschuss der Materie über die Antimaterie entstand alles, was wir heute im Universum vorfinden.

          Die Gründe für diese Asymmetrie sind nach wie vor unbekannt. Man vermutet, dass eine Verletzung der CP-Symmetrie bei der schwachen Wechselwirkung dafür verantwortlich sein könnte. Was die vier fundamentalen Wechselwirkungen betrifft, so hat man es mit drei Symmetrien zu tun: der Ladungssymmetrie C (charge), der Spiegelsymmetrie P (parity) und der Zeitsymmetrie T (time). Dabei bedeutet C Symmetrie gegenüber einem Wechsel der Polarität des Teilchens. Ein negativ geladenes Elektron wird durch einen Wechsel der Polarität zu einem Positron, dem Antiteilchen des Elektrons.

Spiegelsymmetrie P besteht, wenn Original und gespiegeltes Objekt ununterscheidbar sind. Bei einer Spiegelung wird nicht die Ladung, sondern „Links“ und „Rechts“ vertauscht. Beispielsweise sieht das Spiegelbild eines perfekten Ahornblattes genauso aus wie das Original. Ist schließlich ein Vorgang zeitlich umkehrbar, d. h. der Anfangszustand stellt sich wieder ein, wenn man den Prozess rückwärts laufen lässt, so spricht man von Zeitsymmetrie T.

Eine Wechselwirkung gilt als invariant gegen C, P oder T, wenn sie die Teilchen unabhängig von ihrer Ladung, einer Spiegelung und einer Prozessumkehr gleich behandelt. Man spricht dann von CPT-Symmetrie.

Bei der starken Kraft, der elektromagnetischen Kraft und der Gravitation sind die Symmetrien C, P und T erhalten. Bei der schwachen Wechselwirkung, die für den Teilchenzerfall verantwortlich ist, sind jedoch C und P einzeln maximal verletzt. Am Beispiel des Neutrinos, das in unserer Welt nur linkshändig vorkommt, lässt sich das gut zeigen. Dabei bedeutet „linkshändig“, dass sich das Neutrino, in Flugrichtung betrachtet, links herum dreht, sein Spin also antiparallel zur Impulsrichtung ausgerichtet ist, während es bei „rechtshändigen“ Teilchen umgekehrt ist. Wird also C auf das Neutrino angewandt, so ergibt das zwar, wie erwartet, ein Antineutrino, allerdings ein linkshändiges, ein Teilchen, das es so nicht gibt (Abb. 1)

Bild1   Abb. 1

 

Bild2 Kopie   Abb. 2

 

Desgleichen ergibt P, angewandt auf das Neutrino, ein ebenfalls physikalisch unsinniges rechtshändiges Teilchen (Abb. 2). Unterwirft man jedoch das Neutrino C und P gleichzeitig, so erhält man ein rechtshändiges, in der Natur vorkommendes Antineutrino (Abb. 3).

 Bild3                 Abb. 3

 

Damit bilden C und P gemeinsam angewandt die Welt der Teilchen auf die der Antiteilchen ab. Es herrscht CP-Symmetrie bezüglich der schwachen Wechselwirkung.

          1964 beobachteten jedoch Christenson, Cronin, Fitch und Turlay bei der Untersuchung des Zerfalls neutraler Kaonen K0, eine Verletzung der CP-Symmetrie. Kaonen gehören zur Gruppe der Mesonen, die aus je einem Quark und einem Antiquark bestehen: das „normale“ Kaon aus einem down- und einem Anti-strange-Quark, das Anti-Kaon aus einem Anti-down und einem strange-Quark. Da sich das Kaon in das Anti-Kaon umwandeln kann und umgekehrt das Anti-Kaon in das Kaon,

 

Umwandlung Kaon Antikaon                              

                      Kaonenoszillation (Credit: Jan Fiete Große-Oetringhaus)

 

„sieht“ die schwache Wechselwirkung die Kaonen nicht als einzelne Teilchen, sondern als eine lineare Überlagerung der beiden, die man mit K01 und K02 bezeichnet (Abb. 4). K01 und K02 stellen also eine Mischung aus Materie und Antimaterie dar.

 

Bild4 Kopie                                      

                                 Abb. 4 (Credit: R. Burgess und R. Frazier)

 

K01 und K02 zerfallen in Pionen, auch p-Meson genannt. p-Meson bestehen aus einem up- und einem Anti-down-Quark, die Anti-Teilchen aus einem down- und einem Anti-up-Quark. Da das K01 deutlich schneller zerfällt als das K02, hat man ersteres auch mit dem Index S für „Schnell“ versehen, also K0S, und letzteres mit dem Index L für „Langsam“, also K0L.

Wenn nun in diesem Kaonensystem die CP-Erhaltung Gültigkeit hätte, sollte das K0S immer in zwei p-Meson zerfallen, das K0L immer in drei p-Meson (Abb. 5).

Schnell Langsam                   

                                Abb. 5 (Credit: R. Burgess und R. Frazier)

 

Beobachtet hat man jedoch etwas anderes: Bei rund 500 beobachteten Zerfällen zerfiel das K0L nicht in drei, sondern nur in zwei p-Meson. Mit anderen Worten: Die CP-Symmetrie ist nicht erhalten, sondern verletzt, und Materie und Antimaterie werden – zumindest in diesem Fall – von der schwachen Wechselwirkung unterschiedlich behandelt. Ein erster Hinweis auf einen Mechanismus, der in der Frühzeit des Universums zu dem asymmetrischen Zerfall der X- und Y-Bosonen geführt haben könnte.

Neben dem Zerfall des langlebigen K0L–Kaons in drei p-Meson kommt auch ein Zerfall in drei andere Teilchen vor: in ein negatives p-Meson, ein Positron, das Anti-Teilchen des Elektrons, und in ein Elektron-Neutrino (Kanal 1). Das CP-symmetrische K0L zerfällt dagegen in ein positiv geladenes p-Meson, ein Elektron und ein Anti-Elektron-Neutrino (Kanal 2). Herrscht perfekte CP-Symmetrie, so sollten beide Zerfälle gleich wahrscheinlich sein. Doch die Experimente lieferten auf 1003 Kanal 1-Zerfälle, nur 1000 Zerfälle entsprechend dem Kanal 2. Damit ist auch hier die CP-Symmetrie leicht verletzt (Abb. 6)

 

Bild6 Unterschiedl Zerfall von KL                             

                                Abb. 6 (Credit: L. Feld, Uni Freiburg)

 

Auch beim Zerfall von B-Mesonen und deren Antiteilchen kommt es zu einer Verletzung der CP-Symmetrie. Wie die Tabelle zeigt, sind diese Teilchen aus je einem Quark und einem Antiquark zusammengesetzt.

 

B Mesonen aus Wikipedia          

                Aufbau von B-Mesonen und Anti-B-Mesonen

 

Im Rahmen des „Babar“-Experiments am Stanford Linear Beschleuniger Center SLAC an der Stanford-University in Kalifornien und des Belle-Experiments am japanischen Beschleuniger KEK wird der Zerfall dieser Teilchen untersucht. In regelrechten Mesonen-Fabriken werden dort zunächst große Mengen an B- und Anti-B-Mesonen erzeugt und anschließend die beim Zerfall entstehenden Teilchen registriert und mit den Vorhersagen der Standardtheorie der Elemetarteilchenphysik verglichen.

Babar Detektor am SLAC Credit            

                                   Blick in den Babar-Detektor am SLAC

                           (Credit: SLAC National Accelerator Laboratory)

    

Auch hier zeigt sich eine ungleiche Behandlung der B- und Anti-B-Mesonen durch die schwache Wechselwirkung, also eine Verletzung der CP-Symmetrie. Bei den CP verletzenden Zerfällen neutraler B-Mesonen registrierte man 2241±57 Zerfälle des B-Mesons in ein K+ (Kaon) und ein negatv geladenes p-Meson), jedoch nur 1856±52 Zerfälle des Anti-B-Mesons in ein Kund ein positiv geladenes p-Meson. Ein entgegengesetztes Bild lieferten die Zerfallsreaktionen an geladenen B-Mesonen. Hier war das Verhältnis umgekehrt, sodass ein Anti-B-Meson häufiger in ein Kzerfiel als ein B-Meson in ein K+. Abgesehen von der Verletzung der CP-Symmetrie lässt sich insbesondere diese Asymmetrie in der CP-Verletzung mit dem Standard-Modell der Elementarteilchen nicht in Einklang bringen.

B-Mesonen entstehen auch bei den Kollisionen von Protonen und Antiprotonen am LHC (Large Hadron Collider) in Genf. Neben dem bereits besprochen Zerfall der B-Mesonen in Kaonen und p-Meson entstehen auch massereiche Leptonen, das Tau und das Myon. Diese Leptonen sind sehr kurzlebig und zerfallen rasch in masseärmere Leptonen. So kann ein Tau-Lepton in ein Quark, ein Antiquark und in ein Tau-Neutrino zerfallen. Normalerweise sollte die Zerfallsrate der Leptonen Tau und Myon identisch sein. Mit dem LHCb-Detektor am LHC hat man jedoch einen auffallenden Unterschied in der Zerfallsrate gemessen. Da dieser Effekt

 

Leptonenspuren im LHCb Detektor CERN LHCb Collaboration       

         Leptonenspuren im LHCb-Detektor   (Credit: CERN LHCb Collaboration)

 

auch schon am Stanford Linear Beschleuniger SLAC im Rahmen des Babar-Experiments beobachtet wurde, darf man wohl einen zufälligen Messfehler ausschließen. Brian Hamilton von der University of Maryland spekuliert denn auch, ob nicht bislang unbekannte Teilchen oder Kräfte für den asymmetrischen Zerfall der Leptonen verantwortlich, beziehungsweise für die CP-Verletzung ursächlich sind. Die Forscher hoffen nun, dass der mittlerweile mit höherer Kollisionsenergie laufende LHC aufschlussreichere Daten liefert.

        Erwähnen wir noch die Experimente am Teilchenbeschleuniger Tevatron in Batavia bei Chicago. Auch dort entstanden bei der Kollision von Protonen und Antiprotonen mit einer Energie von 1,96 TeV (Teraelektronenvolt) kurzlebige neutrale B-Mesonen, bei deren Zerfall deutlich mehr Myonen als Antimyonen registriert wurden. Gemäß der Standardtheorie sollten aber gleich viele Teilchen wie Anti-Teilchen entstehen. Denn nach dem Standardmodell der Teilchenphysik müssten alle Leptonen auf gleiche Weise mit den vier Grundkräften (Gravitation, starke und schwache Wechselwirkung und elektromagnetische Kraft) interagieren. Ulrich Nierste vom Karlsruher Institut für Technologie kommentierte dieses Ergebnis mit den Worten: „Sollte die vorliegende Abweichung unabhängig bestätigt werden, wäre die Tür zu neuen Naturgesetzen aufgestoßen.“

          Bislang scheint der „Schwarze Peter“ für die Zerfallsasymmetrie bei der schwachen Kernkraft zu liegen, die, so scheint es, Materie und Antimaterie unterschiedlich behandelt. Doch die Forscher denken weiter. Vielleicht ist nicht die schwache Kraft die Schuldige, sondern Materie und Antimaterie sind – abgesehen von Ladung und Spin – gar nicht identisch. Es könnte doch sein, dass ein Teilchen und dessen Antiteilchen unterschiedliche Massen haben, was zu den beobachteten Asymmetrien führen könnte. Im BASE-Experiment (Baryon Antibaryon Symmetry Experiment) am CERN haben Forscher das Verhältnis von Masse zu Ladung für Protonen und Antiprotonen überprüft. Die für diesen Test benötigten Teilchen wurden in einer sogenannten Penningfalle geparkt, wo ein starkes Magnetfeld die Teilchen auf eine kreisförmige Bahn zwingt. Wie viele Runden die Teilchen pro Zeiteinheit drehen, wird bestimmt vom Verhältnis Masse der Teilchen zu ihrer Ladung. Da es an der Ladung der Teilchen nichts zu rütteln gibt – sie ist bis auf das Vorzeichen immer gleich der Elementarladung –, sind Unterschiede in der Anzahl der Umläufe auf eine Massendifferenz von Proton und Antiproton zurückzuführen.

 

Antiproton in einer Penningfalle Fabienne Marcastel Georg Schneider BASE Kollaboration        

                                        Antiproton in einer Penningfalle

            Credit: Fabienne Marcastel, Georg Schneider BASE-Kollaboration

 

Wie die Forscher berichten, war das Masse-Ladungsverhältnis von Proton und Antiproton bis auf einen Bruchteil von 69 Billionstel gleich, sodass die Masse der beiden Teilchen bis auf neun Stellen hinter dem Komma identisch ist. Massenunterschiede der Teilchen dürften demnach nicht für die beobachten Symmetriebrüche in Frage kommen.

          Gleichzeitig läuft am ALICE-Detektor (A Large Ion Collider Experiment) des LHC eine Untersuchung der Massen von Deuterium- und Antideuteriumkernen sowie von Helium3- und Anti-Helium3-Kernen. Die bei der Kollision von Bleikernen entstehenden Teilchen werden durch das Magnetfeld des Detektors abgelenkt und ihre Spuren vermessen. Aus der Flugbahn und der Flugzeit können die Forscher wieder das Masse-Ladungsverhältnis von Teilchen und Antiteilchen bestimmen. Auch bei diesem Experiment haben sich im Rahmen der Messunsicherheit keine Massenunterschiede erkennen lassen.

 

Teilchenspuren einer Bleikern Kollision am Detektor ALICE am LHC CERN   

           Teilchenspuren einer Bleikern-Kollision am Detektor ALICE am LHC

                                                   (Credit: CERN)

 

          Fasst man die Ergebnisse aller Untersuchungen zusammen, so bleibt als Fazit: Genaues weiß man nicht. Zwar erhärtet sich der Verdacht, dass eine Verletzung der CP-Symmetrie bei der schwachen Kernkraft für die unterschiedliche Behandlung beim Zerfall von Materie und Antimaterie verantwortlich zeichnet, doch was die Ungleichheit auslöst, ist nach wie vor rätselhaft. Dass zum Energiehaushalt des Universums Materie mit rund 30 Prozent beiträgt, wird von einem ganzen Katalog an gesammelten Daten und umfangreichen Messungen untermauert. Doch die „Wurzeln“ dieses Beitrags reichen zurück auf eine noch immer unerklärliche Asymmetrie in der Frühphase des Kosmos.

 Jörn Müller (16. September 2015)

 

 

15.08.2015
Publiziert in News

Zunächst die Fakten: In einer Publikation vom 24. Juni 2015 berichten Astronomen im Rahmen des „Rocky Planet Search“ Programms am Telescopio Nazionale Galileo in La Palma über die Entdeckung einer nur 21 Lichtjahre entfernten „Supererde“. Der Planet mit dem Namen HD 219134a umkreist zusammen mit drei anderen den gerade noch mit bloßem Auge sichtbaren Stern HD 219134 im Sternbild Cassiopeia (Kreis rechts im Bild). Der Stern gehört zur Spektralklasse K3V und hat mit 4699 Kelvin eine deutlich niedrigere Oberflächentemperatur als unsere 5780 Kelvin heiße Sonne. Mit einem Radius von rund drei Viertel des Sonnenradius beträgt seine Leuchtkraft auch nur rund 25 Prozent der Sonne. Seine habitable Zone liegt circa 0,5 Astronomische Einheiten (AE) vom Stern entfernt.

supererdecass2g

 © NASA/JPL-Caltech/DSS

 

Der als Supererde bezeichnete Planet HD 219134a ist rund 1,6-mal größer und knapp 4,5-mal massereicher als die Erde. Seine Dichte von circa 6 Gramm pro Kubikzentimeter weist ihn eindeutig als Gesteinsplaneten aus. Seinen Stern umläuft HD 219134a auf einer nahezu perfekten Kreisbahn im Abstand von 0,04 AE in nur 3,1 Tagen, wobei er, von der Erde aus gesehen, immer wieder vor seinem Stern vorbeizieht. Leben dürfte es auf HD 219134a wohl nicht geben, da es aufgrund seiner geringen Entfernung vom Stern auf seiner Oberfläche viel zu heiß ist. Das hat die Grafiker der NASA jedoch nicht davon abhalten können, sich umgehend ein fiktives Bild von dem Planeten zu machen.  

                 

supererdecassg

© NASA/JPL-Caltech

 

Worauf beruht nun der Nährwert dieser Entdeckung? Das bloße Auffinden eines weiteren zu den bereits 1900 aufgespürten und bestätigten Planeten kann es ja wohl nicht sein. Denn dass von den geschätzten 40 bis 50 Milliarden Planeten allein in unserer Galaxis hin und wieder ein bislang unbekannter in die Fänge der Planetenforscher gerät, ist nicht sensationell, sondern zu erwarten. Mit den heutigen, technisch ausgefeilten Suchverfahren ist es vermutlich schwieriger, keine Planeten zu entdecken, als immer neue. Was also fasziniert die Forscher an HD 219134a? Nun, es ist seine geringe Entfernung zur Erde. So erklärt Michael Gillon von der Universität Lüttich: "Jetzt haben wir ein lokales Exemplar, das wir genau studieren können. Man kann ihn als eine Art Rosetta-Stein für die Erforschung von Supererden betrachten." Und Michael Werner vom Jet Propulsion Laboratory (JPL) der NASA in Pasadena ergänzt: „Dieser Exoplanet wird in den nächsten Jahrzehnten wahrscheinlich einer der am meisten untersuchten sein.“ Untersuchen wollen die Forscher vor allem, ob der Planet eine Atmosphäre besitzt, und wenn ja, wie sie sich zusammensetzt. Unterstützung bei diesem Vorhaben erhoffen sich die Astronomen vom hochempfindlichen James-Webb-Weltraumteleskop, das voraussichtlich 2018 gestartet wird und das das Hubble-Space-Teleskop ersetzen soll.

Gibt es Leben auf einem Planeten so verrät es sich durch sogenannte Biomarker in der Planetenatmosphäre. Das sind durch biologische Stoffwechselreaktionen erzeugte Atome und Moleküle, vornehmlich Sauerstoff, Ozon und Methan. Da diese Stoffe auch auf abiotischem Wege entstehen können, besteht nur dann eine gewisse Wahrscheinlichkeit, dass sie von belebten Organismen stammen, wenn die drei Molekülarten parallel auftreten. Methan wird in Anwesenheit von Sauerstoff aber relativ schnell zerstört. Wenn es daher in der Planetenatmosphäre nachweisbar ist, muss es stetig „nachgeliefert“ werden. Das ist ein deutlicher Hinweis auf einen biologischen Stoffwechsel. Bei einer Atmosphäre ohne Methan wäre – siehe Bild links – der Planet sehr wahrscheinlich unbelebt.

 

1409 019b 

Bild: NASA

 

Für die Untersuchung der Atmosphären von Exoplaneten bieten sich zwei unterschiedliche Verfahren an. Während das eine auf Planeten beschränkt ist, die von der Erde aus gesehen vor ihrem Stern vorbeiziehen, also auf solche, die einen Planetentransit vollführen, entfällt diese Einschränkung bei der zweiten Methode. Im ersten Fall beobachtet man den Planeten, wenn er vor seinem Stern vorbeiwandert. Da dabei ein Teil des Sternenlichts auf dem Weg zu uns durch die Planetenatmosphäre hindurch muss, kann man mit einem empfindlichen Spektrometer bestimmen, welche Wellenlängen des Sternenlichts von der Atmosphäre absorbiert werden, und daraus die Art der Atmosphärenmoleküle ableiten.

Beim zweiten Verfahren untersucht man das von der Oberfläche des Planeten reflektierte Licht des Muttersterns. Dazu muss der Planet nicht vor seinem Stern stehen, was die Palette der für eine Untersuchung geeigneten Planeten stark erweitert. Da die Intensität des reflektierten Lichts, neben dem grellen Licht des Sterns, jedoch sehr gering ist, benötigt man besonders empfindliche Teleskope und Spektrometer. Auch hier könnte das James-Webb-Weltraumteleskop gute Dienste leisten. Beispielsweise könnte man mit dieser Methode im reflektierten Licht nach Spuren biologischer, photosynthetischer Pigmente suchen. Diese Pigmente sind meist pflanzlicher Natur und absorbieren bzw. reflektieren bestimmte Wellenlängen des Sternenlichts, sodass sie farbig erscheinen. Unsere Wiesen sind so schön grün, weil das Chlorophyll in den Gräsern einen Großteil des blauen und roten Lichts der Sonne absorbiert, wogegen grünes Licht bevorzugt reflektiert wird.

Vor kurzem hat eine Gruppe von Astronomen und Biologen untersucht, welche chemischen Fingerabdrücke unterschiedliche Organismen hinterlassen und wie sich das auf die Farben der Planeten auswirkt. Das Ergebnis ist ein Farbkatalog, verursacht von 137 Mikroorganismen. Acht davon sind in der folgenden Tafel abgebildet, wobei in jedem Bildteil oben ein herkömmliches Foto der Probe zu sehen ist und darunter eine Mikrofotografie mit 400-facher Vergrößerung. So wurde beispielsweise die dritte Probe von links in der ersten Reihe aus dem Harz einer beschädigten Silberpappel gewonnen und die Probe rechts unten aus dem Wasser eines Aquariums.

1503 021b

Bild: Hegde et al. / MPIA

 

Die Astrophysikerin Svetlana Berdyugina vom Physikalischen Institut der Albertina-Ludwigs-Universität in Freiburg will mit dieser Methode den aufgrund seiner geringen Entfernung für eine Untersuchung mit Teleskopen optimal geeigneten Stern Alpha Centauri B ins Visier nehmen. Dass man in der bewohnbaren Zone dieses Sterns bislang noch keinen Planeten entdeckt hat, ficht die Forscherin nicht an. Nach noch unbestätigten Messdaten könnte jedoch ein Gesteinsplanet von etwa 1,1 Erdmassen Alpha Centauri B weit innerhalb dessen habitabler Zone umlaufen. Die Astrophysikerin ist davon überzeugt, dass man auch schon vor der Entdeckung eines Planeten mit einem Teleskop „draufhalten“ kann, um nach Biosignaturen zu suchen. Spötter könnten diese Methode mit einem Fischer vergleichen, der in der Wüste seine Netzte auswirft und, falls sich ein Fisch darin verfängt, erfreut feststellt, dass es in der Nähe Wasser geben muss.

Zurück zur Supererde HD 219134a. Auch wenn sich die Planetenforscher von ihrem Fund entzückt zeigen, muss die Frage erlaubt sein: Hat dieser sicherlich biologisch tote Planet auf der Skala der bedeutenden Entdeckungen wirklich den ihm zugedachten Stellenwert? Oder stand bei der Veröffentlichung der Gedanke im Vordergrund, sich einen Platz in der Liste der Planetenjäger zu sichern, nach dem Motto: erst posaunen und dann hoffen, dass sich der wissenschaftliche Gehalt schon noch zeigen wird? Auch die astronomische Gemeinde ist ja nicht frei von derartigem Verhalten. Beispiele gefällig? Am 30. September 2010 überschlugen sich die Medien mit der Topnachricht: „NASA findet bewohnbaren Planeten“. Der verantwortliche Wissenschaftler verstieg sich sogar zu der Behauptung: "Personally, given the ubiquity and propensity of life to flourish wherever it can, I would say, my own personal feeling is that the chances of life on this planet are 100 percent, I have almost no doubt about it“ – mit anderen Worten: Auf diesem Planeten kann es überall Leben geben. Dumm nur, dass sich wenig später der Planet als Luftnummer entpuppte: Es gibt ihn gar nicht! Oder die Meldung, man habe überlichtschnelle Neutrinos gemessen. Übereifrige wollten darauf sogleich die gesamte Physik in den Eimer treten. Und was blieb davon? Eine schlechte Steckerverbindung! Schließlich noch der „Coup“ mit den durch die inflationäre Expansion des Universums ausgelösten Gravitationswellen. Eine Gruppe am Südpol wollte deren Fingerabdruck in Form eines speziellen Polarisationsmusters in der Hintergrundstrahlung gefunden haben. So mancher Kosmologe war hoch erfreut ob dieser Nachricht, schien sie doch die Theorie einer inflationären Expansion des Kosmos zu bestätigen. Doch kurz darauf ließen mit dem Planck-Satelliten gewonnene Daten die Hoffnung im wahrsten Sinne des Wortes zu Staub zerfallen.

Vermutlich wird man irgendwann einen Planeten finden, der alle Voraussetzungen für ein Leben wie auf der Erde erfüllt. Eine zweite Erde, auf die man umziehen kann, falls die alte zugrundegerichtet ist. Auch wenn das eine verlockende Perspektive sein sollte, so weiß doch jeder, der nur ein Minimum an astronomischem Wissen besitzt, dass das nicht durchführbar ist, zumindest nicht – und da lehne ich mich leichtsinnig weit aus dem Fenster – in den nächsten 1000 Jahren. Selbst wenn sich die „planetare Verheißung“ bei unserem nächstgelegenen Sternsystem Alpha-Centauri finden sollte, und man die Technik beherrscht, Raumschiffe auf sehr optimistische zehn Prozent der Lichtgeschwindigkeit zu beschleunigen, wäre man noch immer knapp 50 Jahre bis zum Ziel unterwegs. Allein um die für die Beschleunigung eines 1000 Tonnen schweren Raumschiffes auf ein Zehntel der Lichtgeschwindigkeit nötige Energie bereitzustellen, müssten 100 Kernkraftwerke mit einer Gesamtleistung von 150 Gigawatt rund 200 Jahre laufen.

Und wer fliegt mit? Sicher nicht alle Menschen, denn bereits heute gibt es 7,3 Milliarden Bewohner auf der Erde, und schon bis Mitte des Jahrhunderts werden es fast 10 Milliarden sein. Die überwiegende Mehrheit der Erdenbürger wird man wohl ihrem Schicksal auf dem zerrütteten Globus überlassen müssen. Ein unguter Gedanke! Ich behaupte, es wäre vernünftiger, sich weniger auf die Suche nach belebten Planeten zu konzentrieren, dafür mehr auf die Erhaltung lebenswerter Bedingungen auf der Erde. Vielleicht ist es dazu bald zu spät. Dann könnte der Dialog zwischen zwei Planeten wie folgt lauten: Sagt der eine: „Meine Güte, du siehst aber schlecht aus“. Darauf der andere: „Ja, ich habe die Menschheit“. „Ach“, sagt der erste, „mach dir keine Sorgen, das geht vorüber“.

Jörn Müller (15. August 2015)

30.07.2015
Publiziert in News

Zunächst: Mit Planeten haben Planetarische Nebel nichts zu tun. Als die Teleskope noch nicht so scharfsichtig waren, glaubte man, dass diese kugelförmig erscheinenden Objekte ferne Planeten sind. Heute weiß man, dass es sich dabei um die abgeworfenen Gas- und Staubhüllen ausgebrannter Sterne mit einer Anfangsmasse von 0,8 bis etwa acht Sonnenmassen handelt. Im Hertzsprung- Russell-Diagramm, einem der wichtigsten Diagramme der Astronomie, lässt sich – hier am Beispiel eines Sterns von einer Sonnenmasse – der Weg dieser Sterne von der Hauptreihe bis zu ihrem Ende als Weißer Zwerg und Planetarischer Nebel verfolgen.

Abb.60 klein

Nachdem der Stern seinen Wasserstoffvorrat im Zentrum mit der Fusion zu Helium aufgebraucht hat (1), verlässt er die Hauptreihe und bläht sich zu einem Roten Riesen auf. Am Ende dieses Stadiums (3) setzt das Heliumbrennen ein, wobei der Stern deutlich schrumpft. Geht schließlich auch das Helium zur Neige, so wächst der Stern erneut zu einem noch größeren Roten Riesen heran (4) bis (5). Gegen Ende dieser Entwicklung (5) erschüttern dann eine Reihe thermischer Pulse den Stern, und er beginnt, seine Hülle abzuwerfen (5) bis (6). Übrig bleibt ein etwa erdgroßer, aus Kohlenstoff und Sauerstoff bestehender sogenannter Weißer Zwerg, umgeben von einer hell leuchtenden Gaswolke, dem Planetarischen Nebel. Im Laufe von Millionen bis Milliarden Jahren löst sich dann der Planetarische Nebel auf und der Weiße Zwerg kühlt zu einem nicht mehr beobachtbaren Schwarzen Zwerg aus (6) bis (8). Damit ist der einst stolze Stern Vergangenheit. – So weit so gut.
Hin und wieder geschieht jedoch Seltsames. Bei dem Planetarischen Nebel Abell 78 hat man im Innenbereich der bereits abgeworfenen Hülle um den zentralen Stern eine zweite, mit großer Geschwindigkeit nach außen rasende, nebelartige Gashülle entdeckt. Wo das Gas auf die „alte“ Hülle trifft, heizt es sich auf und emittiert extrem weiche Röntgenstrahlung (blau gefärbter Bereich um den zentralen Stern). Auch der etwa 12.000 bis 15.000 Kelvin heiße Zentralstern gibt Röntgenstrahlung ab. Es scheint also, als hätte sich der Planetarische Nebel erneuert und in einer Art Wiedergeburt verjüngt.

 

 Born again planetary nebula

Copyright: ESA/XMM-Newton/J.A. Toalá et al. 2015
Planetarer Nebel Abell 78

 

Wie ist das zu erklären? Die Astronomen gehen von folgendem Szenario aus: Nachdem der Stern bereits seine Hüllen abgeworfen hat und schon auf dem Weg zu einem Weißen Zwerg ist, explodiert in einem letzten thermischen Puls eine Helium führende Gasschicht um den Stern. Aufgrund dessen mutiert der Stern für kurze Zeit wieder zu einem Roten Riesen und kehrt an die Spitze des asymptotischen Riesenastes (Punkt 5 im Diagramm) zurück. Das dabei abgestoßene Gas bildet den neuen Planetarischen Nebel im Zentrum des ersten. Es wird also nicht der alte Planetarische Nebel neu geboren, sondern der bereits dem Untergang geweihte Stern findet kurzfristig noch einmal zu alter Größe und Helligkeit zurück.

 

born again stars

Credit: Roen Kelly
Linke Bildhälfte: Die abgeworfene Hülle des Roten Riesen erzeugt den ersten Planetarischen Nebel.
Rechte Bildhälfte: Mit der Wiedergeburt des Roten Riesen wiederholt sich der Vorgang und ein zweiter Planetarischer Nebel entsteht im ersten.

 

Soweit scheint alles stimmig zu sein. Was die Astronomen jedoch stört, ist die chemische Komposition der inneren Gaswolke: Sie passt nicht ganz zu dem Prozess, der zu dem inneren Nebel führt. Möglicherweise war nicht ein verspäteter thermischer Puls der Auslöser des Geschehens, sondern ein naher Begleitstern, von dessen Hülle Gas auf den Weißen Zwerg überströmen konnte. Einen Beweis für diese Theorie hat man jedoch bislang nicht gefunden.

Jörn Müller (30. Juli 2015)