Bild: Silver Blue | Flickr | CC BY-SA 2.0
Als Albert Einstein im Alter von 26 Jahren seine erste Relativitätstheorie präsentierte, sollte das die Physik für immer verändern. 111 Jahre später stellen zwei Forscher diesen Grundpfeiler der modernen Physik jedoch durch ihre neuesten Forschungsergebnisse in Frage.
Videos by VICE
Sowohl in der Speziellen als auch in der Allgemeinen Relativitätstheorie beschäftigte sich Einstein mit dem Verhältnis von Raum und Zeit und stellte zwei grundsätzliche Annahmen auf: Erstens ist die Lichtgeschwindigkeit im Vakuum immer konstant und zweitens gelten physikalische Gesetze für alle Beobachter, die sich mit konstanter Geschwindigkeit bewegen gleich.
Über hundert Jahre lang hielten diese Annahmen allen experimentellen Überprüfungen stand und diente als Grundlage zahlreicher Theorien und Thesen, die die verschiedensten physikalischen Prozesse erklären konnten—nicht zuletzt die größte aller Fragen nach der Entstehung unseres Universums. Doch in den späten 1990ern stellte eine Gruppe von Forschern um João Magueijo eine der grundlegenden Theorien in Frage, auf denen Einsteins Spezielle Relativitätstheorie aufbaut: Sie stellten die These auf, dass die Lichtgeschwindigkeit keineswegs konstant sei, sondern im frühen Universum höher gewesen sei, als sie es heute ist.
Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter
Diese Theorie der Variablen Lichtgeschwindigkeit wurde schon damals sehr kontrovers diskutiert—und das wird sie auch heute noch. Doch laut eines neuen Papers, das Ende November in der Fachzeitschrift Physical Review D veröffentlicht wurde, könnte die umstrittene Theorie schon in naher Zukunft in Experimenten auf die Probe gestellt werden.
Sollte es tatsächlich gelingen, die Theorie durch Versuche zu bestätigen, hätte das weitreichende Auswirkungen: Denn es würde bedeuten, dass die Naturgesetze nicht immer so waren, wie wir sie heute wahrnehmen—und somit müsste vor allem Einsteins Gravitationstheorie dringend überarbeitet werden.
„Die gesamte Physik baut auf der Annahme auf, dass die Lichtgeschwindigkeit konstant ist”, erklärt der Kosmologe João Magueijo gegenüber Motherboard. „Daher mussten wir Wege finden, die Lichtgeschwindigkeit zu verändern, ohne das gesamte System zu sehr über den Haufen zu werfen”, sagt der Forscher vom Imperial College London, der als Pionier der Theorie der variablen Lichtgeschwindigkeit gilt.
Der Widerspruch in der Kosmologie: Das Horizontproblem
Die Theorie der variablen Lichtgeschwindigkeit wurde laut Magueijo mit einem klaren Ziel entwickelt: Sie soll einen Lösungsansatz zu einem altbekannten Widerspruch in der Kosmologie liefern, nämlich für das sogenannte „Horizontproblem“, dass durch die Annahme entsteht, dass die Lichtgeschwindigkeit immer konstant ist.
Wenn die Lichtgeschwindigkeit tatsächlich unveränderlich ist, kann das Licht sich seit dem Urknall höchstens 13,7 Milliarden Lichtjahre fortbewegt haben, da in etwa so viel Zeit seit dem Urknall vergangen ist. Anhand jener „Reisezeit” des Lichts lässt sich gleichzeitig auch eine Art „Horizont” des beobachtbaren Universums ableiten.
Um diese abstrakte Zahlen etwas besser zu verstehen, stellen wir uns vor, dass das Universum eine gigantischen Kugel ist, in deren Mitte wir sitzen. Der äußerste Punkt des Universums, den wir in jede beliebige Richtung sehen können, ist also 13,7 Milliarden Lichtjahre von uns entfernt. Somit könnte man annehmen, dass der Durchmesser des beobachtbaren Universums 27,4 Milliarden Lichtjahre beträgt. Im Rahmen des Urknall-Standardmodells geht man sogar davon aus, dass das beobachtbare Universum 47 Milliarden Lichtjahre in jede Richtung beträgt—dabei wird die Ausdehnung des Universums berücksichtigt, die seit dem Urknall stattgefunden hat.
Das stellt die Wissenschaft jedoch vor ein Problem: Das Universum ist so groß, dass in verschiedenen Regionen eigentlich unterschiedliche physikalische Bedingungen, beispielsweise unterschiedliche Temperaturen, herrschen müssten. Der Theorie zufolge kann der Austausch von Eigenschaften nämlich höchstens mit der Geschwindigkeit des Lichts erfolgen und dafür sind die einzelnen Regionen schlichtweg zu weit voneinander entfernt. Doch wie lassen sich dann die einheitlichen Bedingungen erklären, die Kosmologen im gesamten beobachtbaren Universum gemessen haben?
Der Horizont des beobachtbaren Universums wird durch die kosmische Hintergrundstrahlung (CMB) gebildet—eine Strahlung, die etwa 380.000 Jahre nach dem Urknall entstand und unsere früheste Momentaufnahme des Universums darstellt. Bei der Beobachtung der Strahlung haben Kosmologen eine erstaunliche Einheitlichkeit festgestellt: So liegt beispielsweise die gemessene Temperatur überall mit minimalen Abweichungen im Tausendstelbereich bei etwa -270 Grad Celsius. Wenn jedoch nicht mal Licht, das schnellste „Ding” im Universum, in der Lage ist, das Universum seit seiner Entstehung vollständig zu durchqueren, wären diese einheitlichen Bedingungen eigentlich unmöglich.
Versetzen wir uns für einen Moment in eine Alltagssituation, um den Widerspruch besser zu verstehen: Stellt wir uns eine Badewanne vor, die an beiden Enden einen Wasserhahn hat—aus einem der Hähne fließt warmes, aus dem anderen kaltes Wasser. Dreht man beide Hähne zu, wird das Wasser in der Wanne irgendwann eine einheitliche Temperatur erreichen, weil das heiße und kalte Wasser sich vermischen. Stellen wir uns nun vor, dass wir die Badewanne, während das Wasser noch fließt, so schnell in alle Richtungen ausdehnen könnten, dass das heiße und kalte Wasser niemals aufeinander treffen können—in diesem Fall würde eine Seite der Wanne stets heißer als die andere bleiben, statt eine einheitliche Temperatur zu bilden.
Genau das ist eigentlich während des Urknalls passiert. Aber anstatt unterschiedliche Temperaturen in der kosmischen Hintergrundstrahlung zu messen, ist die Temperatur überall homogen. Wie ist das möglich?
Ein Problem, zwei konkurrierende Lösungsansätze
Die am weitesten akzeptierte Lösung für das Horizontproblem bietet die Inflationstheorie. Diese besagt, dass jene Gleichmäßigkeit, die wir heute bei Analysen der kosmischen Hintergrundstrahlung beobachten, zu einem sehr frühen Zeitpunkt entstand, nämlich als das Universum noch sehr klein und dicht war. In einem sehr kleinen Zeitfenster nach dem Urknall fand demnach eine Inflationsphase statt: Das Universum dehnte sich rasend schnell um ein Vielfaches aus und riss das Licht dabei quasi mit—und die zuvor erreichte Homogenität blieb erhalten. In unserem Beispiel hat das Badewasser also bereits eine einheitliche Temperatur erreicht, bevor die Badewanne sich rasant in alle Richtungen ausdehnt.
Die Verfechter der variablen Lichtgeschwindigkeit halten die Existenz einer extremen Inflationsphase jedoch für unwahrscheinlich und bieten einen alternativen Erklärungsansatz für das Horizontproblem. Sie gehen davon aus, dass die Lichtgeschwindigkeit im frühen Universum sehr viel höher als heute war. Auch durch diesen Ansatz ließe sich erklären, warum weit entfernte Ecken des Universums während der Ausdehnung miteinander „verbunden” blieben und warum wir bei der Untersuchung der kosmischen Hintergrundstrahlung eine Homogenität beobachten.
Die meisten theoretische Physiker sehen diesen alternativen Ansatz allerdings sehr kritisch. Sie sind der Meinung, dass man nicht einfach eine grundlegende Variable der Speziellen Relativitätstheorie umbewerten kann—also die konstante Lichtgeschwindigkeit durch eine variable Geschwindigkeit austauschen kann—um das Horizontproblem zu lösen.
„In den meisten Fällen hat es katastrophale Folgen, wenn man einfach eine grundlegende Variable ändert, da die daraus hervorgehende Theorie physikalisch und in sich selbst nicht mehr schlüssig ist”, erklärt der Physiker David Marsh Motherboard. Marsh ist selbst renommierter Kosmologe, war jedoch nicht selbst an dem Paper beteiligt. „Afshordi und Magueijo haben bereits einige der durch diese Umbewertung entstehenden Herausforderungen angesprochen. Meiner Meinung nach liegt aber noch viel Arbeit vor ihnen, um das Modell als theoretisch tragfähig zu etablieren. Sollte es ihnen gelingen, könnte das Modell weitreichende Konsequenzen in der Physik haben, die über die Kosmologie hinausreichen.”
Welche Lichtgeschwindigkeit berechnet das neue Paper?
Doch wie viel höher soll die Lichtgeschwindigkeit kurz nach dem Urknall denn gewesen sein? Laut den Ergebnissen von Magueijo und seinem Kollegen Niayesh Afshordi, Professor für Physik und Astronomie an der University of Waterloo, lautet die Antwort: deutlich rasanter, als wir uns bisher vorstellen konnten.
Die beiden Wissenschaftler gehen davon aus, dass die Lichtgeschwindigkeit um 32 Größenordnungen höher war, als der Wert, der heute gemeinhin als Lichtgeschwindigkeit gilt, also 300.000 Kilometer pro Sekunde—und das ist nur die Untergrenze der von ihnen errechneten Geschwindigkeit. Je mehr wir uns dem Urknall nähern, desto mehr soll sich laut ihrer These die Lichtgeschwindigkeit dem Unendlichen annähern.
Ihrer Theorie nach war die Lichtgeschwindigkeit kurz nach dem Urknall deutlich höher als heute, weil das Universum bei seiner Entstehung extrem heiß war. Laut Afshordi, müsste das frühe Universum mindestens 10^28 Grad Celsius heiß gewesen sein. Zum Vergleich: Die höchste Temperatur, die wir auf der Erde erreichen können, beträgt 10^16 Grad Celsius.
Während das Universum sich also ausdehnte und abkühlte, erfuhr das Licht eine Art Phasenübergang—so wie flüssiges Wasser zu Eis wird, wenn seine Temperaturen einen bestimmten Punkt unterschreitet—und kam somit bei der Geschwindigkeit an, die uns heute bekannt ist. Und genauso wie Eis auch bei weiter fallenden Temperatur nicht noch „eisiger” werden kann, hat sich das Licht nicht weiter verlangsamt, seit es eine Geschwindigkeit von 300.000 Kilometer pro Sekunde erreicht hat.
Wenn die Theorie von Magueijo und Afshordi über die variable Lichtgeschwindigkeit korrekt ist, hat sich die Lichtgeschwindigkeit auf kalkulierbare Art und Weise verringert. Das heißt, dass man diese Geschwindigkeitsabnahme auch messen können muss, wenn man Geräte hat, die empfindlich genug sind. Es sind genau diese Berechnungen, die sie in ihrem letzten Paper auch durchgeführt haben.
Laut Afshordie konnten Galaxien und andere Strukturen nur durch Schwankungen in der Dichte des frühen Universums entstehen. Diese Dichteschwankungen sind in der kosmischen Hintergrundstrahlung als „spektraler Index” dokumentiert—sozusagen die Farbgebung des frühen Universums. Der neutrale Ausgangswert für dieses Spektrum ist der Wert Eins. Würde dieser Wert im Universum gelten, wäre die Gravitation in allen Bereichen gleich verteilt. Ist der Wert größer als Eins, ist das Universum als „blau” dargestellt (repräsentativ für kürzere Wellenlängen-Fluktuationen), ist der Wert kleiner als Eins, ist das Universum „rot” (repräsentativ für längere Wellenlängen).
Obwohl die Inflationstheorie von einem „roten” Spektral-Index ausgeht, ist sie nicht in der Lage, einen exakten Wert für das Spektrum und somit auch nicht die präzisen Gravitationsfluktuationen im frühen Universum zu errechnen. In ihrem neuen Paper gelang es Magueijo und Afshordi, den Spektralindex mit einem Wert von 0,96478 berechnen. Diese Berechnung ist um zwei Größenordnungen genauer, als die bislang präziseste Messung mit einem Wert von 0,968 durch das Planck-Weltraumteleskop.
Was diese Berechnungen für die Wissenschaft bedeuten
Den beiden Forschern ist es somit gelungen, eine tatsächlich Zahl für den Spektralindex zu errechnen. Nun muss sich zeigen, ob sich diese Berechnungen durch hochsensitive Untersuchungen des CMB und der Verteilung von Galaxien, bestätigen oder widerlegen lassen. Magueijo und Afshordi gehen davon aus, dass diese Ergebnisse irgendwann in den nächsten Jahren zur Verfügung stehen werden.
Doch Marsh und andere Physiker sind sich da nicht so sicher: „Verglichen mit der Inflationstheorie ist das Modell von Afshordi und Magueijo zu diesem Zeitpunkt noch sehr kompliziert und schwer verständlich”, meint Marsh. „Allerdings muss man auch bedenken, dass wir uns bereits seit 35 Jahren mit der Inflationstheorie beschäftigen und es trotzdem immer noch wichtige offene Fragen in diesem Modell gibt. Es ist durchaus möglich, dass die theoretische Grundlage des neuen Modells mit der Zeit und nach weiteren Forschungen wesentlich besser nachvollziehbarer und seine Vorhersagen eleganter wirken werden.”
Falls sich die Theorie des neuen Papers als korrekt herausstellt, würde es einen der Grundpfeiler von Einsteins Spezieller Relativitätstheorie auf den Kopf stellen und Physiker zwingen, die Beschaffenheit der Gravitation zu überdenken. Laut Afshordi wird in der Wissenschaft schon länger vermutet, dass Einsteins Gravitationstheorie eines Tages von einer präzisieren Quantentheorie der Gravitation abgelöst werden könnte. Und in der Tat gibt es momentan bereits verschiedene konkurrierende Theorien zur Quantengravitation. Sollte sich die Theorie der variablen Lichtgeschwindigkeit aus dem Paper bewahrheiten, würde das die Auswahl der plausiblen Quantengravitations-Ansätze signifikant einschränken.
„Wenn man die Quantengravitation wirklich zur Diskussion freigeben will, sind wir ohne die Inflationstheorie besser dran”, sagt Magueijo. „Die Inflationstheorie lässt die physikalischen Grundsätze völlig unberührt und beschränkt alle physischen Vorgänge im Universum somit auf die Relativitätstheorie. Die variable Lichtgeschwindigkeit macht jedoch auch vor den Grundlagen der Physik nicht halt und zeigt, dass es vielleicht auch noch etwas außerhalb der Relativitätstheorie gibt. Das ist somit der beste Ausgangspunkt, um den Weg für neue Ideen und Ansätze freizumachen.”