Believe the Hype! Für eine unverhohlene Wissenschafts-Eventkultur

Fast jeder, der dieser Tage die Wissenschaftsnachrichten verfolgt, wird mitbekommen haben, dass am morgigen amerikanischen Unabhängigkeitstag (seit 2012 auch der Higgs-Tag!) die Sonde Juno den Jupiter erreicht. Wochen vorher schon begann auf diversen Podcasts und Blogs die Vorfreude auf diese nächste Heldentat der Raumfahrt.

Auch wenn sie noch von einem vergleichsweise kleinen Personenkreis verfolgt werden, werden wissenschaftliche Ereignisse zunehmend zu gesellschaftlichen „Events“, die gemeinsam erwartet, erlebt und gefeiert werden. Das geschieht in viel kleinerem Rahmen als bei einem Fußballturnier, aber nicht zuletzt dank der sozialen Medien schon wesentlich intensiver als vor 10 Jahren. Gerade wenn es um die inspirierenden Themen geht – die Eroberung des Weltalls, die Anfänge des Universums und darum, was die Welt im Innersten zusammenhält – fühlt man sich inzwischen zumindest ein kleines bisschen wie beim Fußballschauen, nur dass eben nicht gemeinsam mitgefiebert wird, ob der Elfmeter verwandelt wird, sondern dabei, ob die Sonde den fernen Kometen trifft oder die neueste SpaceX-Rakete die Landeplattform. Autokorsos bleiben noch aus, aber das kann ja noch werden.

voiture_cern
(Quelle: CERN)

Erklimmt das LHC-Signal für das Higgs-Boson die 5 Standardabweichungen, haben „wir“ Gravitationswellen gesehen? Wie andere Events werfen diese Dinge inzwischen ihre Schatten voraus. Im Fall der Gravitationswellen bei LIGO verbreiteten Physiker wie z.B. Lawrence Krauss schon Monate vor der offiziellen Pressekonferenz relativ konkrete Gerüchte, die dann in den sozialen Medien und Wissenschaftsblogs ihre Runden drehten, bis sie von der konventionellen Presse aufgegriffen wurden.

Dass das für die Experimentatoren der LIGO-Kollaboration mitunter auch frustrierend war, ist durchaus nachvollziehbar, und es hagelte teils bittere Kritik an den Gerüchteköchen – lenken sie nicht die wertvolle gesellschaftliche Aufmerksamkeit auf sich, die eigentlich den Wissenschaftlern der Experimente zusteht, und stehlen damit deren Moment des Triumphs? Der Konsens unter Wissenschaftlern scheint zu sein, dass abgewartet werden muss, bis alles offiziell fertig und abgesegnet ist, von der entsprechenden Stelle verkündet und dann von der Öffentlichkeit wohlwollend zur Kenntnis genommen werden kann – nur dann ist der Vorgang der hehren Wissenschaft angemessen. Das sehe ich anders.
Weiterlesen „Believe the Hype! Für eine unverhohlene Wissenschafts-Eventkultur“

Die Quantenwelt mit ihren eigenen Waffen erobern: Die erste Teilchen-Simulation auf einem Quantencomputer?

tl;dr Forscher aus Innsbruck haben ein kleines Quantensystem aus vier Kalziumionen verwendet, um in einer extrem vereinfachten Version der Quantenelektrodynamik die spontane Erzeugung von Teilchen und Antiteilchen zu simulieren.

Während alle geduldig darauf warten, auf der ICHEP-Konferenz im August davon enttäuscht zu werden, dass es doch kein neues Teilchen der Masse 750 GeV gibt welches die Physik revolutioniert hätte, und während der LHC weiter mit Rekordgeschwindigkeit neue Daten sammelt, passieren noch andere spannende Dinge im Dunstkreis der Teilchen- und Hochenergiephysik.

Seit ein paar Tagen macht beispielsweise diese Veröffentlichung in Nature die Runde, in der von der ersten Simulation von Elementarteilchen-Prozessen auf einem Quantencomputer berichtet wird (hier ein frei verfügbarer Preprint, hier die Pressemeldung des Instituts für Quantenoptik).

Weiterlesen „Die Quantenwelt mit ihren eigenen Waffen erobern: Die erste Teilchen-Simulation auf einem Quantencomputer?“

Das schwerste Teilchen, das Higgs, und der Weltuntergang

oder: was hat das Universum mit einem Dampfkessel gemeinsam?

tl;dr Könnte das schwerste bisher bekannte Teilchen den Weltuntergang auslösen? Jein, aber es besteht kein unmittelbarer Grund zur Beunruhigung, und die theoretische Begründung ist ziemlich gewagt.

Auch wenn man sich vom Large Hadron Collider vor allem Entdeckungen neuer Teilchen und Kräfte erhofft, ist das doch nur die Kür neben einem ebenso wichtigen Pflichtprogramm – der genaueren Vermessung der schon bekannten Teilchen und Wechselwirkungen. Dabei kann auch bei dieser vermeintlichen Routinearbeit eine sensationelle Entdeckung gemacht werden – Wenn beispielsweise herauskäme, dass das 2012 entdeckte Higgs-Teilchen wesentlich häufiger oder seltener in bestimmte andere Teilchen zerfällt als erwartet, wäre das ähnlich revolutionär, als wenn man gleich ein neues Teilchen entdecken würde – beides würde das seit Jahrzehnten als Königin der Quantentheorien regierende Standardmodell der Teilchenphysik vom Thron stoßen.

Die Eigenschaften des schwersten bisher bekannten Elementarteilchens – des Top-Quarks – genauer zu kennen, ist besonders wichtig für unser Verständnis der fundamentalen Wechselwirkungen: Durch seine Masse ist es dasjenige der bekannten Teilchen, das am stärksten mit dem massenspendenden Higgsfeld wechselwirkt, und damit wohl auch am stärksten mit seiner Teilchenanregung, dem Higgs-Boson. Damit stellt es ein wichtiges Fenster zum besseren Verständnis dieses für die Forschung noch so jungen Teilchens dar. Um die Eigenschaften des Higgs-Teilchens richtig interpretieren zu können, ist es also wichtig, die Masse des Top-Quarks möglichst genau zu kennen – eine alles andere als triviale Aufgabe! Auf der gerade zuende gehenden LHCP-Konferenz in Lund wurde eine neue kombinierte Analyse von Messungen dieser wichtigen Größe gezeigt, und das ist das Ergebnis:

 

Der tiefste Punkt der Parabel rechts ist der „beste Fit“ der Masse, also der Wert, bei dem das Theoriemodell am besten zu den Messdaten passt. Er liegt für die neue Kombination bei etwa 172.9 GeV. Zum Vergleich, ein einzelnes Goldatom wiegt etwa 183 GeV, ein Wasserstoffatom wiegt etwa 1 GeV, das Higgs-Teilchen etwa 125 GeV, und ein Elektron 0.000511 GeV. Dass das Top so schwer ist, wissen wir schon seit seiner Entdeckung im Jahr 1995.

Die genaue Masse des Tops zu kennen, ist aber noch aus einem anderen, kosmisch überraschend bedeutsamen Grund wichtig: Die Stabilität des Universums an sich könnte davon abhängen! Wie kann das sein? Nun, das Higgs-Feld hat zur Zeit überall im sichtbaren Universum einen bestimmten Wert, den man durch Messungen schon lange zu etwa 175 GeV bestimmen konnte – diese Zahl gibt gewissermaßen die grobe Massenskala vor, an der sich alles abspielt, was mit der elektro-schwachen Wechselwirkung zu tun hat. So liegen die Massen der W-, Z-, und Higgs-Bosonen, also der wichtigsten Akteure der schwachen Wechselwirkung, mit 80, 91 und 125 GeV gerade bei dieser Größenordnung. Weshalb viele der anderen Teilchen so viel leichter sind – das ist eine Geschichte für sich, und auch noch nicht wirklich verstanden, sofern es da etwas zu verstehen gibt. Das Higgs-Feld hat also diesen Wert, und der bleibt nicht nur dieser Tage schön konstant, sondern kann sich auch in den letzten 14 Milliarden Jahren nicht wesentlich verändert haben, denn wenn er sich ändern würde, hätte das solch einen schwerwiegenden Einfluss auf die Eigenschaften der übrigen Teilchen, dass die Materie, wie wir sie kennen, nicht existieren könnte.

Was stellt aber sicher, dass der Wert des Higgs-Feldes immer so schön gleich bleibt? Die Tatsache, dass es Energie kosten würde, wenn das Higgs-Feld einen anderen Wert annimmt! Aus dem gleichen Grund tauchen nicht plötzlich aus dem Nichts starke magnetische oder elektrische Felder auf – der Zustand ohne Feld hat eine niedrigere Energie, und will man dauerhaft eines haben, muss man welche reinstecken. Solange jeder andere Wert des Higgs-Felds also einer höheren Energie entspricht, wird sich das Feld abgesehen von kurzfristigen Quantenfluktuationen nie dauerhaft vom Status Quo wegbewegen. Von der so gewonnenen Stabilität hängt unsere Existenz ab.

Schaut man sich die Wechselwirkungen zwischen dem Higgs-Feld und dem Top-Quark aber genauer an, stellt man fest, dass sie das Higgs-Feld destabilisieren können! Wäre das wirklich so, könnte das Higgs-Feld spontan anfangen, in sich mit Lichtgeschwindigkeit ausdehnenden Blasen zu einem riesigen Wert zu springen, an dem es aber eine niedrigere Energie hätte als jetzt. Das Prinzip ist ähnlich wie bei einem Dampfkessel beim Siedeverzug, in dem das überhitzte Wasser schlagartig zu sieden beginnt und den Kessel zerreißt. Die Welt, wir wir sie kennen, würde dieses Spektakel nicht überleben. Ob wir uns laut Theorie in diesem Bereich der Instabilität befinden, wird in dieser Grafik gezeigt:

metastable
(Quelle: Jose Espinosa, http://arxiv.org/abs/arXiv:1512.01222, und Referenzen)

Hier sind drei Regionen eingezeichnet: Stabilität, Meta-Stabilität und Instabilität. Im grünen Bereich ist… alles im grünen Bereich. Ist das Top-Quark leicht genug und/oder das Higgs-Teilchen schwer genug, bleibt die Energie groß genug und der aktuelle Wert des Higgs-Felds ist gesichert. Ist das Top-Quark etwas schwerer und/oder das Higgs-Teilchen etwas leichter, befinden wir uns im roten Bereich: Hier könnte das Higgs-Feld spontan einen neuen Wert annehmen und zum Weltuntergang führen. Im gelben Bereich könnte das Universum zwar im Prinzip die Krätsche machen, der Energiegewinn wäre dabei aber klein genug, dass das selbst auf kosmischen Zeitskalen extrem unwahrscheinlich ist.

Diese Grafiken haben sich in den vergangenen Jahren nicht stark verändert, und bemerkenswerterweise lagen die gemessenen Werte schon seit geraumer Zeit genau an der Grenze zwischen theoretischer Stabilität und Instabilität! Ob das etwas zu bedeuten hat, und was, das weiß niemand sicher, aber es ist zumindest eine bemerkenswerte Tatsache. Die neuen Messungen der Masse des Top-Quarks liegen mit 172.9 GeV innerhalb dieser älteren Schranken, zementieren aber noch einmal die Tatsache, dass wir uns abseits des grünen Bereichs in der – prinzipiell – instabilen Region befinden, in der das Universum – im Prinzip – durch eine Art kosmischen Schluckauf vernichtet werden könnte. Wir lägen aber in einem Bereich, in dem dieses Unglück so extrem unwahrscheinlich ist, dass es auch in einem Vielfachen des Alters des Universums nicht eintreten wird.

All das ist aber mit einer großen Prise Salz zu nehmen: Die Herleitung der Instabilität des Higgs-Feldes ist die Vorhersage einer Theorie – des Standardmodells der Teilchenphysik –  und um sie zu machen, muss man davon ausgehen, dass diese Theorie über viele Größenordnungen der Energie unverändert ihre Gültigkeit behält. Findet man morgen neue Teilchen am Large Hadron Collider, würde das dieses Bild potentiell komplett über den Haufen werfen. Wir wissen noch nicht, wie die Neutrinos ihre Masse bekommen, und wir wissen nicht, aus was die Dunkle Materie besteht – all diese offenen Fragen legen nahe, dass das Bild, wie es von den Stabilitätsgrafiken oben gezeichnet wird, nur ein vorläufiges ist. Ob das Higgs-Feld wirklich stabil oder instabil ist, werden wir möglicherweise nie wirklich herausfinden können. Dass wir aber zumindest laut der aktuellen Theorie scheinbar an der Klippe, am Rand der Katastrophe leben, lädt dennoch zum Grübeln ein – was will uns die Natur damit wohl sagen…

 

Die Stunde der Wahrheit naht – gibt es ein 750 GeV – Boson?

Der Large Hadron Collider führte im letzten Jahr erstmals mit einer Rekordenergie von 13 TeV Messungen durch – die Menge der Daten blieb allerdings aufgrund verschiedener technischer Probleme hinter den Erwartungen zurück. Dieses Jahr scheint es viel besser zu laufen, denn trotz des Zwischenfalls mit Marder steigt die gesammelte Datenmenge schnell an und wird voraussichtlich bald die Messungen des gesamten letzten Jahres überholen, die in beiden Experimenten etwa 4 inverse Femtobarns Umfang hatten (zur Erklärung der Bedeutung von Barns und Femtobarns siehe hier).

So ist der aktuelle Stand bei CMS, dem einen der beiden großen Experimente:

int_lumi_per_day_cumulative_pp_2016onlinelumi
Quelle

(Merke: 3000 inverse Picobarns = 3 inverse Femtobarns – das mit den Pico und Femto ist umgedreht, da man den Kehrwert betrachtet)

Das hier ist der Plot des ATLAS-Experiments aus den alten Daten, der zusammen mit Ergebnissen von CMS seit letzten Winter wegen des kleinen Bumps bei 750 GeV Masse für Aufregung sorgt:

1115

Wie man ablesen kann, wurden damals nur 3.2 inverse Femtobarns an Daten verwendet, eine Menge, die demnächst von den Experimenten erneut erreicht wird! Natürlich wird die Folgeanalyse vermutlich nicht übermorgen einfach so aus dem Experiment purzeln und publiziert werden – die Daten müssen erstmal aufgedeckt werden, die Analyse durchgeführt, und von den Kollaborationen für eine Vorveröffentlichung approved werden. All das dauert eine Weile, wie die Experimentalphysiker besser wissen als ich.

Nun gibt es im Prinzip ungefähr drei Möglichkeiten, was passieren könnte – ein ähnlich großer Überschuss wie der von 2015 könnte in den neuen Daten an gleicher Stelle auftauchen – dann müsste man natürlich noch eine anständige kombinierte Analyse anstrengen, um die wirkliche statistische Signifikanz aller Messungen zu ermitteln, aber psychologisch wäre die Sache klar – fast jeder würde davon ausgehen, dass es dort ein neues Teilchen gibt. Die Aufregung wäre dann groß, man wird davon reden hören, dass in der Physik nichts mehr so ist, wie es war, und verschiedene Leute schauen sich auf TripAdvisor schon mal an, was es in Stockholm sonst noch so zu sehen gibt.

Es könnte sein, dass rein gar nichts signifikantes zu sehen ist – das wäre die Erwartung, wenn der Bump nur ein statistischer Ausreißer war. In dem Fall würden die Sektflaschen wieder in den Keller gestellt, und bis auf wenige Optimisten würden die meisten davon ausgehen, dass es hier nichts mehr zu sehen gibt.

Besonders schmerzhaft wäre es, wenn wir zwischen den beiden Fällen landen  – eine kleine Fluktuation nach oben in der Nähe der 750 GeV, die man plausibel als erneuten Zufallsausreißer abtun könnte, aber auch als Bestätigung, dass da ein neues Teilchen ist, dessen Signal nur durch eine kleine Fluktuation *nach unten* geschwächt wurde. In diesem Fall würde die Diskussion vermutlich genau so weitergehen wie bisher, und noch ein paar dutzend Theoriepapiere geschrieben, die erklären, weshalb die Produktion des 750 GeV-Bosons vom Stand der Planeten abhängt und deshalb 2016 nicht so gut gelingt. Zum Glück würden wir dann aber nicht zu lange auf mehr Daten vom LHC warten, und die Klärung würde sich vermutlich nur um ein paar Monate verschieben.

Bei all dem Gerede über die 750 GeV darf man natürlich nicht vergessen, dass möglicherweise noch ganz andere Dinge in den Daten entdeckt werden könnten. Also – Ohren auf, was in der Gerüchteküche so braut!

Nachtrag zur möglichen Entdeckung eines leichten Bosons in Ungarn

Kürzlich hatte ich über Hinweise aus einem ungarischen Kernphysikexperiment auf ein bisher unbekanntes leichtes Boson geschrieben (siehe auch der Beitrag bei Astrodicticum). Dass solche potentiell bahnbrechenden Entdeckungen immer mit gesunder Skepsis betrachtet und erst mal repliziert werden müssen, ist sowieso klar. Jetzt äußern einige Forscher allerdings Zweifel an der Verlässlichkeit des Experiments, die über diese standard-Skepsis hinausgehen.

Offenbar hat die Arbeitsgruppe in Debrecen, von der das Ergebnis stammt, eine ganze Historie von Behauptungen, neue Bosonen bei verschiedenen Massen entdeckt zu haben – all diese Signale waren mit neuem Equipment oder mehr Messdaten verschwunden oder wurden nicht weiter verfolgt – im oben verlinkten Artikel wird der Verdacht geäußert, dass hier möglicherweise Negativergebnisse ignoriert und Positivergebnisse publiziert wurden, eine Vorgehensweise, die verzerrte, unberechtigt hohe statistische Signifikanzen erzeugt und daher verpönt ist (aus diesem Grund werden bei Experimenten am LHC erst die Analysemethoden festgelegt und dann erst die neuen Daten aufgedeckt).

Immerhin wurde die aktuelle Messung im renommierten Journal PRL veröffentlicht und enthält laut der Aussage der Gutachter keine offensichtlichen Fehler. Es bleibt uns wohl nur übrig – wie auch vorher schon – die Ergebnisse der anderen Experimente abzuwarten.

Der Graph des Monats: Was ist drin im Universum, und was hat der LHC damit zu tun? (Teil 2)

Im ersten Teil hatte ich erzählt, dass verschiedene Beobachtungen stark nahelegen, dass der Inhalt des Universums – was die Energiemenge angeht – etwa zu 70% aus Dunkler Energie und zu etwa 30% aus Materie besteht. Diese 30% Teilen sich in etwa 5% herkömmliche Materie (Atome, Atomkerne+Elektronen) und gut 25% Dunkle Materie auf. Dazu kommen kleinere Mengen Strahlung und der Beitrag der Neutrinos.

planck_cosmic_recipe
Quelle: ESA

Dunkle Energie

Weiterlesen „Der Graph des Monats: Was ist drin im Universum, und was hat der LHC damit zu tun? (Teil 2)“

Leichtes Teilchen, große Sensation – wurde letztes Jahr schon eine „fünfte Grundkraft“ entdeckt?


Update: Inzwischen wurden größere Zweifel an dieser Messung geäußert. Mehr dazu hier.


 

Es müssen nicht immer die ganz großen Kanonen sein  Der Large Hadron Collider (LHC) am CERN dominiert die öffentliche Wahrnehmung der physikalischen Grundlagenforschung – eine knapp 30 Kilometer lange, beeindruckende unterirdische Maschine, die Teilchen mit bisher im Labor unerreichten Energien aufeinander schießt – das macht einfach was her.

ce0085m1
Durch diese hohle Gasse müssen sie kommen, die Protonen – ein kleiner Abschnitt des 27km langen LHC-Beschleunigers (Quelle: CERN)

Weiterlesen „Leichtes Teilchen, große Sensation – wurde letztes Jahr schon eine „fünfte Grundkraft“ entdeckt?“

Der Graph des Monats: Was ist drin im Universum, und was hat der LHC damit zu tun? (Teil 1)

thegraphcount

Dieses Mal haben wir einen Graph ausgewählt, der eigentlich der Kosmologie zuzuordnen ist. Er sagt uns etwas sehr wichtiges: Wie gekrümmt und wie voll das Universum ist, und damit, wieviel Dunkle Energie und (Dunkle) Materie es enthält:

lambdacdm_pdg_darkenergy

Quelle: Particle Data Group

Um aber gleich die wichtigsten Spoiler vorweg zu bringen: Das Universum ist offenbar nicht merklich gekrümmt, und es enthält Dunkle Energie und Dunkle Materie! Aber lasst uns, im wahrsten Sinne des Wortes, von vorne anfangen! Ganz vorne…

Weiterlesen „Der Graph des Monats: Was ist drin im Universum, und was hat der LHC damit zu tun? (Teil 1)“

Große Scheunen, kleine Scheunen, oder – weißt Du, wieviel Teilchen entstehen?

Die Menge der Daten, die Beschleuniger wie der LHC sammeln, werden in „inversen Barns“ oder „inversen Femtobarns“ gemessen -beispielsweise wird erwartet, dass die Experimente des LHC in ihrem diesjährigen Lauf 20 inverse Femtobarns sammeln. Gerade wurde vermeldet, dass das erste fünftel inverse Femtobarn erreicht wurde

 

Was bedeutet das?

Barn, das englische Wort für Scheune, ist in der Teilchenphysik ein Maß für eine Fläche. Eine Scheune ist im amerikanischen Sprachgebrauch eigentlich etwas, was so groß ist, dass man es bei einer Zielübung nicht verfehlen kann. Je größer die Fläche, um so häufiger trifft man.

barn
Nicht nur am LHC gibt es Barns, sondern auch am Fermilab
(c) Fermilab, Batavia IL

Das physikalische Barn ist aber für Alltagsverhältnisse dennoch extrem winzig, 10^{-28} m^2. Warum ist solch ein kleines Flächenmaß so interessant für Kern- und Teilchenphysiker? Die Bezeichnung kommt aus der Blütezeit der Kernphysik, und in der Welt der Atomkerne ist ein Barn viel, nämlich in etwa die Größe eines schweren Atomkerns wie Uran. In der Teilchenphysik rechnet man heute häufig mit Picobarns oder Femtobarns, also einem Billionstel oder Trillionstel Barn.

Der LHC lässt zwar viele millionen Mal pro Sekunde Teilchen aufeinander treffen, doch etwas Interessantes wie etwa die Erzeugung eines Higgs-Teilchens passiert dabei vergleichsweise selten. Kennt man aber die entsprechenden Barns und inversen Barns, kann jeder sofort ausrechnen, wie häufig gewisse Dinge am LHC vorgekommen sind oder vorkommen werden. Die Formel dafür ist ungefähr so kompliziert wie die für den Preis von 20 Tüten Milch. Hier ist sie:

Anzahl Ereignisse = inverse Barns  * Barns

Beispiel: man würde gerne bis Ende des Jahres 20 inverse Femtobarns sammeln. Die Fläche, die laut Theorie der Produktion eines Higgsteilchens entspricht, kann man in der einschlägigen Literatur nachlesen – es sind so in etwa 44000 Femtobarns für den effizientesten der verschiedenen Produktionswege. Wieviele Higgsteilchen werden demnach dieses Jahr voraussichtlich in den Experimenten des LHC erzeugt? Genau, jeweils ganze 880000 Stück in den Experimenten ATLAS und CMS! Die selbe Rechnung funktioniert natürlich auch für andere Teilchen, deren Fläche für die Erzeugung (den „Produktionsquerschnitt“) man kennt.

So hat jede Teilchenphysikerin die „Barns“ ihrer Lieblingsteilchen, egal ob spekulativ oder real existierend, im Hinterkopf. Sobald von den Experimenten die erreichten „inversen Barns“ verkündet werden, weiß sie sofort, wieviele Teilchen einer bestimmten Sorte schon entstanden sein könnten. Mit etwas mehr Nachdenken kann man dann versuchen abzuschätzen, ob eine einschlägige Entdeckung schon möglich wäre oder nicht. Dazu muss man aber wissen, wie gut man die gewünschten Ereignisse von anderen unterscheiden kann – das ist eine andere Geschichte…

 

Auf zu neuen Ufern, oder – Quo vadis, LHC?

Nachdem vorletzte Woche ein ambitionierter Marder in der Elektrik des Large Hadron Colliders sein tragisches Ende gefunden und damit den leistungsfähigsten Teilchenbeschleuniger der Welt vorübergehend stillgelegt hat, ist nun wieder alles repariert und die Maschine läuft wieder!

Doch was erwartet uns nun an wissenschaftlichen Ergebnissen? Die Pflicht besteht in der genaueren Vermessung der bekannten Teilchen, vor allem des noch „frischen“ Higgs-Bosons, über dessen genaue Eigenschaften es noch viel zu lernen gibt.

Die Kür wäre aber eine Entdeckung. In aller Munde sind derzeit die Hinweise auf ein neues Boson mit der sechsfachen Masse des 2012 entdeckten Higgs-Teilchens. Würde sich herausstellen, dass es sich hier nicht um einen statistischen Ausreißer handelt, sondern tatsächlich um ein neues Teilchen, könnte man das ohne zu viel Übertreibung als den größten Umbruch in der Teilchenphysik seit den 70er Jahren nennen. Denn fast alles, was seitdem in der Teilchenphysik getrieben wurde, ist sehr eng mit der „Theorie von fast allem“, dem sogenannten Standardmodell der Teilchenphysik verknüpft. Es ist die große Theorie der elektromagnetischen und schwachen Wechselwirkungen, die in den 1960ern von Glashow, Salam und Weinberg aufgestellt und im Anschluss durch verschiedene Arbeiten um die starken Wechselwirkungen erweitert wurde.

Die Entdeckung eines völlig neuen, unerwarteten Teilchens wäre ein regelrechter Befreiungsschlag für die Grundlagenphysik

Es wurden seitdem zwar wichtige teilchenphysikalische Entdeckungen gemacht, die über das Standardmodell in seiner ursprünglichen Form hinausweisen (vor allem, dass Neutrinos eine Masse haben – noch ist unbekannt, wie das funktioniert!), doch wirkliche Entdeckungen neuer Teilchen, die ein völlig neues Fass der Grundlagenphysik aufmachen würden, blieben bisher aus. Das Standardmodell funktionierte als Theorie bisher so gut, dass man schon langsam begann, sich Sorgen zu machen, in welche Richtung die Forschung weitergehen könne. Die Entdeckung eines völlig neuen, unerwarteten Teilchens wäre ein regelrechter Befreiungsschlag, würde ein Tor zu ganz neuer Forschung sowohl aus experimenteller als auch theoretischer Sicht aufstoßen.

Der mit Abstand stärkste Hinweis auf „neue Teilchenphysik“, den wir haben, kommt aus der Astrophysik und Kosmologie – das Standardmodell sagt nichts über die Dunkle Materie aus, denn die bekannten Teilchen haben die falschen Eigenschaften, um sie zu stellen. Es ist sehr plausibel, dass die Dunkle Materie aus Teilchen besteht, die am LHC hergestellt und beobachtet werden können, denn es ist nicht schwer, ein entsprechendes theoretisches Modell aufzustellen – es ist aber alles andere als sicher. So wurden beispielsweise „Axionen“ genannte Teilchen vorgeschlagen, die als Dunkle Materie funktionieren, aber nicht am LHC entdeckt werden können (dazu mehr in meinem Beitrag in der Sterne und Weltraum 08/16).

Daneben gibt es verschiedene etwas rätselhafte Messergebnisse, die auf neue Phänomene hinweisen könnten, aber erst durch weitere Messungen am LHC oder anderen Experimenten bestätigt werden müssen. So legen die sogenannten B-Mesonen ein etwas eigenartiges Verhalten an den Tag, und das Magnetfeld der Myonen scheint etwas von der theoretischen Erwartung abzuweichen.

Jede teilchenphysikalische Messung und Vorhersage kommt mit statistischen und systematischen Unsicherheiten daher. Die Dunkle Materie steht auf einer sehr sicheren empirischen Grundlage, die anderen bisher gesehenen Ungereimtheiten könnten allerdings statischen Ausreißern geschuldet sein – schließlich wird es umso wahrscheinlicher, einen Ausreißer zu beobachten, je mehr Beobachtungen man macht.

Die Messungen des Jahres 2016 werden uns mit etwas Glück Klarheit bringen. Gibt es neue Physik in unserer Reichweite, die die offenen wissenschaftlichen Fragen klären oder neue Einsichten über den Kosmos im Größten und Kleinsten liefern kann?

Abwarten!