Schwarzer Rauch über Chicago – kein neues Boson bei 750 GeV

Seit der Winterkonferenz 2015 am CERN war die Teilchenwelt in Aufruhr – in den beiden LHC-Experimenten ATLAS und CMS sah man einen Überschuss an Photonpaaren bei einer Energie von etwa 750 GeV, den man als neues Boson bei dieser Masse interpretieren konnte. Die bohrende Frage war – handelt es sich nur um einen statistischen Ausreißer, der zufällig in beiden Experimenten an derselben Stelle auftrat (wenn auch bei CMS wesentlich schwächer), oder wirklich um ein neues Teilchen – mit historischen Konsequenzen für die Grundlagenforschung.

So schauen die Daten, als statistische Signifikanzen (p-Values) dargestellt, der beiden Experimente ATLAS und CMS aus, wie sie gerade auf der Konferenz ICHEP in Chicago präsentiert wurden:

ATLAS_diphoton

CMS_diphoton.jpg

 

In beiden Plots ist  die blaue Kurve  jene der alten Daten, die rote jene der diesjährigen, zur Stunde auf der ICHEP-Konferenz präsentierten Daten.

Vor allem im ersten Plot von ATLAS sieht man deutlich die nach unten zeigende Spitze bei ~750 GeV (in blau). Dieser niedrige p-Wert bedeutet, dass solche Fluktuationen selten vorkommen, was wiederum ein Hinweis sein könnte, dass es sich nicht um eine Fluktuation handelt, sondern ein neues Teilchen. Wäre es ein neues Teilchen, würde man in den 2016 aufgenommenen Daten auch einen niedrigen p-Wert an derselben Stelle erwarten, aber hier sehen wir nur kleine Fluktuationen (in rot). Damit ist ziemlich klar, dass es sich bei der ganzen 750 GeV-Geschichte um zwei statistische Fluktuationen handelte, im Experiment ATLAS eine starke, durch Zufall an derselben Stelle im Experiment CMS eine schwächere.

Damit ist das Thema wohl durch, zumindest was die Physik angeht. Über die Soziologie (es wurden von Theoretikern hunderte Papiere zu einem Thema verfasst, das wohl eine Blase war…) wird man sich vermutlich noch eine Weile streiten.

Nun richten sich alle Augen auf die vielen anderen Ergebnisse, die auf der ICHEP präsentiert werden. Vielleicht steckt ja noch etwas interessantes drin, in den Daten von 2016…

Dazu siehe auch Quo Vadis, LHC

Advertisements

Fiat LUX oder Fiat Panda – was bedeuten die neuen Dunkle-Materie-Ergebnisse?

Die Experimente LUX und PandaX-II suchen tief unter der Erde nach Dunkler Materie. Diese Woche haben sie beide neue Ergebnisse veröffentlicht, und keines dieser derzeit empfindlichsten Experimente ihrer Art sieht bisher einen Hinweis auf die gesuchten dunklen Teilchen. Hat die Dunkle-Materie-Hypothese jetzt ein Problem, oder ist sie gar widerlegt?

large_underground_xenon_detector_inside_watertank
Die Behausung des LUX-Experiments in der Homestake-Mine in über 1400  Metern Tiefe

Weiterlesen „Fiat LUX oder Fiat Panda – was bedeuten die neuen Dunkle-Materie-Ergebnisse?“

Energiequelle Dunkle Materie?

universumduracell

 

Die Dunkle Energie und Dunkle Materie sind das kosmische Mysterium unserer Tage – nur ca. 5% des Energiegehalts des Universums sind theoretisch verstanden. Ist es da nicht fast schon zwingend wahrscheinlich, dass in den unbekannten 95% noch ungeahnte Energiequellen stecken, die die Energieprobleme unserer Zivilisation auf einen Schlag lösen könnten? In der parawissenschaftlichen Szene gibt es schon lange Generatoren für „Nullpunktsenergie“ und „Freie Energie“ zu kaufen, und viele Verschwörungstheorien ranken sich darum, weshalb diese Möglichkeiten, dem Kosmos direkt ein bisschen Saft abzuzapfen, nicht für jeden zugänglich sind. Das ist natürlich alles wissenschaftlich nicht haltbarer Unsinn (Update: Sogar im Shop des Deutschen Museums hatten sich einschlägige Produkte eingeschlichen, bis wachsame Skeptiker kürzlich darauf aufmerksam machten.)

Dabei wissen wir bei allen offenen Fragen doch schon einiges über die Dunkle Energie und Dunkle Materie – nämlich beispielsweise, wieviel es davon gibt. Also will ich jetzt mal folgender  Frage auf den Grund gehen: Angenommen, wir könnten die Dunkle Materie anzapfen – wieviel Energie würde sie denn eigentlich liefern?

Weiterlesen „Energiequelle Dunkle Materie?“

Believe the Hype! Für eine unverhohlene Wissenschafts-Eventkultur

Fast jeder, der dieser Tage die Wissenschaftsnachrichten verfolgt, wird mitbekommen haben, dass am morgigen amerikanischen Unabhängigkeitstag (seit 2012 auch der Higgs-Tag!) die Sonde Juno den Jupiter erreicht. Wochen vorher schon begann auf diversen Podcasts und Blogs die Vorfreude auf diese nächste Heldentat der Raumfahrt.

Auch wenn sie noch von einem vergleichsweise kleinen Personenkreis verfolgt werden, werden wissenschaftliche Ereignisse zunehmend zu gesellschaftlichen „Events“, die gemeinsam erwartet, erlebt und gefeiert werden. Das geschieht in viel kleinerem Rahmen als bei einem Fußballturnier, aber nicht zuletzt dank der sozialen Medien schon wesentlich intensiver als vor 10 Jahren. Gerade wenn es um die inspirierenden Themen geht – die Eroberung des Weltalls, die Anfänge des Universums und darum, was die Welt im Innersten zusammenhält – fühlt man sich inzwischen zumindest ein kleines bisschen wie beim Fußballschauen, nur dass eben nicht gemeinsam mitgefiebert wird, ob der Elfmeter verwandelt wird, sondern dabei, ob die Sonde den fernen Kometen trifft oder die neueste SpaceX-Rakete die Landeplattform. Autokorsos bleiben noch aus, aber das kann ja noch werden.

voiture_cern
(Quelle: CERN)

Erklimmt das LHC-Signal für das Higgs-Boson die 5 Standardabweichungen, haben „wir“ Gravitationswellen gesehen? Wie andere Events werfen diese Dinge inzwischen ihre Schatten voraus. Im Fall der Gravitationswellen bei LIGO verbreiteten Physiker wie z.B. Lawrence Krauss schon Monate vor der offiziellen Pressekonferenz relativ konkrete Gerüchte, die dann in den sozialen Medien und Wissenschaftsblogs ihre Runden drehten, bis sie von der konventionellen Presse aufgegriffen wurden.

Dass das für die Experimentatoren der LIGO-Kollaboration mitunter auch frustrierend war, ist durchaus nachvollziehbar, und es hagelte teils bittere Kritik an den Gerüchteköchen – lenken sie nicht die wertvolle gesellschaftliche Aufmerksamkeit auf sich, die eigentlich den Wissenschaftlern der Experimente zusteht, und stehlen damit deren Moment des Triumphs? Der Konsens unter Wissenschaftlern scheint zu sein, dass abgewartet werden muss, bis alles offiziell fertig und abgesegnet ist, von der entsprechenden Stelle verkündet und dann von der Öffentlichkeit wohlwollend zur Kenntnis genommen werden kann – nur dann ist der Vorgang der hehren Wissenschaft angemessen. Das sehe ich anders.
Weiterlesen „Believe the Hype! Für eine unverhohlene Wissenschafts-Eventkultur“

Die Quantenwelt mit ihren eigenen Waffen erobern: Die erste Teilchen-Simulation auf einem Quantencomputer?

tl;dr Forscher aus Innsbruck haben ein kleines Quantensystem aus vier Kalziumionen verwendet, um in einer extrem vereinfachten Version der Quantenelektrodynamik die spontane Erzeugung von Teilchen und Antiteilchen zu simulieren.

Während alle geduldig darauf warten, auf der ICHEP-Konferenz im August davon enttäuscht zu werden, dass es doch kein neues Teilchen der Masse 750 GeV gibt welches die Physik revolutioniert hätte, und während der LHC weiter mit Rekordgeschwindigkeit neue Daten sammelt, passieren noch andere spannende Dinge im Dunstkreis der Teilchen- und Hochenergiephysik.

Seit ein paar Tagen macht beispielsweise diese Veröffentlichung in Nature die Runde, in der von der ersten Simulation von Elementarteilchen-Prozessen auf einem Quantencomputer berichtet wird (hier ein frei verfügbarer Preprint, hier die Pressemeldung des Instituts für Quantenoptik).

Weiterlesen „Die Quantenwelt mit ihren eigenen Waffen erobern: Die erste Teilchen-Simulation auf einem Quantencomputer?“

Das schwerste Teilchen, das Higgs, und der Weltuntergang

oder: was hat das Universum mit einem Dampfkessel gemeinsam?

tl;dr Könnte das schwerste bisher bekannte Teilchen den Weltuntergang auslösen? Jein, aber es besteht kein unmittelbarer Grund zur Beunruhigung, und die theoretische Begründung ist ziemlich gewagt.

Auch wenn man sich vom Large Hadron Collider vor allem Entdeckungen neuer Teilchen und Kräfte erhofft, ist das doch nur die Kür neben einem ebenso wichtigen Pflichtprogramm – der genaueren Vermessung der schon bekannten Teilchen und Wechselwirkungen. Dabei kann auch bei dieser vermeintlichen Routinearbeit eine sensationelle Entdeckung gemacht werden – Wenn beispielsweise herauskäme, dass das 2012 entdeckte Higgs-Teilchen wesentlich häufiger oder seltener in bestimmte andere Teilchen zerfällt als erwartet, wäre das ähnlich revolutionär, als wenn man gleich ein neues Teilchen entdecken würde – beides würde das seit Jahrzehnten als Königin der Quantentheorien regierende Standardmodell der Teilchenphysik vom Thron stoßen.

Die Eigenschaften des schwersten bisher bekannten Elementarteilchens – des Top-Quarks – genauer zu kennen, ist besonders wichtig für unser Verständnis der fundamentalen Wechselwirkungen: Durch seine Masse ist es dasjenige der bekannten Teilchen, das am stärksten mit dem massenspendenden Higgsfeld wechselwirkt, und damit wohl auch am stärksten mit seiner Teilchenanregung, dem Higgs-Boson. Damit stellt es ein wichtiges Fenster zum besseren Verständnis dieses für die Forschung noch so jungen Teilchens dar. Um die Eigenschaften des Higgs-Teilchens richtig interpretieren zu können, ist es also wichtig, die Masse des Top-Quarks möglichst genau zu kennen – eine alles andere als triviale Aufgabe! Auf der gerade zuende gehenden LHCP-Konferenz in Lund wurde eine neue kombinierte Analyse von Messungen dieser wichtigen Größe gezeigt, und das ist das Ergebnis:

 

Der tiefste Punkt der Parabel rechts ist der „beste Fit“ der Masse, also der Wert, bei dem das Theoriemodell am besten zu den Messdaten passt. Er liegt für die neue Kombination bei etwa 172.9 GeV. Zum Vergleich, ein einzelnes Goldatom wiegt etwa 183 GeV, ein Wasserstoffatom wiegt etwa 1 GeV, das Higgs-Teilchen etwa 125 GeV, und ein Elektron 0.000511 GeV. Dass das Top so schwer ist, wissen wir schon seit seiner Entdeckung im Jahr 1995.

Die genaue Masse des Tops zu kennen, ist aber noch aus einem anderen, kosmisch überraschend bedeutsamen Grund wichtig: Die Stabilität des Universums an sich könnte davon abhängen! Wie kann das sein? Nun, das Higgs-Feld hat zur Zeit überall im sichtbaren Universum einen bestimmten Wert, den man durch Messungen schon lange zu etwa 175 GeV bestimmen konnte – diese Zahl gibt gewissermaßen die grobe Massenskala vor, an der sich alles abspielt, was mit der elektro-schwachen Wechselwirkung zu tun hat. So liegen die Massen der W-, Z-, und Higgs-Bosonen, also der wichtigsten Akteure der schwachen Wechselwirkung, mit 80, 91 und 125 GeV gerade bei dieser Größenordnung. Weshalb viele der anderen Teilchen so viel leichter sind – das ist eine Geschichte für sich, und auch noch nicht wirklich verstanden, sofern es da etwas zu verstehen gibt. Das Higgs-Feld hat also diesen Wert, und der bleibt nicht nur dieser Tage schön konstant, sondern kann sich auch in den letzten 14 Milliarden Jahren nicht wesentlich verändert haben, denn wenn er sich ändern würde, hätte das solch einen schwerwiegenden Einfluss auf die Eigenschaften der übrigen Teilchen, dass die Materie, wie wir sie kennen, nicht existieren könnte.

Was stellt aber sicher, dass der Wert des Higgs-Feldes immer so schön gleich bleibt? Die Tatsache, dass es Energie kosten würde, wenn das Higgs-Feld einen anderen Wert annimmt! Aus dem gleichen Grund tauchen nicht plötzlich aus dem Nichts starke magnetische oder elektrische Felder auf – der Zustand ohne Feld hat eine niedrigere Energie, und will man dauerhaft eines haben, muss man welche reinstecken. Solange jeder andere Wert des Higgs-Felds also einer höheren Energie entspricht, wird sich das Feld abgesehen von kurzfristigen Quantenfluktuationen nie dauerhaft vom Status Quo wegbewegen. Von der so gewonnenen Stabilität hängt unsere Existenz ab.

Schaut man sich die Wechselwirkungen zwischen dem Higgs-Feld und dem Top-Quark aber genauer an, stellt man fest, dass sie das Higgs-Feld destabilisieren können! Wäre das wirklich so, könnte das Higgs-Feld spontan anfangen, in sich mit Lichtgeschwindigkeit ausdehnenden Blasen zu einem riesigen Wert zu springen, an dem es aber eine niedrigere Energie hätte als jetzt. Das Prinzip ist ähnlich wie bei einem Dampfkessel beim Siedeverzug, in dem das überhitzte Wasser schlagartig zu sieden beginnt und den Kessel zerreißt. Die Welt, wir wir sie kennen, würde dieses Spektakel nicht überleben. Ob wir uns laut Theorie in diesem Bereich der Instabilität befinden, wird in dieser Grafik gezeigt:

metastable
(Quelle: Jose Espinosa, http://arxiv.org/abs/arXiv:1512.01222, und Referenzen)

Hier sind drei Regionen eingezeichnet: Stabilität, Meta-Stabilität und Instabilität. Im grünen Bereich ist… alles im grünen Bereich. Ist das Top-Quark leicht genug und/oder das Higgs-Teilchen schwer genug, bleibt die Energie groß genug und der aktuelle Wert des Higgs-Felds ist gesichert. Ist das Top-Quark etwas schwerer und/oder das Higgs-Teilchen etwas leichter, befinden wir uns im roten Bereich: Hier könnte das Higgs-Feld spontan einen neuen Wert annehmen und zum Weltuntergang führen. Im gelben Bereich könnte das Universum zwar im Prinzip die Krätsche machen, der Energiegewinn wäre dabei aber klein genug, dass das selbst auf kosmischen Zeitskalen extrem unwahrscheinlich ist.

Diese Grafiken haben sich in den vergangenen Jahren nicht stark verändert, und bemerkenswerterweise lagen die gemessenen Werte schon seit geraumer Zeit genau an der Grenze zwischen theoretischer Stabilität und Instabilität! Ob das etwas zu bedeuten hat, und was, das weiß niemand sicher, aber es ist zumindest eine bemerkenswerte Tatsache. Die neuen Messungen der Masse des Top-Quarks liegen mit 172.9 GeV innerhalb dieser älteren Schranken, zementieren aber noch einmal die Tatsache, dass wir uns abseits des grünen Bereichs in der – prinzipiell – instabilen Region befinden, in der das Universum – im Prinzip – durch eine Art kosmischen Schluckauf vernichtet werden könnte. Wir lägen aber in einem Bereich, in dem dieses Unglück so extrem unwahrscheinlich ist, dass es auch in einem Vielfachen des Alters des Universums nicht eintreten wird.

All das ist aber mit einer großen Prise Salz zu nehmen: Die Herleitung der Instabilität des Higgs-Feldes ist die Vorhersage einer Theorie – des Standardmodells der Teilchenphysik –  und um sie zu machen, muss man davon ausgehen, dass diese Theorie über viele Größenordnungen der Energie unverändert ihre Gültigkeit behält. Findet man morgen neue Teilchen am Large Hadron Collider, würde das dieses Bild potentiell komplett über den Haufen werfen. Wir wissen noch nicht, wie die Neutrinos ihre Masse bekommen, und wir wissen nicht, aus was die Dunkle Materie besteht – all diese offenen Fragen legen nahe, dass das Bild, wie es von den Stabilitätsgrafiken oben gezeichnet wird, nur ein vorläufiges ist. Ob das Higgs-Feld wirklich stabil oder instabil ist, werden wir möglicherweise nie wirklich herausfinden können. Dass wir aber zumindest laut der aktuellen Theorie scheinbar an der Klippe, am Rand der Katastrophe leben, lädt dennoch zum Grübeln ein – was will uns die Natur damit wohl sagen…

 

Die Stunde der Wahrheit naht – gibt es ein 750 GeV – Boson?

Der Large Hadron Collider führte im letzten Jahr erstmals mit einer Rekordenergie von 13 TeV Messungen durch – die Menge der Daten blieb allerdings aufgrund verschiedener technischer Probleme hinter den Erwartungen zurück. Dieses Jahr scheint es viel besser zu laufen, denn trotz des Zwischenfalls mit Marder steigt die gesammelte Datenmenge schnell an und wird voraussichtlich bald die Messungen des gesamten letzten Jahres überholen, die in beiden Experimenten etwa 4 inverse Femtobarns Umfang hatten (zur Erklärung der Bedeutung von Barns und Femtobarns siehe hier).

So ist der aktuelle Stand bei CMS, dem einen der beiden großen Experimente:

int_lumi_per_day_cumulative_pp_2016onlinelumi
Quelle

(Merke: 3000 inverse Picobarns = 3 inverse Femtobarns – das mit den Pico und Femto ist umgedreht, da man den Kehrwert betrachtet)

Das hier ist der Plot des ATLAS-Experiments aus den alten Daten, der zusammen mit Ergebnissen von CMS seit letzten Winter wegen des kleinen Bumps bei 750 GeV Masse für Aufregung sorgt:

1115

Wie man ablesen kann, wurden damals nur 3.2 inverse Femtobarns an Daten verwendet, eine Menge, die demnächst von den Experimenten erneut erreicht wird! Natürlich wird die Folgeanalyse vermutlich nicht übermorgen einfach so aus dem Experiment purzeln und publiziert werden – die Daten müssen erstmal aufgedeckt werden, die Analyse durchgeführt, und von den Kollaborationen für eine Vorveröffentlichung approved werden. All das dauert eine Weile, wie die Experimentalphysiker besser wissen als ich.

Nun gibt es im Prinzip ungefähr drei Möglichkeiten, was passieren könnte – ein ähnlich großer Überschuss wie der von 2015 könnte in den neuen Daten an gleicher Stelle auftauchen – dann müsste man natürlich noch eine anständige kombinierte Analyse anstrengen, um die wirkliche statistische Signifikanz aller Messungen zu ermitteln, aber psychologisch wäre die Sache klar – fast jeder würde davon ausgehen, dass es dort ein neues Teilchen gibt. Die Aufregung wäre dann groß, man wird davon reden hören, dass in der Physik nichts mehr so ist, wie es war, und verschiedene Leute schauen sich auf TripAdvisor schon mal an, was es in Stockholm sonst noch so zu sehen gibt.

Es könnte sein, dass rein gar nichts signifikantes zu sehen ist – das wäre die Erwartung, wenn der Bump nur ein statistischer Ausreißer war. In dem Fall würden die Sektflaschen wieder in den Keller gestellt, und bis auf wenige Optimisten würden die meisten davon ausgehen, dass es hier nichts mehr zu sehen gibt.

Besonders schmerzhaft wäre es, wenn wir zwischen den beiden Fällen landen  – eine kleine Fluktuation nach oben in der Nähe der 750 GeV, die man plausibel als erneuten Zufallsausreißer abtun könnte, aber auch als Bestätigung, dass da ein neues Teilchen ist, dessen Signal nur durch eine kleine Fluktuation *nach unten* geschwächt wurde. In diesem Fall würde die Diskussion vermutlich genau so weitergehen wie bisher, und noch ein paar dutzend Theoriepapiere geschrieben, die erklären, weshalb die Produktion des 750 GeV-Bosons vom Stand der Planeten abhängt und deshalb 2016 nicht so gut gelingt. Zum Glück würden wir dann aber nicht zu lange auf mehr Daten vom LHC warten, und die Klärung würde sich vermutlich nur um ein paar Monate verschieben.

Bei all dem Gerede über die 750 GeV darf man natürlich nicht vergessen, dass möglicherweise noch ganz andere Dinge in den Daten entdeckt werden könnten. Also – Ohren auf, was in der Gerüchteküche so braut!