Das Verhalten von Elektronenröhren – mathematische vs. physikalische Deutung

Röhrencharakteristiken nach Langmuir, Child, Schottky (Barkhausen 1924): der Strom steigt mit der Potenz U^3/2 der Anodenspannung an, bis eine von der Heizspannung abhängige Sättigungsstromstärke erreicht wird.

Das Thema dieses Eintrags ist etwas spezieller. Es geht um Teilchenbeschleuniger, aber eher um die Sorte, die bis Mitte des letzten Jahrhunderts weit verbreitet in Radios ihren Dienst taten und heute vor allem in Spezialanwendungen oder bei Liebhabern zum Einsatz kommen: Hochvakuum-Elektronenröhren.

Die Funktionsweise dieser Transistor-Vorgänger in Verstärkern beruht ganz entscheidend auf dem oben gezeigten Verhalten des Stroms \propto U^{3/2} in Abhängigkeit von der „Beschleunigungsspannung“. Hier geht es jetzt um die Verbindung zwischen der  mathematischen und der physikalischen Erklärung dieses Verhaltens. Wie kommt der allmähliche Anstieg des Stroms zustande und wie wird der Übergang in den Sättigungsbereich beschrieben, in dem der Strom konstant bleibt und die Kennlinie in die Waagrechte geht?

Quelle: Fairaudio

Elektronenröhren basieren darauf, dass Elektronen aus einer heißen Kathode austreten und durch eine Spannung beschleunigt auf einer Anode auftreffen und als Strom abgegriffen werden können. Je nach Bauweise liegen auf dem Weg keine (Diode), eine (Triode) oder mehrere (Tetrode, Pentode…) zusätzliche gitterförmige Elektroden, durch die die Elektronen auf dem Weg zum Ziel hindurch müssen. Spannungsänderungen an diesen Gittern können den Elektronenfluss zur Anode steuern und so z.B. ein Signal verstärken.

Dass das funktioniert, ist auf den ersten Blick gar nicht so offensichtlich. Nach der Richardson-Gleichung wird an einer heißen Kathode eine bestimmte Anzahl Ladungen pro Sekunde freigesetzt,

J=A T^2 e^{\frac{-W_e}{k_B T}}

Es wäre naheliegend anzunehmen, dass alle diese Elektronen auch zur Anode beschleunigt werden, sobald zur Kathode irgend eine positive Spannung anliegt. Dann gäbe es im Groben nur zwei Einstellungen der Röhre: Gar kein Anodenstrom oder „alles was geht“. Dass dem nicht so ist, sieht man an den Kennlinien von Barkhausen im ersten Bild, die zwar relativ steil aussehen, aber nicht schlagartig ansteigen.

Wieso huschen nicht sofort alle emittierten Elektronen ans Ziel, sobald eine Spannung anliegt? Das liegt an der negativen Ladung der Elektronenwolke selbst, die sich um die Glühkathode bildet. Sie schirmt die Beschleunigungsspannung von den nachkommenden Elektronen  ab – bis sie es eben im Sättigungsbereich nicht mehr tut. Man spricht von der sogenannten „Raumladungs-Begrenzung“ des Stroms.

Um diesen Effekt der Raumladungsbegrenzung und den Ursprung des graduellen Anstiegs des Stroms theoretisch zu sehen, muss man über die Behandlung der Elektronen in der Röhre als einzelne Probeladungen hinaus gehen und ihre kollektive Rückwirkung auf das elektrische Feld in der Röhre berechnen. Dazu muss man im Prinzip das gesamte Problem der Ladungsverteilung- und -strömung zwischen Kathode und Anode lösen. Die resultierende Abhängigkeit des Anodenstroms von der Spannung I(U) hat dann eben die Form, die wir im obigen Bild von Barkhausen sehen.

Im Bereich, bevor die Sättigung eintritt, folgt der Anstieg dem Langmuir-Child-Schottky-Gesetz. Es besagt, dass der fließende Strom mit der Potenz

I \propto U^{3/2}

mit der Spannung ansteigt (und eben nicht plötzlich). Wie kommt man auf diese Abhängigkeit? Die Lösung solcher nichtlinearer Gleichungen kann beliebig kompliziert sein, aber zumindest in einer Dimension (d.h. unter Annahme einer breiten Röhre mit homogenen Feldern) kommt man mit zwei halbwegs übersichtlichen Integrationen aus.

Die übliche Rechnung, die sich auch an verschiedenen Stellen im Internet findet, geht so: Im Vakuum der Röhre kann eine fließende Stromdichte nur von fliegenden Ladungen kommen, also ist die Stromdichte gleich der Ladungsdichte mal der Geschwindigkeit,

j = \rho v

Damit haben wir links schon die gesuchte Größe stehen, die Stromdichte. Jetzt müssen wir die Ladungsdichte \rho und die Elektronengeschwindigkeit v auf die Spannung zurückführen, dann sind wir fertig.

Die Spannung kommt einerseits ins Spiel, indem wir die Ladungsdichte über die Maxwellgleichung

\epsilon ~ \mbox{div} E=\rho

auf die Feldstärke und dann – hier kommen die Integrale – auf die Potenzialdifferenz U zurückführen.

Im Detail: in einer Dimension ist die Divergenz div einfach die Ableitung, also ist

\epsilon ~ E'=\rho

Das können wir in den Gesamtausdruck für die Stromdichte einsetzen und bekommen

j= E' v \epsilon

Die Feldstärke E ist aber schon die Ableitung des Potenzials (der elektr. Spannung), E=U‘, und damit

j= U'' v \epsilon

Bevor wir uns daran machen, die Ableitungsstriche loszuwerden, drücken wir noch die Geschwindigkeit durch die Spannung aus. Dazu verwenden wir, dass die kinetische Energie der Elektronen aus dem Fallen durch das Potenzial kommt und damit direkt damit zusammenhängt. Dann ist nämlich (wir gehen vom Anfangspotenzial U=0 aus)

\frac{1}{2} m v^2 = U e

denn elektrische Spannung ist ja Energie pro Ladung. Einsetzen ergibt

j=U'' \sqrt{\frac{2 U e}{m}} \epsilon

Das ist ein Erfolg, da alle Unbekannten jetzt direkt mit der Spannung U und ihrer Ableitungen oder der Stromdichte j zusammenhängen. Wir müssen jetzt „nur“ zweimal integrieren, um die doppelte Ableitung loszuwerden, und haben das Raumladungsgesetz. Um etwas Ordnung zu schaffen, packen wir die ganzen Konstanten in die Variable a=\sqrt{\frac{2 e}{m}} \epsilon und erhalten

j=a U'' U^{1/2}

oder

U^{-1/2} j=a U'' .

Der übliche Trick um das zu integrieren sieht vor, auf beiden Seiten U‘ zu multiplizieren,

U^{-1/2}U'  j=a U'' U' .

Man kann jetzt die linke Seite als Resultat der Kettenregel, die rechte Seite als Ableitung eines Produkts auffassen,

2 j  \frac{d}{dx} U^{1/2}  =a \frac{1}{2}\frac{d}{dx} U'^2 .

Die beiden Seiten müssen also bis auf eine Integrationskonstante gleich sein

2 j   U^{1/2}  =a \frac{1}{2} U'^2 +C.

Diese Konstante C wird hier auf 0 gesetzt – was sie bedeutet und weshalb, darauf  werden wir gleich zurückkommen. Macht man es, vereinfacht sich die Gleichung zu

4\frac{j}{a}  U^{1/2}  = U'^2

und nach Wurzelziehen zu

\frac{dU}{dx}=2 \sqrt{\frac{j}{a}}  U^{1/4}

Jetzt separieren wir die Variablen,

dx=dU \frac{1}{2}\sqrt{\frac{a}{j}}  U^{-1/4}

und Integrieren quer durch die Röhre von x=0 bis x=L bzw. U=0 bis U=U_{a}:

L= \frac{2}{3}\sqrt{\frac{a}{j}}  U_a^{3/4}

Es ist wieder Zeit zu quadrieren und nach j aufzulösen,

j =\frac{4}{9}\frac{a}{L^2} U_a^{3/2}.

Damit haben wir das Ziel erreicht: die Stromdichte, und damit der Strom, sind proportional zur Potenz der Anodenspannung U_a^{3/2}, wie auch in der Grafik von Barkhausen angedeutet. Das ist das Raumladungsgesetz.

Diese Gleichung würde nahelegen, dass das Gesetz für beliebig hohe Spannungen gilt, aber dem ist ja nicht so, da irgendwann der Sättigungsstrom erreicht wird. Wo bricht unsere Herleitung denn an dieser Stelle zusammen? Hier kommt unsere Wahl der Integrationskonstanten C=0 ins Spiel. Betrachtet man die Gleichung von oben,

2 j   U^{1/2}  =a \frac{1}{2} U'^2 +C

sieht man, dass die Integrationskonstante direkt den Wert von U'(0) an der Kathode bestimmt, da wir U(0)=0 verwenden. Mit C=0 haben wir oben also auch U'(0)=0 gesetzt. Damit setzen wir das elektrische Feld an der Kathode =0. Weshalb sollten wir das dürfen? Das ist nur gerechtfertigt, wenn die Ladungswolke um die Kathode durch Rückfluss von Elektronen ein Gleichgewicht mit der Kathode aufbaut, sodass die Kathode keine Oberflächenladung aufweist, die als Quelle für ein elektrisches Feld direkt an der Kathode herhalten würde. Das wird im „raumladungsbegrenzten“ Bereich so angenommen.

Kommt die Glühkathode aber nicht mehr „hinterher“ mit der Freisetzung von Elektronen, werden diese alle sofort wegbeschleunigt, und es baut sich eine Oberflächenladung an der Kathode auf – es tritt die Sättigung ein.  Die Röhre verhält sich zunehmend wie ein Plattenkondensator mit einem näherungsweise konstanten elektrischen Feld, in dem Probeladungen beschleunigt werden. Wie passt das mathematisch zusammen?

Dieser Effekt der Sättigung macht sich in der obigen Gleichung so bemerkbar: Für einen gegebenen Maximalwert des Stroms j (der physikalisch durch die Emission der Glühkathode vorgegeben ist), können für passende Integrationskonstanten C<<0 beliebig hohe Spannungen U(L)=U_a erreicht werden. Die elektrische Feldstärke \propto U' wird dabei wie in einem Plattenkondensator näherungsweise eine Konstante, da der U^{1/2}-Term gegenüber C und dem U'^2-Term vernachlässigbar wird. Umgekehrt ausgedrückt kann also bei einer beliebigen Steigerung der Anodenspannung der Strom auf dem durch die Glühemission festgelegten Maximalwert stehenbleiben. In diesem Sättigungsbereich verliert die obige Differenzialgleichung ihre Vorhersagekraft, da wir die Annahme C=0 fallen lassen müssen, aber den Wert der Konstante (und damit den Sättigungsstrom) nicht ohne weitere Annahmen kennen können.

 

Werbung

Wie steht es ein Jahr später um die Teilchenphysik?

Seit unserem letzten Blogeintrag ist über ein Jahr vergangen, und es ist einiges passiert in der Grundlagen- und Astrophysik. Die Entdeckung von Gravitationswellen durch die LIGO-Experimente hat die Astronomie revolutioniert und nicht nur das Nobelpreis-Komitee in Begeisterung versetzt. Die Experimente der Elementarteilchenphysik und insbesondere die Suche nach „neuer Physik“ am stärksten Teilchenbeschleuniger der Welt, dem Large Hadron Collider,  aber auch die Suchen nach dunkler Materie, können aber etwas Anlass zur Sorge geben.

Unser Artikel vom August 2016 über das „Alptraum-Szenario“ der Grundlagenphysik ist leider im Wesentlichen immer noch aktuell, denn konkrete Entdeckungen neuer Teilchen oder Kräfte insbesondere am LHC blieben in der Zwischenzeit aus. Suchen nach einer unter Physikern sehr populären und plausiblen Klasse Dunkler-Materie-Teilchen, den WIMPs, gingen leer aus.

Einige ungewöhnliche Ergebnisse der Teilchenphysik, die eine gewisse Spannung mit den Vorhersagen des Standardmodells der Teilchenphysik aufweisen, stehen aber weiterhin. Die Redaktion von Spektrum der Wissenschaft hat sich davon sogar in der Februarausgabe dazu hinreißen lassen, einen möglichen Umbruch in der Teilchenwelt zu titeln.

Spektrum-Titel Februar 2018:

Nach Jahren der aufgeregten Neuigkeiten z.B. über neue Teilchen am LHC sind aber nicht nur wir etwas vorsichtig geworden, und der Enthusiasmus des SdW-Titels hat uns ziemlich überrascht.

Der hervorragend informierte Teilchenphysik-Blog Résonaances, den wir schon häufiger zitiert und als Quelle herangezogen haben, lag ebenfalls lange Zeit in einem Dornröschenschlaf und wurde von seinem Autor Jester im März aufgeweckt, um ein eher ernüchtertes Update zu dieser möglichen Krise der Hochenergiephysik zu geben. Natürlich kann das Forschungsgebiet weiterhin jederzeit durch eine Entdeckung von der anhaltenden experimentellen Dürreperiode erlöst werden – sei es ein neues Teilchen am LHC oder eine eindeutige Detektion eines Dunkle-Materie-Teilchens in einem der verschiedenen dedizierten Experimente – aber solange das nicht geschieht, steht die Teilchenphysik vor der Frage, wie man weitermachen soll.

Wenn uns die großen Teilchenbeschleuniger-Experimente mit Entdeckungen neuer Phänomene „im Stich lassen“, steckt in der Tat weiterhin großes Potenzial in der Astrophysik und in den Suchen nach Dunkler Materie, um das Gebiet auf der experimentellen Seite weiter zu bringen. Aber auch die Theorie-Community kann versuchen, sich weiter neu orientieren. Jester sieht in neuen (und nicht so neuen, aber aus der Mode gekommenen) Zugängen zur Quantenfeldtheorie das Potenzial, neue Impulse aus theoretischer Sicht zu liefern, um die offenen Fragen der Grundlagenphysik anzugehen, auch wenn empirische Ergebnisse noch Mangelware sind. Prominente Theoretiker wie Nima Arkani-Hamed sind schon vor Jahren auf diesen Zug aufgesprungen, und z.B. Streuamplituden von Teilchen auf ganz neue Weise auf der Grundlage neuer Prinzipien zu berechnen. Damit könnten, so eine Hoffnung, neue Zusammenhänge zwischen der Quantenphysik und der Gravitation offengelegt werden.

Es geht also weiter und bleibt spannend in der Grundlagenphysik, aber das Gebiet wird sich möglicherweise in den nächsten Jahren stark verändern.

 

Braucht die Welt einen 100km – Teilchenbeschleuniger?

 

CCfcc3_03_14

Diese Maschinen würden den mit 27 km Umfang derzeit weltgrößten Teilchenbeschleuniger LHC in den Schatten stellen: Einerseits gibt es auf europäischer Seite Pläne, am CERN einen neuen unterirdischen Ringbeschleuniger mit 80-100 Kilometern Umfang zu bauen. Andererseits gibt es auch in China Bestrebungen, sich mit dem Bau einer Maschine von ca. 50-70 km an die Weltspitze der physikalischen Grundlagenforschung zu katapultieren, wenn die Ära des LHC am CERN zu Ende geht –  wir sprechen hier von den 2030er oder eher den 2040er Jahren. Das chinesische Projekt hat auch im Westen prominente Unterstützung, beispielsweise durch den einflussreichen Theoretiker Nima Arkani-Hamed (Princeton), der inzwischen zum Direktor des „Institute for Future High Energy Physics“ in Peking berufen wurde.

Auch wenn der Bau eines stärkeren (d.h. mit aktueller Technologie auch viel größeren) Beschleunigers nach dem LHC der nächste logische Schritt zu sein scheint, um noch tiefer in die Geheimnisse der Naturgesetze einzudringen, gibt es kontroverse Diskussionen um die Sinnhaftigkeit davon, ein solches Projekt jetzt anzugehen.

Weiterlesen „Braucht die Welt einen 100km – Teilchenbeschleuniger?“

Laufen bewegte Uhren langsamer?

Die spezielle Relativitätstheorie Einsteins (1905) brachte eine radikale Neuerung mit sich, die für viele Zeitgenossen zunächst schwer zu schlucken war – die Zeit sollte kein absolut fester, für alle gleichermaßen gültiger Bezugsrahmen mehr sein, sondern war abhängig davon, aus welcher Perspektive (welchem Bezugssystem) sie gemessen wurde. Damit war nicht gemeint, dass die subjektive Empfindung der Zeit sich je nach Situation verändert, oder dass Uhren aufgrund ihrer mechanischen Konstruktion langsamer oder schneller laufen, je nachdem welchen Bedingungen sie ausgesetzt sind. Das ist zwar so, was z.B. Harrison dazu veranlasste, ausgeklügelte Uhrwerke zu konstruieren, die auch an Bord von Schiffen mit guter Genauigkeit gleich liefen – aber darum geht es bei Einstein nicht; Nein, die Zeit selbst soll angeblich anders laufen!

h1_low_250Der raffinierte Mechanismus in Harrisons Präzisionsuhren (hier die H1) für die Seefahrt sollte sicherstellen, dass sie auch bei Seegang und wechselnden Temperaturen genau genug blieben, um den Längengrad zu bestimmen. Um diese Art von Bewegungsabhängigkeit des Uhrengangs geht es hier nicht – in der Relativitätstheorie laufen nicht nur manche Uhren aufgrund ihrer Konstruktion anders, sondern alle physikalischen Abläufe und damit alle denkbaren Uhren, und damit die Zeit selbst (Quelle: Wikimedia Commons)

Die berühmteste Konsequenz dieser Relativität der Zeit wird sehr häufig so zusammengefasst: Bewegte Uhren laufen langsamer. Diese Aussage ist aber, so pauschal gemacht, unsinnig.

Weiterlesen „Laufen bewegte Uhren langsamer?“

X-Boson reloaded

Im Juni hatte ich von einer möglichen Entdeckung eines neuen leichten Teilchens in einem ungarischen Kernphysik-Experiment geschrieben, und ein paar Tage danach von Zweifeln daran berichtet, da einige Details zur Historie der Arbeitsgruppe ans Tageslicht kamen, die etwas nachdenklich machen. Als diese Meldung von einer möglichen Entdeckung im Juni erstmals durch die Wissenschaftspresse geisterte, war das experimentelle Ergebnis der Ungarn bereits über ein Jahr alt und war weitestgehend unbemerkt geblieben. Das änderte sich erst, als einige amerikanische Theoretiker es aufgriffen und ernsthafte Überlegungen anstellten, wie man es theoretisch erklären könnte, sofern der beobachtete Effekt echt ist. Nachdem diese Veröffentlichung eine Weile von sich reden machte, wurde es wieder still um die Angelegenheit, da die experimentelle Grundlage einfach zu ungewiss schien, um den neue-Physik-Alarm längerfristig schallen zu lassen.

In den letzten Tagen ist das ungarische X-Boson nun erneut in diversen Wissenschaftsnachrichten und Podcasts aufgetaucht.

Weiterlesen „X-Boson reloaded“

The Sound of Silence, oder: Wie ein Physiker die Strahlung schwarzer Löcher im Labor simuliert

Vor genau 100 Jahren, bald nach der Fertigstellung der Einstein’schen Allgemeinen Relativitätstheorie, bemerkten verschiedene Physiker (allen voran Karl Schwarzschild), dass laut dieser neuartigen Theorie Raumbereiche existieren konnten, deren Gravitation nichts entrinnen kann – nicht einmal Licht. Man nennt diese Objekte heute schwarze Löcher. Damals war die vorherrschende Meinung, dass es sich dabei um kaum mehr als eine mathematische Kuriosität ohne Bezug zur Realität handelte. Doch nach und nach häuften sich die Hinweise, dass es diese extremen Objekte im Universum wohl tatsächlich gab. Spätestens nach der Detektion der Gravitationswellen zweier kollidierender schwarzer Löcher im September 2015 durch LIGO ist klar, dass die Welt wirklich so funktioniert, wie es uns die Einstein’sche Theorie nahelegt, dass es diese schwarzen Löcher genau so gibt.

Die schwarzen Löcher, wie sie von der Relativitätstheorie Einsteins von 1915 vorhergesagt werden, sind wirklich komplett schwarz, da ihnen kein Licht entrinnen kann. Im Jahr 1974 betrachtete Stephen Hawking aber, was passiert, wenn man nicht die Relativitätstheorie allein zu Rate zieht, sondern zusätzlich berücksichtigt, dass die Teilchen im Universum ja den Gesetzen der Quantenphysik gehorchen. Er machte eine erstaunliche Entdeckung: Am sogenannten Horizont der schwarzen Löcher, der ihr Inneres für immer von der Außenwelt zu isolieren schien, und über den in der klassischen Sicht Einsteins nichts wieder herauskommen konnte, passierten ganz sonderbare Dinge. Berechnungen zeigten, dass in der Nähe dieses Horizonts durch Quantenfluktuationen spontan Paare von Teilchen positiver und negativer Energie entstehen würden, die in Abwesenheit eines Schwarzen Lochs sofort wieder ungesehen verschwänden – Ist aber ein schwarzes Loch da, trennen sie sich auf: Das Teilchen negativer Energie fällt hinein, das Teilchen positiver Energie wird nach außen weg abgestrahlt. So strahlt das „schwarze“ Loch Teilchen ab und wird leichter.

Warum hat nun Hawking noch nicht seinen Nobelpreis für diese revolutionäre Entdeckung abgeräumt?

Weiterlesen „The Sound of Silence, oder: Wie ein Physiker die Strahlung schwarzer Löcher im Labor simuliert“

Das Alptraum-Szenario

alptraumszenario

Als der Large Hadron Collider am CERN im Jahr 2009 in Betrieb ging, wusste man natürlich nicht, was man mit der Maschine entdecken würde. Wenn das schon vorher klar gewesen wäre, hätte man sich den Aufwand schließlich sparen können! Aber – man hatte diese Investition doch nicht ganz ohne Absicherung gemacht, denn es gab das sogenannte No-Lose-Theorem, ein Argument, weshalb man sich sehr sicher sein konnte, dass der LHC nicht ohne Entdeckung bleiben würde. Es lautete in etwa so:

Weiterlesen „Das Alptraum-Szenario“

Schwarzer Rauch über Chicago – kein neues Boson bei 750 GeV

Seit der Winterkonferenz 2015 am CERN war die Teilchenwelt in Aufruhr – in den beiden LHC-Experimenten ATLAS und CMS sah man einen Überschuss an Photonpaaren bei einer Energie von etwa 750 GeV, den man als neues Boson bei dieser Masse interpretieren konnte. Die bohrende Frage war – handelt es sich nur um einen statistischen Ausreißer, der zufällig in beiden Experimenten an derselben Stelle auftrat (wenn auch bei CMS wesentlich schwächer), oder wirklich um ein neues Teilchen – mit historischen Konsequenzen für die Grundlagenforschung.

So schauen die Daten, als statistische Signifikanzen (p-Values) dargestellt, der beiden Experimente ATLAS und CMS aus, wie sie gerade auf der Konferenz ICHEP in Chicago präsentiert wurden:

ATLAS_diphoton

CMS_diphoton.jpg

 

In beiden Plots ist  die blaue Kurve  jene der alten Daten, die rote jene der diesjährigen, zur Stunde auf der ICHEP-Konferenz präsentierten Daten.

Vor allem im ersten Plot von ATLAS sieht man deutlich die nach unten zeigende Spitze bei ~750 GeV (in blau). Dieser niedrige p-Wert bedeutet, dass solche Fluktuationen selten vorkommen, was wiederum ein Hinweis sein könnte, dass es sich nicht um eine Fluktuation handelt, sondern ein neues Teilchen. Wäre es ein neues Teilchen, würde man in den 2016 aufgenommenen Daten auch einen niedrigen p-Wert an derselben Stelle erwarten, aber hier sehen wir nur kleine Fluktuationen (in rot). Damit ist ziemlich klar, dass es sich bei der ganzen 750 GeV-Geschichte um zwei statistische Fluktuationen handelte, im Experiment ATLAS eine starke, durch Zufall an derselben Stelle im Experiment CMS eine schwächere.

Damit ist das Thema wohl durch, zumindest was die Physik angeht. Über die Soziologie (es wurden von Theoretikern hunderte Papiere zu einem Thema verfasst, das wohl eine Blase war…) wird man sich vermutlich noch eine Weile streiten.

Nun richten sich alle Augen auf die vielen anderen Ergebnisse, die auf der ICHEP präsentiert werden. Vielleicht steckt ja noch etwas interessantes drin, in den Daten von 2016…

Dazu siehe auch Quo Vadis, LHC

Fiat LUX oder Fiat Panda – was bedeuten die neuen Dunkle-Materie-Ergebnisse?

Die Experimente LUX und PandaX-II suchen tief unter der Erde nach Dunkler Materie. Diese Woche haben sie beide neue Ergebnisse veröffentlicht, und keines dieser derzeit empfindlichsten Experimente ihrer Art sieht bisher einen Hinweis auf die gesuchten dunklen Teilchen. Hat die Dunkle-Materie-Hypothese jetzt ein Problem, oder ist sie gar widerlegt?

large_underground_xenon_detector_inside_watertank
Die Behausung des LUX-Experiments in der Homestake-Mine in über 1400  Metern Tiefe

Weiterlesen „Fiat LUX oder Fiat Panda – was bedeuten die neuen Dunkle-Materie-Ergebnisse?“

Energiequelle Dunkle Materie?

universumduracell

 

Die Dunkle Energie und Dunkle Materie sind das kosmische Mysterium unserer Tage – nur ca. 5% des Energiegehalts des Universums sind theoretisch verstanden. Ist es da nicht fast schon zwingend wahrscheinlich, dass in den unbekannten 95% noch ungeahnte Energiequellen stecken, die die Energieprobleme unserer Zivilisation auf einen Schlag lösen könnten? In der parawissenschaftlichen Szene gibt es schon lange Generatoren für „Nullpunktsenergie“ und „Freie Energie“ zu kaufen, und viele Verschwörungstheorien ranken sich darum, weshalb diese Möglichkeiten, dem Kosmos direkt ein bisschen Saft abzuzapfen, nicht für jeden zugänglich sind. Das ist natürlich alles wissenschaftlich nicht haltbarer Unsinn (Update: Sogar im Shop des Deutschen Museums hatten sich einschlägige Produkte eingeschlichen, bis wachsame Skeptiker kürzlich darauf aufmerksam machten.)

Dabei wissen wir bei allen offenen Fragen doch schon einiges über die Dunkle Energie und Dunkle Materie – nämlich beispielsweise, wieviel es davon gibt. Also will ich jetzt mal folgender  Frage auf den Grund gehen: Angenommen, wir könnten die Dunkle Materie anzapfen – wieviel Energie würde sie denn eigentlich liefern?

Weiterlesen „Energiequelle Dunkle Materie?“