WWW.ORGONOMIE.NET
Impressum Nachrichtenbrief Jerome Eden
ORANUR Kinder der Zukunft Orgonometrie Buchbesprechungen
Chronik Glossar Bibliographie Links

 

ORANUR-PHYSIK

 

 

ORGONENERGIE-KONTINUUM UND ATOMARE STRUKTUR

Peter Nasselstein

 

Das Funktionsgesetz der primordialen Orgonenergie gilt exakt von da an, wo die Atomtheorie sich in unscharfen, nebulösen Annahmen von "Materiewellen" oder "Wellenteilchen", im Prinzip der "Undeterminiertheit" (...) und ähnlichen Inkonsistenzen verliert.

Wilhelm Reich (15:11)

 

 

Wird die Materie als ein Kontinuum betrachtet, steht man vor dem Problem, daß sich niemals ein thermodynamisches Gleichgewicht ausbilden könnte. Dies führte zur Postulierung der Atome durch Boltzmann. Ähnliches gilt für die Strahlungsenergie und das Plancksche Wirkungsquantum: Energie, die sich wellenartig ausbreitet, muß gleichzeitig eine "atomare" Struktur haben. Daß dann umgekehrt auch Teilchen Wellen zugeordnet werden müssen, machte den Aufbau der Boltzmannschen Atome erst verständlich.

Vor diesem Hintergrund wird gezeigt, daß die Entdeckung der Orgonenergie, die durch eine Welle-Teilchen-Charakteristik ("Kreiselwelle", KRW) ausgezeichnet ist, die Widersprüche von Thermodynamik, Elektrodynamik und Quantenmechanik auflösen kann. Die Orgonenergie ist ein Kontinuum, dem gleichzeitig eine "freiheitsgrade-einschränkende" negativ-entropische (negentropische) Struktur eigen ist. Doch weil dieses primordiale Kontinuum dergestalt zu einer "atomaren Struktur" neigt, kann es leider unter bestimmten Umständen selbst "Boltzmann-artig" atomar entarten, d.h. seine einheitliche Funktionsweise zerreißen, was zur Entstehung des Orgonenergie-Zustandes "ORANUR" führt. Zerfällt auch diese Struktur, kommt es zum entropischen Kollaps und die Orgonenergie stirbt ab (DOR), d.h. sie verliert ihre KRW-Eigenschaften.

 

 

1. Thermodynamik und Orgonenergie

1.a. Unterscheidbare Teilchen

Clausius und Thomson (Lord Kelvin) haben 1850 bzw. 1852 innerhalb einer noch rein phänomenologisch ausgerichteten Thermodynamik den Zweiten Hauptsatz formuliert, nach dem Wärmeenergie nicht spontan von einem kälteren in einen wärmeren Körper übergehen kann. Das wurde zunächst als ein nicht weiter reduzierbares Naturgesetz aufgefaßt, doch fußend auf entsprechende Vorarbeiten von Clausius selbst und Maxwell versuchte Boltzmann zwischen 1868 und 1877 die bis dahin rein phänomenologische Thermodynamik mit Hilfe der Atomtheorie in der klassischen Mechanik zu verankern.

Boltzmanns mechanisches Konzept der Thermodynamik wurde aufgrund folgender Problemstellung unumgänglich: Wenn man einen Teil eines gleichmäßig temperierten Gegenstandes erwärmt, verteilt sich diese zusätzliche Wärme mehr oder weniger schnell auf das gesamte Objekt inklusive dessen Umgebung und es bildet sich dergestalt ein neues thermodynamisches Gleichgewicht aus. Das ist aber nur scheinbar die selbstverständlichste Sache der Welt, denn in einer kontinuierlichen Materie dürfte sich ein solches Gleichgewicht nicht einstellen. Endliche Energie zerstreute sich nämlich an den unendlich vielen Freiheitsgraden, die ein Kontinuum nicht nur auf makroskopischer, sondern auch auf mikroskopischer Ebene zur Verfügung stellt. Die zusätzliche Wärme würde im betreffenden Teilbereich des Gegenstandes in den immer kleiner werdenden Schwingungen, die das Kontinuum möglich macht, sozusagen "versickern" .

Dieser, wenn man so sagen kann, "Katastrophe immer höherer Schwingungsfrequenzen" konnte entweder die Postulierung eines weiteren thermodynamischen Hauptsatzes, der Reichs "Orgonomischem Potential" (13) entsprochen hätte, oder ein mechanistisches Modell entgegenwirken, das die Freiheitsgrade auf mikroskopischer Ebene einschränkt. Boltzmann wählte natürlich den zweiten Weg, was schließlich in der Quantenmechanik enden sollte, die deshalb so etwas wie der mißratene Vetter der Orgonphysik ist. Immerhin bedeutete bereits Boltzmann Rückführung des vorher absolut geltenden Gesetzes von der stets zunehmenden Entropie auf ein mechanisches Modell eine Relativierung des Zweiten Hauptsatzes der Thermodynamik, die dem Orgonomischen Potential zumindest nahekommt, denn auf der Ebene der Moleküle schlägt die eherne Irreversibilität wachsender Unordnung in die vollständige Reversibilität klassischer mechanischer Vorgänge um, wie sie archetypisch vom reibungsfreien Pendel verkörpert wird.

Gleichzeitig brachte dieser Ansatz einen unlösbaren Widerspruch mit sich, auf den die Gegner Boltzmanns, die "Mechanisten", hinwiesen: mechanische Systeme würden früher oder später zu ihrem Ausgangszustand zurückkehren (der "Wiederkehreinwand" Poincarés), so daß eine Abnahme der Entropie genauso wahrscheinlich sein müßte wie eine Zunahme (der "Umkehreinwand" Loschmidts). Deshalb könne man den Satz von der irreversibel wachsenden Unordnung auf keinen Fall auf atomistische Modellvorstellungen zurückführen.

Nachdem aus diesem Grunde Boltzmanns Ansatz einer Einordnung der Thermodynamik in die Mechanik gescheitert war, brachte er fachfremde statistische Gesetze ins Spiel, die 1835 von Quételet für die Soziologie entwickelt worden waren. Ein chaotisches Gewimmel der Teilchen sei praktisch unendlich wahrscheinlicher als ihr geordnetes Zusammenspiel (2). Auf diese Weise wurde Boltzmann der Urvater der Quantenmechanik und ihrer "Wahrscheinlichkeitswelle". In Abschnitt 2.b. werden wir in der Lage sein, mit Hilfe dieser neuartigen, quasi "energetischen" Mechanik einen dritten Einwand gegen Boltzmanns Konzept zu entkräften, der nicht wie die beiden vorangehenden von den klassischen Mechanisten, sondern von den "Energetikern" um Ostwald (vgl. Hans Hass und der energetische Funktionalismus) vorgebracht wurde: die hypothetischen Atome mußten selbst jeweils kleine Kontinua mit unbegrenzten Freiheitsgraden darstellen, es sei deshalb auch in dieser Hinsicht widersinnig, die Thermodynamik ausgerechnet mit der dergestalt widersprüchlichen Atomtheorie erklären zu wollen.

 

1.b. Ununterscheidbare Teilchen

Ungelöstes Problem der Boltzmannschen Atomtheorie bleibt, wo eigentlich eine sinnvolle Grenze zwischen der mechanischen Reversibilität im mikroskopischen Bereich (Atome) und der thermodynamischen Irreversibilität im makroskopischen Bereich (Kontinuum) zu ziehen ist. Da Boltzmann die Orgonenergie und ihre negentropischen Eigenschaften nicht kannte, mußte er seine Theorie auf Konzepte gründen, deren rein abstrakte und unphysikalische Natur er nicht durchschaute: einerseits sich mechanisch perfekt, d.h. reibungsfrei, verhaltende "Billardkugeln", andererseits eine Welt, in der durch Reibung alles "bergab geht" und die dem "Wärmetod" entgegensteuert (DOR). Diese beiden zu einer Theorie zusammengezwungenen Sichtweisen sind einseitige Übertreibungen, die, wie Reich in Äther, Gott und Teufel (13) gezeigt hat, auf dem Konzept eines künstlich "abgetöteten" Universums beruhen.(1)

Vor diesem Hintergrund mußte Boltzmann den auf verborgene Weise "energetischen" Charakter seiner eigenen Theorie verfehlen. Obwohl er sich in seiner, wie sie später genannt wurde, "Maxwell-Boltzmann-Statistik" nicht mit dem deterministischen Verhalten einzelner Teilchen befaßte (was sowieso praktisch unmöglich wäre), sondern mit dem Verhalten von sehr großen Gruppen von Teilchen, behandelte er seine rein hypothetischen Atome trotzdem so, als seien sie Objekte des Alltags (die besagten "Billardkugeln"), d.h. von vornherein voneinander unterscheidbar und demnach numerierbar. Diese Inkonsequenz machte seine Theorie von Seiten der "Mechanisten" so angreifbar.

Daß Ununterscheidbarkeit von Teilchen das inhärent widersprüchliche Teilchenkonzept untergräbt und stattdessen eine orgon-energetische Dynamik offenlegt, wird insbesondere deutlich, wenn man durch Abkühlen die Wärmebewegung der Boltzmannschen Teilchen und dergestalt ihren "individualisierenden" Kontakt mit der Umwelt einschränkt. Sie verhalten sich dann wie eine einheitliche Welle. Die vielen Pseudondividualitäten gehen in einer umfassenden legitimen Individualität auf.

Ein praktisches Problem der Sichtbarmachung dieser Dynamik ist, daß sich bei Absenkung der Temperatur freie Atome und Moleküle durch Valenzkräfte, Wasserstoffverbindungen und van der Waals-Kräfte untereinander verbinden und dergestalt zu Flüssigkeiten kondensieren und festen Stoffen gefrieren, in denen die gesuchte Dynamik nicht zum tragen kommen kann. Nur bei den extrem bindungsarmen Heliumatomen ist das anders. Sie kondensieren erst ab 4.2 K. Und wenn das Helium weiter, d.h. unter 2.18 K, abgekühlt wird, gefriert es nicht etwa, vielmehr wird es "superflüssig", d.h. die Heliumatome verhalten sich nun nicht mehr als individuelle Teilchen, sondern als ein einheitliches Kollektiv. Dabei treten quasi orgon-energetische Effekte zutage.

Kapitza und Allen haben diese "Suprafluidität" 1938 unabhängig voneinander entdeckt. Zwar war sie bereits vorher beobachtet worden, aber man hatte die aus mechanistischer Sicht schlichtweg "übernatürlichen" Effekte nicht wahrhaben wollen. Anders als alle anderen Flüssigkeiten fließt supraflüssiges Helium auf Wärmequellen zu. Dieser "thermomechanische Effekt" gemahnt an das To-T-Phänomen beim Orgonenergie-Akkumulator. Während normale Flüssigkeiten von außen dazu angetrieben werden müssen, sich zu bewegen, kriecht supraflüssiges Helium gegen die Schwerkraft die Wände eines offenen Behälters empor und aus ihm heraus, so daß er "sich von selbst entleert". Umgekehrt erweist sich die als Einheit funktionierende Supraflüssigkeit als durchaus zähflüssig, wenn man sie "von außen antreiben", also umrühren will.

Dieses Verhalten ist nichts anderes als unmittelbarer Ausdruck der 1924 entwickelten "Bose-Einstein-Statistik", mit der man das Verhalten vollkommen identischer Teilchen, die "Bosonen", wozu insbesondere die Photonen gehören, beschreibt. Eine andere Gruppe subatomarer und atomarer Teilchen, die "Fermionen", erfaßt man mittels der "Fermi-Dirac-Statistik". Zu ihnen gehören die Bausteine der Materie, also vor allem Elektronen, Neutronen und Protonen. Nach dem 1924 von Pauli formulierten "Ausschließungsprinzip" gilt, daß zwei Fermionen niemals im gleichen Zustand existieren können. Beispielsweise unterscheiden sich die ansonsten identischen Elektronen durch zwei Möglichkeiten, wie das "Spin" ausgerichtet ist. Fermionen sind sozusagen durch ihre "Händigkeit" miteinander verschränkt (damit werden wir uns im VI. Kapitel von Orgonometrie beschäftigen). Da aufgrund dieses Mechanismus das unterste Energieniveau sehr schnell besetzt ist, dann das zweite, dritte, etc. kann auf diese Weise Struktur entstehen. Bosonen würden sich im untersten Energieniveau zusammenfinden und einen strukturlosen "Energiesee" bilden. Mit Hilfe dieser Differenz zwischen Fermionen und Bosonen kann man den für die Orgonomie so bedeutsamen Unterschied zwischen Materie (Masse) und Energie in der modernen Physik verorten. Seit Einsteins Spezieller Relativitätstheorie (1905) wird nämlich gerne so getan, als wäre diese Aufteilung obsolet (vgl. Erstrahlung, Überlagerung und Relativität).

Die "fermionische" Struktur der Materie wird in den 1814 von Fraunhofer entdeckten Spektrallinien evident, die bei (emittierenden oder absorbierenden) Gasen unter geringem Druck sichtbar werden, d.h. wenn sich die Atome anders als in Festkörpern nicht gegenseitig stören und so die charakteristische Struktur des einzelnen Atoms zum tragen kommen kann. Anhand des kontinuierlichen Spektrums der Festkörper sollte Planck die "bosonische" Quantenstruktur der Energie entdecken. Bohr leistete das entsprechende anhand der Spektrallinien für die Materie.

 

 

2. Elektrodynamik und Orgonenergie

2.a. Energie

Die Quantenmechanik entstand, als, wie in Abschnitt 1.a. dargestellt, die Einordnung der Thermodynamik in die Mechanik scheiterte. Im folgenden wird gezeigt, daß sich kurz darauf das gleiche in bezug auf die Elektrodynamik wiederholte. Zwar war damit die klassische Mechanik als grundlegende Theorie der Natur endgültig gescheitert, aber auch der zweite "Schiffsbruch" sollte nicht zur Besinnung führen, d.h. auch hinsichtlich elektromagnetischer Erscheinungen wurde die Entdeckung der Orgonenergie hintertrieben.

1859 hatte Kirchhoff aufgrund thermodynamischer Überlegungen gefolgert, daß die Strahlung, die von einem "schwarzen Körper" ausgeht, einzig und allein von der Temperatur abhängt, also unabhängig vom Material ist. 1895 wurde entdeckt, wie man einen solchen absolut schwarzen Körper, der kein Licht reflektiert, herstellen kann: es ist einfach die winzig kleine Öffnung zu einem abgeschlossenen Hohlraum. Lummer und Pringsheim erhielten 1899 erstmals die entsprechenden physikalisch fundamentalen Strahlungskurven. Die Strahlungsenergie war auf die Lichtfrequenzen so verteilt, daß im mittleren Bereich ein Maximum lag, das zu den Rändern des Spektrums rasch abfiel. Das Maximum selbst verschob sich bei steigender Temperatur hin zu kleineren Wellenlängen. Weil es aber (im Gegensatz zu den fest umrissenen Atomen der statistischen Mechanik) theoretisch keine untere Grenze für die Wellenlänge gab und kleinere Wellenlängen den Raum energetisch besser ausnutzen, hätte nach den Regeln der klassischen Mechanik alle verfügbare Wärmeenergie in den Strahlungsanteil investiert werden müssen, der von den unendlich kleinen Wellen eingenommen wird. Man stand also bei der elektromagnetischen Wärmestrahlung vor einem ähnlichen Problem wie zwei Jahrzehnte zuvor die klassische Thermodynamik bei der Wärmeverteilung innerhalb von Materie, bei der (ohne das rettende Konzept "Atom") ebenfalls alle Energie sozusagen in immer kleineren Schwingungen "versickern" würde. Die Gammastrahlung war noch nicht bekannt, so wurde dieses Problem der theoretischen Erfassung der Wärmestrahlung als "Ultraviolettkatastrophe" bezeichnet.

1900 gelang es Planck dieses Desaster abzuwenden. Obwohl er kein Energetiker im Sinne Ostwalds war, hatte er Boltzmanns Modellvorstellungen über eine atomare Struktur der Materie als unnötigen, inhärent widersprüchlichen und ohnehin auf unbeobachtbaren Hypothesen beruhenden Ballast stets abgelehnt. Angesichts der neuen Problemstellung, die mit der Boltzmanns fast identisch war, sah er sich zwar gezwungen, das Instrumentarium der Statistischen Mechanik auf die Strahlung anzuwenden,(2) doch anders als Boltzmann spekulierte er nicht über die Struktur der Materie (oder in diesem Fall Strahlung), sondern er beschrieb einfach die funktionellen Zusammenhänge. Aus unbekannten Gründen würden die Atome ihre Strahlungsenergie nur in einzelnen unteilbaren Portionen aufnehmen und wieder abgeben können. Dazu mußte er eine neue (wenn auch vom Maßsystem abhängige und erst später experimentell genauer bestimmte) Naturkonstante einführen, das später nach ihm benannte "Wirkungsquantum".

Plancks Quanten sind keine Atome (die umgekehrt durchaus als Vorwegnahme der Quanten im Sinne von "Minima" betrachtet werden können) und ihre Aufstellung sagt z.B. nicht, daß es keine beliebig kleinen Frequenzen geben kann. Sie bedeutet, daß auf einer gegebenen Frequenz der Energieaustausch niemals kleiner sein kann als das Produkt aus dem Planckschen Wirkungsquantum und dieser Frequenz. Durch diese Forderung nach unteilbaren Einheiten des Energieaustausches werden die Freiheitsgrade mittels eines rein energetischen Vorgangs eingeschränkt und so die Ultraviolettkatastrophe abgewendet. Im folgenden werden sich auch die Boltzmannschen Atome als solche letztendlich energetischen Funktionsgefüge erweisen.(3)

Das Wirkungsquantum sorgt für eine von der klassischen Physik nicht vorausgesagte Strukturiertheit und Ordnung der energetischen Abläufe. Entsprechend ist sie mit dem Orgonomischen Potential funktionell identisch. Und tatsächlich hatte Planck selbst eine durchaus funktionelle Vorstellung vom Wirkungsquantum, so daß anfänglich der Weg in die Orgonphysik nicht vollkommen blockiert war. Doch dann trat Einstein auf, der im Gegensatz zu Planck bewußt in der Tradition Boltzmanns stand und aus diesem Geiste heraus eine mechanistisch-atomistische Modellvorstellung mit dem Wirkungsquantum verband, als er es 1905 heranzog, um den 1888 von Hallwachs entdeckten "photoelektrischen Effekt" zu erklären.

Dieser Effekt tritt auf, wenn ultraviolettes Licht z.B. auf eine Zinkplatte trifft, was dieser eine positive elektrische Ladung verleiht. Lenard erklärte dies 1899 mit dem Austritt der zwei Jahre zuvor von Thomson (Lord Kelvin) entdeckten Elektronen, die durch Licht oberhalb einer bestimmten "Schwellenfrequenz" langsam aber sicher so in Schwingung versetzt würden, daß sie aus der Metalloberfläche austreten könnten. Die entsprechenden Formeln sagten mehrere Stunden voraus, bevor sich ausreichend Energie angesammelt hätte, doch zeigten 1902 entsprechende Versuche Lenards, daß auch bei minimaler Lichtintensität, d.h. "Leistung pro Flächeninhalt", die Elektronen ohne erkennbare Verzögerung austreten, lange bevor in ihrer Umgebung überhaupt ausreichend Lichtenergie absorbiert werden konnte. Analog zur Ultraviolettkatastrophe war dies wieder eine für das Theoriegebäude der klassischen Physik desaströse thermodynamische Katastrophe.

Einstein griff bei dieser seiner Problemstellung auf die mechanistische Modellvorstellung zurück, daß die Elektronen ohne jede Verzögerung aus den Metalloberflächen austreten, da sie von seit Planck denkbar gewordenen distinkten Quanten des Lichts, Einstein sprach von "Lichtpfeilen", herausgeschlagen würden (der Begriff "Photon" wurde erst 1926 geprägt). Diese Theorie war naheliegend, da die Bewegungsenergie der freiwerdenden Elektronen nicht etwa, wie aus klassischer Sicht zu erwarten war, von der Intensität, d.h. Helligkeit, des Lichts abhing, sondern einzig und allein ausgerechnet von dessen Farbe, d.h. der Frequenz. Bei einer größeren Amplitude des Feldes der elektromagnetischen Wellen wurden lediglich mehr Elektronen pro Zeiteinheit emittiert. Trotzdem bekämpften anfangs die meisten Physiker die "Lichtteilchen", wobei sich insbesondere Planck hervortat, so daß sich Einsteins Theorie nur sehr langsam durchsetzen konnte.

 

2.b. Materie

Ein ganz ähnliches Schicksal hatte zuvor Boltzmanns Atom-Hypothese erlitten, was sicherlich mit zu seinem Selbstmord 1906 beitrug.(4) Einstein war nun nicht nur einer der wenigen, die vorbehaltlos Boltzmanns Weltsicht teilten - er sollte auch derjenige sein, der sie ein für allemal bestätigte. Denn 1905 hatte er nicht nur in zwei Artikeln den Photoeffekt erklärt und die Relativitätstheorie begründet, sondern in einer dritten fast ebenso wichtigen Arbeit über die Brownsche Molekularbewegung die Existenz der Boltzmannschen Atome endgültig nachgewiesen, indem er die Zitterbewegung von Staubteilchen in einem Medium statistisch beschreiben und so den Atomen des Mediums eine direkte physikalische Wirkung zuschreiben konnte. (Drei Jahre später wurden Einsteins Berechnungen durch Beobachtungen Perrins bestätigt.)

Greifbar und in ihrer inneren Struktur geradezu sichtbar wurden die Boltzmannschen Atome 1910, als Rutherford Versuche von Geiger und Marsden über die Streuung von Heliumkernen (Alphateilchen) an einer Goldfolie analysierte und zu der Schlußfolgerung gelangte, daß die Materie alles andere als ein Kontinuum, also keine gleichmäßig verteilte Substanz ist, sondern eine hochdifferenzierte "körnige" Struktur hat, d.h. zum weit überwiegenden Teil aus leerem Raum besteht, in dem es in riesigen Abständen zu extrem kompakten Materiezusammenballungen kommt: den Atomkernen. Daraufhin postulierte er, daß sich das Atom aus einem elektrisch positiv geladenen Atomkern zusammensetzt, um den in weiter Ferne, wie Planeten um eine Sonne, negativ geladene Elektronen kreisen. 1913 konnten Geiger und Marsden dieses Modell experimentell verifizieren.

Dergestalt hatte sich erwiesen, daß Boltzmanns Atome alles andere waren als kleine Billardkugeln, sondern eher Energiemustern glichen. Kleine "Planetensysteme" konnten es jedenfalls nicht sein, denn nach den von Newton und später von Maxwell gefundenen "klassischen" Gesetzen der Mechanik und Elektrodynamik hätte das durch die Kreisbewegung beschleunigte Elektron seine Bewegungsenergie in Form von elektromagnetischen Wellen abgeben (so wie es beschleunigte Elektronen in Radiosendern tun), langsamer werden und innerhalb einer Billionstel Sekunde in den Atomkern stürzen müssen.

Bohr verhinderte diese Katastrophe im selben Jahr, 1913, indem er, auf das Plancksche Wirkungsquantum rekurrierend, distinkte Elektronenbahnen festlegte. Die Verknüpfung von Wirkungsquantum und Elektronenbahn war nur allzu naheliegend, da der Drehimpuls (Impuls mal Länge) die gleiche Dimension besitzt wie eine Wirkung (Energie mal Zeit) (vgl. Orgonometrie: III. Das Krx-System), entsprechend konnte es in der Atomhülle nur Elektronenbahnen geben, deren Drehimpuls ein ganzzahliges Vielfaches des Wirkungsquantums betrug. Damit entspricht das Wirkungsquantum gleich in zweifacher Hinsicht dem Orgonomischen Potential: im Bereich der Strahlung verhindert es die Ultraviolettkatastrophe und bei der Materie eine entsprechende, wenn man so sagen kann, "Zerstrahlungkatastrophe". Gleichzeitig deutet sich in beiden Bereichen ein Bezug zur orgonotischen Kreiselwelle (KRW) an, was in Abschnitt 5.a. näher herausgearbeitet werden wird.(5)

In Bohrs Konzept sorgte das Wirkungsquantum dafür, daß ein Atom nur bestimmte Photonen abgeben, bzw. von ihnen angeregt werden konnte. Damit war der in Abschnitt 1.a. erwähnte dritte, "energetische" Einwand gegen die statistische Thermodynamik gegenstandslos geworden. Boltzmanns Atome konnten die Freiheitsgrade einschränken, weil die Wärmeenergie normalerweise zu niedrig ist, um Atome in einen angeregten Zustand versetzen zu können.(6) Jenseits dieser Schwelle beginnt der Zerfall der, wenn man so sagen kann, "Boltzmannschen Ordnung" und damit das Reich von ORANUR, wie in Abschnitt 5.c. gezeigt werden wird.

Und noch in einer weiteren Hinsicht verweist das Plancksche Wirkungsquantum auf die kosmische Orgonenergie: Nicht nur, daß die festgelegten Elektronen-Bahnen in Bohrs "quanten-mechanischem" Modell der Atomhülle klassisch nicht erklärt werden konnten, noch revolutionärer war, daß zwischen diesen Bahnen keine Übergänge erlaubt waren. Gäbe es nämlich solche Übergänge, würde das ganze Konzept ("Ganzzahligkeit") von vornherein keinerlei Sinn machen. Und seit 1986 die Untersuchung der Spektrallinien einzelner Atome möglich geworden ist, steht auch experimentell fest, daß sich die Elektronen nicht in den Räumen zwischen den Elektronenbahnen aufhalten. Sie müssen also bei Abgabe oder Aufnahme eines Photons von einer Bahn auf die andere springen, ohne den Zwischenraum zu durchqueren. Das macht es, wie bereits bei Boltzmann in Abschnitt 1.a. gezeigt, unmöglich die Natur mit Hilfe von "Teilchen" erklären zu wollen. In Abschnitt 3.a. wird gezeigt, daß es sich vielmehr um "stehende Wellen" handelt bzw., in Abschnitt 3.b., um distinkte Energiemuster.

 

 

3. Wellen und Teilchen

3.a. Materiewellen

1801 wies Young den Wellencharakter des Lichts nach, indem er einen Lichtstrahl durch zwei lange parallele Schlitze schickte und auf einen Schirm in einer Dunkelkammer fallen ließ. Schloß er einen der Schlitze, zeigte sich auf dem Schirm ein gleichmäßiger unstrukturierter Lichtbalken. Wenn aber beide geöffnet waren, erschienen nicht etwa zwei ineinander zerfließende Lichtbalken, die den Schirm vollständiger ausleuchteten als zuvor, sondern ganz im Gegenteil bildete sich ein wohlgeordnetes Streifenmuster mit Bereichen, die dunkel blieben. Dies kann man nur mit Wellen erklären, die durch Überlagerung ein Interferenzmuster bilden.

Die ganze Bedeutung des Youngschen Doppelspaltversuchs wurde aber erst mit Einsteins Photonen deutlich. 1909 drosselte Taylor die Intensität des Lichts so weit, daß jeweils nur ein Photon die Strecke zwischen Lichtquelle und Schirm zurücklegen konnte.(7) Da das Photon prinzipiell unteilbar ist, d.h. jeweils nur einen Spalt durchfliegen und deshalb nicht interferieren kann (wenn denn Teilchen überhaupt "interferieren" könnten!), mußten sich, wäre alles "mit rechten Dingen" zugegangen, auf Taylors photoempfindlichem Schirm verwaschene Lichtflecken ausformen. Tatsächlich bildete sich jedoch aus den winzig kleinen Lichtpunkten, die die Photonen auf dem Schirm hinterließen, langsam aber sicher das Interferenzmuster. Wird einer der beiden Spalten abgedeckt, entsteht dieses Muster nicht.

Da stellt sich natürlich die Frage, woher das einzelne Photon weiß, ob der zweite Spalt offen ist oder nicht. Noch bedenklicher ist die Frage, wie es eigentlich wissen will, wo es auf dem Schirm zu landen hat, damit es zusammen mit den nachfolgenden Photonen ein Interferenzmuster bilden kann.

An diesen Fragen kristallisiert sich unmittelbar der Kern der Quantenphysik, denn es gibt grundsätzlich nur zwei Möglichkeiten, Energie von einem Raumbereich zum anderen zu übertragen: entweder mit einzelnen, diskontinuierlichen Teilchen, die eine bestimmte Bahn verfolgen und deshalb zu einem bestimmten Zeitpunkt immer nur an einem bestimmten Ort sein können, oder mit kontinuierlichen Wellen, die stets ganze Raumbereiche und deshalb mehrere Teilchen umfassen müssen. Bei Taylors Variante des Doppelspaltversuchs ist es nun aber so, daß tatsächlich nur ein Teilchen den Versuchsaufbau durchfliegt - und sich doch wie ein Kollektiv, d.h. wie eine Welle verhält.

Der Widerspruch löst sich auf, wenn man zweierlei Situationen voneinander unterscheidet: solange das Teilchen während seines "Fluges" nicht "dingfest" gemacht, also nicht als festumschriebener "Puls" lokalisiert wird, verhält es sich wie ein ganzes Kollektiv ununterscheidbarer Teilchen, d.h. als "nicht-lokale" Welle, die eine bestimmte Information tragen kann. Will man aber Informationen über das einzelnen Teilchen erhalten, etwa indem man es lokalisiert, wird sich dieses Teilchen auch entsprechend "lokal" verhalten. "Individualität" besitzen demnach einzig und allein kollektive Wellen, wie jeder feststellen wird, der das Radio anmacht und dergestalt unverwechselbare elektromagnetische Wellen empfängt. Würden sich die einzelnen Teilchen (hier die Photonen) diese Individualität anmaßen, wäre das Resultat weißes Rauschen. Das läßt sich jederzeit in Doppelspaltversuchen verifizieren: stellt man fest, durch welchen Spalt das Teilchen fliegt, verschwindet das wohlgeordnete Interferenzmuster, stattdessen bilden sich verschwommene "identitätslose" Flecken.

Ganz im Sinne dieser Überlegungen zeigte Bose 1924 im Zusammenhang mit Plancks Problem der Schwarzkörperstrahlung, daß man Licht nicht nur als elektromagnetische Welle betrachten kann, sondern ebensogut auch als eine Art "Quantengas" aus ununterscheidbaren Teilchen. Einstein griff dies auf und zeigte, daß sich umgekehrt Materieteilchen wie Wellen verhalten können, wenn diese Teilchen, beispielsweise Atome, ununterscheidbar sind. In diesem Zusammenhang spricht man von der "Bose-Einstein-Kondensation", die im bereits in Abschnitt 1.b. diskutierten superfluiden Helium zumindest teilweise verwirklicht ist. Richtige, wenn auch extrem fragile, Bose-Einstein-Kondensate gibt es seit 1995. Wenn in diesem "Quantengas" der Abstand zwischen den Atomen der Länge der "Materiewelle" entspricht, fangen die zig Materieteilchen an, sich wie ein Teilchen, wie ein "Superatom", d.h. wie eine einzige Materiewelle zu verhalten, die man mit bloßen Augen sehen kann.

Was sind "Materiewellen"? Wie gezeigt hatte der Doppelspaltversuch auch nahegelegt, daß einzelne Lichtteilchen Welleneigenschaften haben können. Dies mag Einstein bewogen haben, sich unmittelbar nach seiner Ausarbeitung von Boses Anregungen einer Arbeit von de Broglie anzunehmen, die in den Augen der klassischen Physiker noch absurder war als Boses Beitrag. De Broglie hatte das damals gültige Bohrsche Atommodell mit der seit Einstein sich immer mehr durchsetzenden Vorstellung von einem "Welle-Teilchen-Dualismus" des Lichts verknüpft, indem er Bohrs noch immer halbklassische Elektronenbahnen durch die entsprechenden "Elektronenwellen" ersetzte, also einen "Welle-Teilchen-Dualismus" bei einem Teilchen postulierte, das im Gegensatz zum Photon eine (Ruhe-) Masse besaß. Den distinkten Bohrschen Elektronenbahnen entsprachen nun "stehende Materiewellen", ähnlich wie es auf einer Klaviersaite nur ganze stehende, also "gequantelte" Wellen geben kann.(8) Die Wellenlänge eines (sich bewegenden) Teilchens ist gleich der Quantenkonstante dividiert durch den Impuls des Teilchens.

Die Materiewelle des Elektrons wurde 1927 von Davisson, Germer und Thomson (dem Sohn von Lord Kelvin) nachgewiesen. Elektronen werden von einem Kristall so reflektiert, als handelte es sich bei ihnen um Wellen. Im Laufe der folgenden Jahre und Jahrzehnte gelang das gleiche mit Atomen, Elektronen und Neutronen. In den 1980er und 1990er Jahren auch Doppelspaltexperimente (bzw. "Vielspaltexperimente", d.h. Gitterexperimente) mit diesen Teilchen. Seit der Jahrtausendwende ist man sogar in der Lage, Interferenzmuster mit speziellen Kohlenstoff-Molekülen herzustellen, die immerhin aus 60 und sogar 70 Atomen bestehen. Voraussetzung ist, daß sie im Versuchsaufbau nicht als individuelle Teilchen dingfest gemacht werden.

Eine Entsprechung findet sich im Bereich des rein Mechanischen: je enger beispielsweise der Verbund von Molekülen ist, d.h. je weniger "individuellen" Spielraum sie haben, desto besser leiten Materialien Wellen, z.B. Schallwellen. Das war auch das Problem des hypothetischen "Lichtäthers" im 19. Jahrhundert: um seine Funktion zu erfüllen, hätte er kristallhart sein müssen. Man denke aber auch an kraß "un-mechanische" Phänomene, die in den Bereich der Wahrnehmungspsychologie und "Parapsychologie" fallen: "Erscheinungen" können nur unter Umständen auftreten, bei denen die "Teilchen", die die Erscheinung ausmachen, nicht auseinanderzuhalten, d.h. unvorhersehbar und unkontrollierbar sind, so daß eine wissenschaftliche "verdinglichende" Dokumentation unmöglich wird (9).(9)

 

3.b. Die Quantenwellenfunktion

Wie identitätslose Teilchen über Raum und Zeit hinweg ein Kontinuum bilden und für "Erscheinungen" sorgen können, wird sofort einsichtig, wenn man die Erforschung der Einsteinschen Photonen weiter verfolgt: Dank der Rolle, die Bohr Einsteins Photonen zugewiesen hatte, erhielt dieser 1921 endlich den Nobelpreis für seine Arbeit über den Photoeffekt. Doch erst 1922 erbrachte Compton den endgültigen Beweis für die Photonen, als er die Streuung von Röntgenstrahlen an Graphit beobachtete und dabei auf eine Verringerung der Frequenz der ausfallenden Strahlung stieß. Nach klassischer Theorie hätte es keine Frequenzänderung geben dürfen.

Oberflächlich betrachtet untermauerte Comptons Befund ein rein mechanistisches Weltbild, in dem Teilchen (Photonen) mit anderen Teilchen (die Elektronen der äußeren Atomhülle) Billard spielen. Tatsächlich war es jedoch hier ähnlich bestellt wie vorher bei Boltzmanns mechanistischem Atommodell: auch beim "Compton-Effekt" wurden "mechanische Teilchen" zum Anlaß, das mechanistische Weltbild grundsätzlich infrage zu stellen. Der Compton-Effekt zeigte nämlich, daß, wenn der Aufenthaltsort eines Elektrons ermittelt werden soll, man ihm auf unkontrollierbare Weise einen Impuls verleiht. Reduziert man die Energie der Meßstrahlung, um diese Störung zu minimieren, läßt sich zwar der Impuls des Elektrons beliebig genau feststellen, doch ist dies nur auf Kosten der Ortsbestimmung möglich, die dank der größeren Wellenlänge vollständig "verschmiert".

Daraus läßt sich auf die "Unbestimmtheitsbeziehung" schließen, die Heisenberg 1927 formulierte: das Produkt aus Lage und Impuls (Masse mal Geschwindigkeit) kann prinzipiell nicht kleiner sein als das unteilbare Plancksche Wirkungsquantum.(10) Daß hier nicht etwa eine bloße meßtechnische Schwierigkeit vorliegt, sondern wir es mit einem Naturgesetz zu tun haben, wird sofort einsichtig, wenn wir uns daran erinnern, daß Planck, Einstein und Bohr zufolge Energie nur in unteilbaren Quanten ausgetauscht werden kann. Gleichzeitig wird verständlich, wie es möglich ist, daß die Elektronen ihre Elektronenbahnen wechseln können, ohne den Raum zwischen den Bahnen zu durchqueren, denn nach Heisenbergs Unbestimmtheitsrelation existiert das einzelne Quantenobjekt, etwa das besagte Elektron, sozusagen außerhalb von Raum und Zeit, da für es, frei nach Zenons Paradoxon, die Größen Ort und Bewegung(11) nicht gleichzeitig zu definieren sind.

Bereits zwei Jahre zuvor, 1925, hatte Heisenberg mit seiner "Matrizenmechanik" gezeigt, daß Größen wie Ort und Impuls untrennbar ineinander verzahnt sind, da es auf die Reihenfolge ankommt, in der sie berechnet werden. Das bedeutet, man kann sie nicht unabhängig voneinander betrachten, wie in den Kalkulationen der klassischen Physik. Anders als die Boltzmannschen Atome, die einen festen Ort und einen festen Impuls haben, zerteilen folglich die Quanten nicht etwa die Materie, sondern "verschränken" sie zu einer funktionellen Einheit.

Heisenbergs Matrizenmechanik, die es erstmals ermöglichte, jene "Quantenzahlen" zu berechnen, mit deren Hilfe Bohr die verschiedenen Elektronenkonfigurationen der Elemente zu erfassen getrachtet hatte, war ein wahrhaft genialer Vorgriff auf Schrödingers "Wellenmechanik", denn im nachhinein betrachtet, stellten Heisenbergs Matrizen die tabellarische Lösung der 1926 von Schrödinger aufgestellten "wellenmechanischen" Gleichung dar. Sie entspricht Newtons Bewegungsgleichungen auf den subatomaren Bereich übertragen, d.h. unter Berücksichtigung von de Broglies Materiewellen. Während diese aber kaum mehr waren als eine Modifikation der anschaulichen Elektronenbahnen Bohrs, bleibt Schrödingers Gleichung unanschaulich. Immerhin sind die Lösungen dieser Gleichung vielfach periodischer, wellenförmiger Natur. Sie werden als "Wellenfunktionen" bezeichnet und können annäherungsweise als Amplitude der de Broglie-Welle betrachtet werden. In der klassischen Physik würde eine solche Amplitude beispielsweise das Auf und Ab des Luftdrucks in einer Schallwelle angeben. Aber was sollte die Amplitude des Konstrukts "Materiewelle" für eine Bedeutung haben?

 

3.c. Die Interpretation der Quantenwellenfunktion

Bereits 1926, also gleich nach ihrer Formulierung, hat Born vorgeschlagen, Schrödingers Wellenfunktion dahin zu interpretieren, daß sie das potentielle Vorhandensein eines Teilchens zu einem gegebenen Zeitpunkt angibt, also so etwas wie eine "Wahrscheinlichkeitsamplitude" darstellt. Im Anschluß daran entwickelten zwischen 1927 und 1932 Bohr, Heisenberg und von Neumann die sogenannte "Kopenhagener Deutung" der Quantenmechanik, die bis heute in den verschiedensten Ausprägungen die Diskussion dominiert. Hier dreht sich alles um den Gegensatz zwischen sich deterministisch fortpflanzenden wellenartigen "Mustern von wahrscheinlichen Ereignissen" und den dergestalt nicht genau vorhersagbaren punktförmigen Ereignissen (Meßergebnissen) selbst. Die Realität ist hier förmlich auf den Kopf gestellt: der atomare Bereich wird mit einem Kontinuum beschrieben, während der "kontinuierliche" klassische Bereich von "atomaren" Ereignissen bestimmt wird.

Das besondere an den Wahrscheinlichkeitsfeldern liegt darin begründet, daß eine Messung an nur einem Ort durchführbar ist und deshalb die Felder selbst nicht meßbar sind, d.h. man von vornherein ausschließlich Teilchen messen kann. Mit jeder Messung werden die Wahrscheinlichkeitsverteilungen instantan an allen anderen Orten verändert: aus einer Welle wird ein Teilchen. Einerseits bedeutet dies, daß man das "Wahrscheinlichkeitsfeld" mit keinem gewöhnlichen Feld vergleichen kann, doch andererseits zeigt dieses instantane Reagieren, daß Quantenphänomene in örtlicher und zeitlicher Hinsicht unteilbare Ganzheiten sind und deshalb die Wahrscheinlichkeitswelle mehr sein muß als nur eine bloße Modellvorstellung.

Das wird allein schon daran deutlich, daß das "Kollabieren" der Wahrscheinlichkeitswelle diese getreulich nachzeichnet und man sie entsprechend gewisserweise doch messen kann. Beispielsweise konnte man 2003 mittels ultrakurzer Laser-Impulse "langsame Elektronen" aus der Hülle von hochangeregten Atomen, sogenannten "Rydbergatomen", stoßen, die dann auf einen fluoreszierenden Schirm trafen und dort Lichtpunkte hervorriefen. Aus dem mittels "Velocity Map Imaging" gemessenen zweidimensionalen Verteilungsmuster der Geschwindigkeiten der auftreffenden Elektronen wurde auf die Wellenfunktion der Rydbergelektronen rückgeschlossen. Natürlich liegt nur eine Ansammlung von "Teilchen-Ereignissen" vor, die die Wellenfunktion sozusagen nachzeichnen, doch gerade dadurch wird von neuem die Doppelnatur aus Wellen- und Teilcheneigenschaften deutlich, die sowohl die Quantenwellenfunktion als auch die Orgonenergie (Kreiselwelle, KRW) prägen.

Wie verzweifelt die mechanistische Physik mit dieser geheimnisvollen Doppelnatur rang, wird daran deutlich, daß man sich angesichts der Wahrscheinlichkeitsfelder unvermittelt erneut den in Abschnitt 1.b. und Abschnitt 2.a. beschriebenen Problemen Boltzmanns und Plancks gegenüber sah: 1932 konnte von Neumann in einer eingehenden Analyse des Meßprozesses nirgends einen zwingenden Punkt angeben, an dem die Quantenwellenfunktion "kollabieren" würde. Die durch sie verkörperte Unentschiedenheit breite sich wie eine ansteckende Krankheit auch auf das Meßgerät aus, das ja ebenfalls aus Quantenobjekten besteht. Es tat sich quasi ein neues Kontinuum mit unendlich vielen Freiheitsgraden auf. Sozusagen eine neue "Ultraviolettkatastrophe"!

Die Kopenhagener Deutung half sich mit einer pragmatischen "Erklärung", d.h. mit dem Unterschied zwischen ungreifbarem Quantenobjekt und handfester Meßvorrichtung, die von den Gesetzen der klassischen Physik bestimmt wird. Ein solcher "klassischer" Meßvorgang läge dann sicher vor, wenn ein Beobachter vom Meßresultat Kenntnis genommen habe. Doch erst Wigner brachte den Mut zu einem grundsätzlichen Lösungsansatz auf. 1961 erklärte er in einem Beitrag zur Geist-Körper-Frage das menschliche Bewußtsein "an sich" zum Endpunkt dieses Regresses, da es immaterieller Natur und deshalb der Quantenmechanik nicht unterworfen sei. Ein charakteristisches Beispiel für die mechano-mystische Wissenschaft: extremer Mechanismus kehrt sich unvermittelt um in einen extremen Mystizismus.

1970 haben Joos und Zeh in ihrer "Dekohärenz-Theorie" im Geiste Boltzmanns weitaus eleganter argumentiert als Bohr oder gar Wigner. Demnach kommt es zur "Dekohärenz" (Verlust von Interferenzfähigkeit, was in der Kopenhagener Deutung dem "Kollabieren" der Quantenwellenfunktion zu einem Meßergebnis entspricht), wenn das isolierte Quantensystem mit der Umgebung in Beziehung tritt. Entsprechend können, angesichts der praktischen physikalischen Gegebenheiten, nur kleinste Systeme isoliert sein, "unentschieden" bleiben, dergestalt Überlagerungen von Zuständen aufweisen und entsprechend Interferenzmuster produzieren. Doch auch hier besteht das gleiche Problem fort, das bereits bei Boltzmanns Unterscheidung zwischen reversiblen Mikro- und irreversiblen Makroprozessen bestand: wie in der Kopenhagener Deutung gibt es auch in der Dekohärenz-Theorie keine sinnvolle Grenzziehung zwischen der Welt, die durch die Quantenwellenfunktion beschrieben wird, und der Welt der klassischen Physik (4:211).(12)

Die Frage nach einer sinnvollen Interpretation der Quantenmechnik bleibt ungelöst, weil in ihr Diskontinuitäten auftreten, welche mit einer "kontinuierlichen" Wellengleichung beschrieben werden müssen, die genau in jenem Augenblick gegenstandslos wird, wenn dieses diskontinuierliche Verhalten in ein Kontinuum übergeht, wie wir es aus dem Alltag kennen. (Wie in Abschnitt 2.b. erwähnt, war die Vorstellung von Atomen den Zeitgenossen Boltzmanns, die sich am Augenschein orientierten, vollkommen fremd!) Erst die Orgonenergie ermöglicht das Zerschlagen dieses Gordischen Knotens der Quantenmechanik, da sie nicht einfach ein gleichmäßiges "Substrat des Raumes" ist oder ein mechanischer "Äther", sondern spezifisch als Kreiselwelle (KRW) auftritt, die in sich sowohl den kontinuierlichen (Welle) als auch den diskontinuierlichen Aspekt (Puls, Teilchen) vereinigt.

 

 

4. Quantenmechanik und Orgonenergie

4.a. Der Welle-Teilchen-Dualismus

1991 schlugen Englert, Scully und Walther ein Experiment vor, mit dem die Unbestimmtheitsrelation prinzipiell unterlaufen werden könnte. Bei Doppelspaltversuchen mit angeregten Atomen wäre feststellbar, durch welchen Spalt das betreffende Atom fliegt, ohne es dabei im geringsten zu stören. Es gibt vor dem Spalt spontan ein Photon ab und kennzeichnet so seinen Ort ohne Impulsänderung. 1998 wurde dieser Versuch von Rempe tatsächlich erfolgreich durchgeführt (17:47).

Obwohl in Rempes Doppelspaltexperiment die Flugbahn der einzelnen Atome ohne "Bahnstörung" bestimmt wurde, kam es trotzdem zu keinem Interferenzmuster. Offenbar war Bohrs Konzept der "Komplementarität" zum tragen gekommen und hatte eine Verletzung des Unbestimmtheitsprinzips verhindert. Komplementarität bedeutet, daß es ein Ding der Unmöglichkeit ist, ein Teilchen dingfest zu machen, also auf einer bestimmten Bahn nur einen der beiden Spalten durchfliegen zu lassen, und gleichzeitig die dazu komplementären Effekte einer Wellenfront, die durch beide Spalten dringt, registrieren zu wollen. Dergestalt erwies sich die Komplementarität als ein fundamentaleres Prinzip als die Unbestimmtheit.

Bohr hatte 1927 den Begriff "Komplementarität" anhand des Welle-Teilchen-Gegensatzes zwar in bewußter Konkurrenz zu Heisenbergs Unbestimmtheitsprinzip geprägt, doch im Verlauf der von Bohr und Heisenberg gemeinsam unternommenen Entwicklung der Kopenhagener Deutung verwischten sich die funktionellen Unterschiede sehr bald und beide Ansätze wurden als eine austauschbare Betrachtungsweise des gleichen Sachverhalts aufgefaßt. Das gleiche läßt sich zum Verhältnis der Komplementarität zum Welle-Teilchen-Dualismus sagen, den Einstein 1909 im Rahmen seiner "Lichtteilchen-Theorie" formuliert hatte und der dann von de Broglie auf Masseteilchen übertragen worden war.

Genauso wie Bohrs Komplementarität fundamentaler ist als Heisenbergs Unbestimmtheit, ist Einsteins Welle-Teilchen-Dualismus grundlegender als seine konzeptionelle "Präzisierung" durch Bohr, der davon sprach, daß man "komplementäre" Größen nicht in ein und demselben Experiment messen kann.

Daß Einsteins Konzept zum tragen kommt, wenn die Komplementarität versagt, zeigte ein 1992 von Mizobuchi und Ohtake durchgeführtes Experiment, bei dem von einer entsprechenden Quelle jeweils ein einzelnes Photon emittiert wird und dann auf einen Strahlenteiler trifft, der es auf eine unvorhersehbare Weise entweder reflektiert (Weg 1) oder passieren läßt (Weg 2). Da Photonen anders als elektromagnetische Wellen unteilbar sind, werden sie niemals beide Wege gleichzeitig durchlaufen. Als Strahlenteiler kann man neben den üblichen halbdurchlässigen Spiegeln auch zwei Prismen nehmen. Bei einem einzelnen Prisma kommt es zur Totalreflexion. Bei zwei Prismen, die sich berühren, wird das Licht ungehindert durchgelassen. Gibt es aber eine Lücke zwischen diesen beiden Prismen, die schmaler ist als die Wellenlänge des betreffenden Lichtstrahls, kann ein Teil der Photonen diese Barriere "durchtunneln". Trotzdem dergestalt Welleneigenschaft eine Rolle spielen, zeigen die Detektoren am Ende von Weg 1 und Weg 2 ausschließlich ein Teilchenverhalten an, d.h. die Zähler klicken niemals gleichzeitig. Nach Bohrs Theorie ist aber das Auftreten der komplementären Eigenschaften "Welle" und "Teilchen" innerhalb ein und desselben Experiments schlichtweg unmöglich (5:172-174).(13)

Zur gleichen Zeit zeigte Chiao in einem Doppelspaltversuch, daß es neben der Abfolge von Teilchen > Welle > Teilchen auch die Abfolge Welle > Teilchen > Welle gibt. Sein Experiment wies nach, daß die Welleneigenschaften nach ihrer Zerstörung nicht ein für allemal verschwinden, sondern weiterhin latent vorhanden sind, also entgegen der Komplementarität mit den Quantenteilchen assoziiert bleiben. Zunächst machte Chiao mittels jeweils eines Polarisationsfilters vor den beiden Spalten kenntlich, durch welchen Spalt die Photonen drangen. Das einheitliche Kollektiv war zerstört und folglich bildete sich kein Interferenzmuster, auch wenn niemand tatsächlich nachschaute, durch welchen Spalt das jeweilige Photon geflogen war. Wurde jedoch zusätzlich ein dritter Polarisationsfilter, der die Polarisationsinformation wieder löschte, hinter dem Doppelspalt plaziert, bildete sich das Interferenzmuster, als hätte es nie eine Störung gegeben (17:56f).

Daß wir es bei Quantenphänomenen wirklich mit einem ständigen pulsatilen Wechsel von Welle und Teilchen zu tun haben, zeigte ein erst kürzlich von Afshar durchgeführtes Doppelspaltexperiment, bei dem die Lichtstrahlen das Interferenzmuster auf einer Linse erzeugen, die die beiden Strahlen bündelt und auf zwei Bildschirme wirft. Nun werden auf der Linse kleine Drähte dort plaziert, wo beim Interferenzmuster die Wellentäler zu finden sind und folglich das interferierende Licht durch die Drähte nicht behindert wird. Wenn man danach die Interferenz unterbricht, indem ein Spalt geschlossen wird, fällt auf dem ihm zugeordneten Bildschirm, da das einfallende Licht durch die Drähte teilweise abgeschirmt und gebrochen wird, entsprechend weniger Licht und der Lichtpunkt verschmiert. Wird der zweite Spalt wieder geöffnet, dringt genauso viel Licht zum Bildschirm wie ohne Drähte. Aus diesem Versuchsaufbau ist gleichzeitig beides ersichtlich: die Information "Welle", die im Interferenzmuster kodiert ist, und die dazu komplementäre Information "Weg des Teilchens". Trotzdem bleibt der Welle-Teilchen-Dualismus erhalten (1).

 

4.b. Verschränkung

In seinen Versuchen die Unvollständigkeit der Quantenmechanik nachzuweisen, hat Einstein auf eine ähnliche Weise argumentiert wie in Abschnitt 4.a., d.h. die Fundamentalität von Unbestimmtheit und Komplementarität bestritten. Zwar war sein Ansatz extrem mechanistisch, d.h. er wollte die imgrunde phänomenologische Quantenmechanik ähnlich auf klassische Mechanik zurückführen, wie Boltzmann es bei der ebenfalls zunächst rein phänomenologischen Thermodynamik vorexerziert hatte (vgl. Abschnitt 1.a.), aber bei diesem Versuch hat Einstein ähnlich wie vor ihm Boltzmann den Weg zur primordialen, orgon-energetischen Ebene aufgetan. Durch seine Anregung wurde schließlich bewiesen, daß der Welle-Teilchen-Dualismus nicht weiter reduzierbar ist, sondern eine letzte Gegebenheit darstellt: die orgonotische Kreiselwelle (KRW).

Die Rede ist vom viel diskutierten "EPR-Problem", das 1935 von Einstein und seinen beiden Schülern Podolsky und Rosen formuliert wurde. Es ging darum, daß ein Quantenteilchen bei seiner Freisetzung einen beliebig exakten Wert für Ort oder Impuls "hinterläßt" und man, nachdem das Teilchen autonom geworden ist, die komplementäre Größe (Impuls oder Ort) des Teilchens mit beliebiger Genauigkeit messen kann und somit bewiesen sei, daß die Quantenmechanik unvollständig ist und im Geiste Boltzmanns einer tiefergehenden rein mechanischen Erklärung bedürfe. Dagegen wandten Bohr, Heisenberg und ihre Mitstreiter ein, daß die Situation grundlegend anders sei: messe ich am Punkt A etwa den Impuls, setze ich damit instantan das damit verschränkte ("konjugierte") Meßergebnis am beliebig weit entfernten Punkt B fest.

Daraus folgt, daß die Quantenmechanik entweder unvollständig ist oder, wie Einstein triumphierend konstatierte, man absurderweise so etwas wie eine geisterhafte Fernwirkung akzeptieren müsse, die beliebig weit getrennte Quantenobjekte instantan miteinander verbindet. Spätestens seit 1982 wissen wir, daß tatsächlich die zweite Alternative die korrekte war! Damals konnte Aspect dank des technischen und auch theoretischen Fortschritts auf der Grundlage von Einsteins Gedankenexperiment einen Versuch realisieren, bei dem Atome jeweils korrelierte Photonenpaare in entgegengesetzte Richtungen abstrahlten. Die Photonen wurden durch Polarisationsfilter geschickt und ihr Verhalten registriert. Die Daten wertete man nach der "Bellschen Ungleichung" von 1964 aus, die es ermöglicht, zwischen einer "lokalen" mechanischen und einer "nicht-lokalen" (also "geisterhaften") quantenmechanischen Realität zu unterscheiden. Wie nachträglich aus der Analyse des Gruppenverhaltens zu erschließen war, verhielten sich, entgegen Einsteins ursprünglicher Annahme, die Photonenpaare auch nach ihrer Trennung noch wie ein "geisterhaftes" Teilchen und das auch dann, wenn der Zustand eines Partners nach der Trennung verändert wurde. Es lag also aus Sicht der Quanten gar keine wirkliche Trennung vor oder anders gesagt: korrelierte Quantenobjekte werden durch den Raum nicht separiert ("Nicht-Lokalität"). Was auf den Tunneleffekt verweist und darauf, daß es imgrunde unsinnig ist, von Quanten-Teilchen zu sprechen.

Immerhin hätte Einstein einwenden können, daß seine Behauptung von der Unvollständigkeit der Quantenmechanik durchaus nicht ein für allemal ad acta gelegt sei, da es sich bei der Bellschen Ungleichung doch nur um statistische Vorhersagen handeln würde, die prinzipiell immer noch einer Erklärung im Sinne Boltzmanns zugänglich seien, d.h. die Quantenmechanik doch nur eine statistische und keine grundlegende Theorie sei, wie er ja auch immer behauptet habe. Dieser letzte Ausweg für "EPR" wurde erst durch "GHZ" geschlossen: Greenberger, Horne und Zeilinger (GHZ) haben 1989 theoretisch und 2000 experimentell gezeigt, daß bei Verschränkung von mehr als zwei Teilchen der Widerspruch zur klassischen Physik nicht nur eine Frage statistischer Korrelationen ist, sondern bereits eine Korrelation zum Widerspruch führt, d.h. eine einzige Messung ausreicht, um Nicht-Lokalität nachzuweisen (19).

Nichtlokalität kann nicht nur hinsichtlich des Raumes, sondern bei jeder physikalischen Größe auftreten. Auch in der Zeit existieren Quantenvorgänge nur als Ganzheit, d.h. sie sind nicht in zeitlicher Abfolge unterteilbar. Dieser letzte Punkt macht ein Teilchen-Konzept überhaupt erst konsistent, wie in Abschnitt 1.c. im Zusammenhang mit dem "energetischen" Einwand gegen Boltzmanns Atomtheorie deutlich wurde. Gleichzeitig zeigt sich, daß Plancks Quanten, im Gegensatz zu Boltzmanns Atomen, Ganzheiten nicht zerteilen, sondern, wie bereits in Abschnitt 3.b. erwähnt, ganz im Gegenteil Teilchen zu untrennbaren funktionellen Ganzheiten vereinigen.

 

4.c. Das "Quantenpotential"

Vereinzelt gab es Quantenmechaniker, die die Quantenwellenfunktion mit einem konzeptionellen Äquivalent von Reichs Orgonenergie verglichen haben. Der Amerikaner Fred Alan Wolf, Professor für theoretische Physik, ist meines Wissens jedoch der einzige, der sie unumwunden mit Reichs Orgonenergie gleichgesetzt hat. Beide seien jeweils:

  1. masselos, d.h. ohne Trägheit und Gewicht;
  2. allgegenwärtig (wenn auch nicht überall in gleicher Menge), auch im leeren Raum;
  3. das Medium aller elektromagnetischen und gravitativen Aktivität, die Grundlage jeglicher Bewegung;
  4. in ständiger Bewegung und unter speziellen Umständen beobachtbar (Orgonenergie), bzw. unter allen Umständen unbeobachtbar, außer als ein Wahrscheinlichkeitsmuster (Wellenfunktion);
  5. fähig, gegen das Entropiegesetz zu verstoßen (hohe Orgonenergie-Konzentrationen ziehen niedrige Konzentrationen an, während sich Quantenwellenfunktionen aus interagierenden Systemen vereinigen und korrelierte Systeme bilden); und
  6. beide seien fähig, Einheiten zu formen, darunter Zellen, Pflanzen, Tiere, aber auch Wolken, Planeten, Sterne und Galaxien (18:63f).

Leider wird diese Gleichsetzung in dem Zusammenhang, in dem Wolf sie präsentiert, recht fragwürdig, denn Wolf ist Anhänger von dem in Abschnitt 3.c. erwähnten Wigner, der an die unabhängige Existenz des Bewußtseins glaubt, das die Quantenwellenfunktion "kollabieren" läßt.

Bereits 1959 brachte Heisenberg in seinem Buch über Physik und Philosophie eine Interpretation der Quantenmechanik vor, die an die Orgonenergie erinnert. Nach Heisenberg war die Quantenwellenfunktion "so etwas wie eine Tendenz zu einem bestimmten Geschehen. Sie bedeutete die quantitative Fassung des alten Begriffs der 'Dynamis' oder 'Potentia' in der Philosophie des Aristoteles. Sie führte eine merkwürdige Art von physikalischer Realität ein, die etwa in der Mitte zwischen Möglichkeit und Wirklichkeit steht" (6:23). Heisenberg schreibt weiter: "Die Materie des Aristoteles ist sicher nicht ein bestimmter Stoff wie etwa Wasser und Luft, und sie ist auch nicht einfach der Raum; sie ist gewissermaßen ein unbestimmtes körperliches Substrat, das die Möglichkeit in sich enthält, durch die Form in die Aktualität, in das Faktische überzugehen" (6:137f). Daß Heisenbergs Vorstellung konzeptionell nur einen Schritt von der Orgonenergie entfernt ist, zeigt seine Gleichsetzung der Aristotelischen "Potentia" mit dem heutigen Energiebegriff (6:151).(14) Praktisch heißt dies nichts anderes, als daß für Heisenberg die Quantenwellenfunktion die Verkörperung einer "immateriellen Energie" oder mit anderen Worten eine "massefreie Energie" ist.

Heisenbergs philosophische (nicht etwa physikalische) Interpretation der Quantenwellenfunktion läßt sich konzeptionell bis auf Schrödinger selbst zurückverfolgen, der sich heftig gegen Borns statistische Deutung seiner Wellengleichung wehrte, ohne daß Schrödinger selbst ihr physikalisch viel entgegenhalten konnte. Bereits 1925 hatte de Broglie seine Materiewelle als reale "Führungswelle" aufgefaßt, diese Theorie aber bald wieder fallen lassen müssen, weil von Neumann 1932 "nachwies", daß eine solche Theorie unmöglich mit der Quantenmechanik in Einklang zu bringen sei. Erst 1966 zeigte Bell, daß von Neumanns mathematischer Beweis nicht nur einfach falsch, sondern, wie Bell sich ausdrückt, "schwachsinnig" war (5:222).

Trotz von Neumanns "Beweis" hatte Bohm bereits 1951 de Broglies Ansatz wieder aufgegriffen und als "verborgenes Parameter" den "wahren Teilchenort" und eine zusätzliche "quantenmechanische Kraft" bzw. ein "Quantenpotential" eingeführt, das ähnlich wie Newtons Gravitation instantan getrennte Systeme miteinander verbindet und dergestalt für zwei und mehr Teilchen "Nichtlokalität" herstellt. Problem ist, daß hier die Quantenphysik mit Hilfe eines klassischen Feldes erklärt werden soll, womit wir wieder bei der Ultraviolettkatastrophe landen (4:147). Wie in Abschnitt 1.b. angedeutet, kann dieser Teufelskreis erst mit der Orgonenergie durchbrochen werden, die wegen ihres negentropischen Charakters nicht selbst quantisiert sein muß, um der Ultraviolettkatastrophe Einhalt zu gebieten.

Im Journal of Orgonomy hat Thomas Nieborowski versucht, Quantenphysik und Orgonphysik mittels des Bohmschen Quantenpotentials zu verbinden, muß am Ende seines Aufsatzes aber zugeben, daß es z.B. keine erkennbare Beziehung zum ORANUR-Phänomen gäbe (10). Doch, wie wir in Abschnitt 5.c. sehen werden, drängt sich genau diese Verbindung geradezu auf, wenn man nicht, wie Einstein und sein Schüler Bohm, zur klassischen Feldphysik zurückkehrt, so als hätte sich das Problem der Ultraviolettkatastrophe nie gestellt.

 

 

5. Orgonphysik

5.a. Die Kreiselwelle

In der sich rosettenartig fortpflanzenden orgonotischen Kreiselwelle (siehe Abb. 11 im ersten Kapitel von "Orgonometrie") wechseln sich eine expansive Welle und eine kontraktile "pulsartige" bzw. "teilchenartige" Schleife ständig ab. Betrachten wir die Welt der Quantenteilchen, etwa das "Spin" und sogar die Plancksche Wirkungskonstante selbst, die Heisenbergsche Unbestimmtheitsrelation und nicht zuletzt den von Einstein und de Broglie beschriebenen Welle-Teilchen-Dualismus, finden wir das entsprechende "KRW-artige" Verhalten.

Zunächst zum Drehimpuls ("Eigendrehimpuls") von Quantenteilchen zu dem auch die Polarisation der Photonen gehört, der wir in Abschnitt 4.a. und Abschnitt 4.b. begegnet sind: Natürlich hat noch niemand etwa ein Elektron sich drehen sehen - und das wird auch niemals möglich sein. Aber das Spin, das für eine bestimmte Quantenzahl steht, mit der Quantenobjekte gekennzeichnet werden, um ihr Verhalten (z.B. den "Zeeman-Effekt") erklären zu können, läßt sich noch am ehesten als eine Art (natürlich gequantelter) "Eigenbewegung" interpretieren und in dieser Hinsicht bietet sich der Drehimpuls an, da sich das Spin bei Raumspiegelung wie ein Drehimpuls verhält. Man könnte jedoch ebensogut eine Zitterbewegung, aber auch eine Spiralbewegung und sogar eine Art "Kreiselwelle" in die Daten hineininterpretieren. Ohnehin verweist der Fachbegriff "Spin" ("Schwung") unmittelbar auf die KRW (vgl. 16:133).

Bereits Einsteins "Lichtquantentheorie" hat einen deutlichen Bezug zur KRW. Planck hatte die Energie einer Lichtwelle nicht, wie es die klassische Physik gefordert hätte, mit der Schwingungsamplitude (je höher eine Wasserwelle desto energiereicher ist sie), sondern stattdessen mit der Schwingungsfrequenz verknüpft und mußte dazu eine Konstante einführen, die, wie in Abschnitt 2.b. erläutert wurde, von der Dimension her identisch mit einem Drehimpuls ist. Damals machte diese Gleichung intuitiv wenig bis gar keinen Sinn und auch heute ist sie imgrunde unerklärlich, denn hier ist die Energie nicht von der Größe der "Störung" (der Amplitude) abhängig, sondern davon, wie häufig sie erfolgt (Frequenz). Erst wenn man die Plancksche Gleichung von der KRW her betrachtet, zeigt sich ihre innere Logik: "die Abfolge von (Dreh-Im-) Pulsen".

Planck und Einstein hatten bewiesen, daß die Energie eines Teilchens der Frequenz und damit einer Welleneigenschaft äquivalent ist. Ein Vierteljahrhundert später zeigte de Broglie das gleiche hinsichtlich Impuls und Wellenlänge. Beides, Frequenz (Energie) und Wellenlänge (Impuls), sind im Sinne der Heisenbergschen Unbestimmtheitsrelation desto besser definiert, je länger der Wellenzug mit seinem ständigen Auf und Ab ist. Der Zeitpunkt und die genaue Lage eines Ereignisses ist hingegen am besten durch einen möglichst kurzen Wellenzug, ideal einem einzelnen Energiepuls, definiert. Auf diese Weise verbirgt sich hinter der Unbestimmtheitsrelation der funktionelle Gegensatz bzw. die funktionelle Verschränkung von Welle und Puls in der KRW.

Ganz offensichtlich steckt die Kreiselwelle hinter dem Dualismus von Welle und Teilchen in der Quantenmechanik. Reich selbst hat versucht, den Welle-Teilchen-Dualismus und damit die Quantenphänomene dadurch zu erklären, daß er die Quantenteilchen mit der KRW gleichsetzte (14). Zwar wurde er durch die in Abschnitt 4.a. beschriebenen Exprimente bestätigt, aber ist diese Gleichsetzung, die bei (ruhe-) masselosen Photonen noch vertretbar ist (7), auch auf Elektronen, Neutronen, Atome oder gar Moleküle übertragbar, die, wie in Abschnitt 3.a. erläutert, dem Doppelspaltversuch unterzogen werden? Man kann im Quantenbereich nicht im üblichen Sinne von "Teilchen" sprechen, da sich die "Quantenteilchen" noch nicht ganz aus dem Orgonenergie-Hintergrund gelöst haben und entsprechend sich noch "orgonenergie-artig" verhalten.

 

5.b. Der Orgonenergie-Hintergrund

In ihrem Wechsel von "verschmierten Wellen" und "punkthaften Pulsen" ist die orgonotische Kreiselwelle sozusagen "phasengequetscht", d.h. während die Amplitude verschwommen bleibt, ist die Phase wohldefiniert. Diese Gewichtung schlägt sich im Doppelspaltexperiment nieder. Die Interferenzmuster stehen dafür, daß sich die Wellen symmetrisch ausbreiten. Da das Interferenzmuster nicht von der absoluten Schwingungsphase, sondern nur von den Unterschieden der Phasen abhängt, wird es immer zum gleichen Muster kommen, solange die Verschiebung bei beiden Wellenfronten gleich ist. Das bedeutet, die Symmetrie wird nicht gestört, wenn man die Wellenfronten, bzw. ihre "Phase", verschiebt.

Diese "Phaseninvarianz" spielt in der Elementarteilchenphysik eine zentrale Rolle. Schickt man beispielsweise Elektronen durch den Doppelspalt und sorgt dafür, daß die Phasenverschiebung nur eine der beiden Elektronenwellen-Fronten betreffen würde, etwa indem eine Abschirmplatte hinter einen der beiden Spalten gestellt wird, würde sich das Interferenzmuster verändern und "unsymmetrisch" werden. Bei Elektronenwellen kann man entsprechende Veränderungen im Interferenzmuster auch erzeugen, indem man einen Magneten in die Mitte zwischen die beiden Spalten plaziert. Der Punkt ist nun, daß ein solches Magnetfeld die Störung des Interferenzmusters, die durch die erwähnte Abschirmplatte hervorgerufen wurde, kompensieren und so von neuem Phaseninvarianz (und damit "Symmetrie") herstellen kann. (In Abschnitt 5.c. kommen wir auf diesen zentralen Punkt zurück.)

Die "Eichinvarianz", die von derartigen symmetrie-herstellenden "Eichfeldern" (in diesem Fall das Magnetfeld) geschaffen wird, bildet den konzeptionellen Kern der Elementarteilchenphysik. Nehmen wir beispielsweise mal an, wir wissen nichts über den Elektromagnetismus und schicken Elektronen durch den Doppelspalt. Rufen wir dann eine lokale Phasenverschiebung hervor, bleibt uns zur Wiederherstellung der Phaseninvarianz nur die Postulierung des uns unbekannten Eichfeldes "Magnetismus", das die Verschiebung kompensieren kann.

Auf ähnliche Weise versuchen die Elementarteilchenphysiker nach dem Elektromagnetismus auch die Kernkräfte zu erklären. Das einzige, was uns an diesen komplizierten Theorien, die weltweit sowieso nur einige Hundert Menschen wirklich durchschauen, interessiert, ist ihre Verbindung mit dem Doppelspaltexperiment. Dies zeigt nämlich, daß der berühmte "Elementarteilchen-Zoo" und die Ordnungsmuster, die man in ihm ausgemacht hat, auf eine ganz ähnliche Weise wie die eigentliche Quantenmechanik eine Manifestation der strukturierenden und ordnenden Kraft der kosmischen Orgonenergie und ihrer charakteristischen Kreiselwellen-Bewegung ist.

Noch augenfälliger wird die Verbindung von Elementarteilchenphysik und Orgonenergie angesichts des Problems der Abschirmung. Beispielsweise kommt es in dem soeben diskutierten Fall auch dann zu einer Phasenverschiebung, wenn das magnetische Feld abgeschirmt wird. Das heißt die Elektronen werden durch die bloße Präsenz eines magnetischen Potentials beeinflußt, das in der klassischen Physik kaum mehr ist als ein mathematisches Hilfskonstrukt, obwohl sie gar nicht direkt mit dem magnetischen Feld in Berührung kommen ("Aharonov-Bohm-Effekt").

Aus Sicht der Quantenphysik erweist es sich generell als praktisch unmöglich, elektromagnetische Felder abzuschirmen, d.h. ein "Vakuum" herzustellen. Beseitigt man alle Atome aus einem Behälter, bleibt die Wärmestrahlung zurück. Doch auch die läßt sich nicht abstellen, wenn man versucht, das System auf den absoluten Nullpunkt abzukühlen, denn bei dem ist immer noch die "Nullpunktsstrahlung" vorhanden - und die würde auch "ohne Wände" vorliegen. Nach der Unbestimmtheitsrelation dürfen Ort und Impuls nicht gleichzeitig genau festgelegt sein, was aber bei einer Feldstärke von Null gegeben wäre. Funktionell entspricht das der eingangs erwähnten "Verschwommenheit" der Amplitude, bzw. der in Abschnitt 3.c. erwähnten Wahrscheinlichkeitsamplitude, die die Intensität des Feldes bzw. die Anzahl der Feldquanten angibt. Es ist, als wäre der Raum selbst ein physikalisch wirksames Kontinuum und würde sozusagen "strahlen" bzw. (entsprechend der "Wahrscheinlichkeitsamplitude") von "virtuellen Teilchen" brodeln.

Diese "Vakuumenergie" wird beispielsweise im 1948 von Casimir postulierten und 1958 von Sparnaay im Labor nachgewiesenen "Casimir-Effekt" evident, der an den "Orgonenergie-Akkumulator-Effekt" erinnert (12). Zwei ungeladene Metallplatten, die, durch einen sehr kleinen Abstand getrennt, sich parallel gegenüberstehen, werden im vollkommenen Vakuum bis zum absoluten Nullpunkt abgekühlt (was beides natürlich nur annähernd erreichbar ist). Das Spektrum der übrigbleibenden Nullpunktsstrahlung wird zwischen den Metallplatten eingeschränkt, wodurch die beiden Platten vom umgebenden "uneingeschränkten" Medium gegeneinander gepreßt werden. Die Kraft, mit der dies geschieht, ist dafür, daß sie "aus dem Nichts kommt", beachtlich.

Mit dem Kontinuum des Raumes stehen wir erneut vor einer Ultraviolettkatastrophe, denn wenn wir ein klassisches Feld quanteln ("Quantenfeldtheorie"), entsprechen den unendlich vielen Freiheitsgraden des Kontinuums in jedem denkbaren Bereich des leeren (d.h. materie-freien) Raumes "Vakuumfluktuationen" aus "virtuellen Teilchen" (beispielsweise Elektron-Positron-Paare, die aus "dem Nichts" hervorquellen und wieder zerstrahlen), was aber nichts anderes bedeutet, als daß das Kontinuum des Vakuums eine unendlich große Energiedichte besitzt! Im Rahmen der "Quantenelektrodynamik" (der Quantenfeldtheorie der elektromagnetischen Wechselwirkung) wird diese Katastrophe durch "Renormierung" verhindert, was nicht vielmehr bedeutet, als daß man die Unendlichkeiten aus den Gleichungen streicht, und so zu den gemessenen Werten kommt.

Was die physikalische Interpretation betrifft, kann man vielleicht am ehesten daran denken, daß im Gegensatz zum abstrakten, mathematischen Raum der wirkliche, physikalische Raum selbst strukturiert, d.h. nicht unendlich teilbar ist. Aber was immer sich auch hinter dem mathematisch absurden Gleichsetzen von Unendlich mit Null verbergen mag: die Quantenelektrodynamik ist die bisher numerisch exakteste Betrachtungsweise in der heutigen Physik. Mit ihrer Hilfe beschreibt sie alles in Natur und Technik (außer der Gravitation und den Vorgängen im Atomkern). Das ist um so bemerkenswerter, als die Quantenelektrodynamik imgrunde eine Theorie des "Quantenvakuums" ist.

Daß das brodelnde Energiemeer der Quantenelektrodynamik mit dem Orgonenergie-Ozean identisch sein muß, läßt sich auch an Reichs Vorstellung der Lichtausbreitung ablesen; es sei ein lokales Erstrahlungsphänomen (13). Ganz ähnlich sieht das die Quantenelektrodynamik, nach der sich die elektromagnetischen Wellen im Vakuum nicht frei ausbreiten können, da dieses mit den erwähnten virtuellen Elektron-Positron-Paaren angefüllt ist, die die elektromagnetischen Wellen (in einer Art "Delbrück-Streuung") streuen und so für das verantwortlich sind, was wir als "Licht" bezeichnen. Das Problem ist nur, daß man sozusagen "das Vakuum nicht leeren kann", um so die Behinderung des "nackten" Lichts durch das Vakuum messen zu können (3). Hier wäre ein weites Forschungsfeld, denn Reich hat es mit der Erfindung des Orgonenergie-Akkumulators und des DOR-Busters möglich gemacht, die "Dichte des Vakuums" (die natürlich identisch mit der Dichte der Orgonenergie ist) und damit die "Erstrahlung des Vakuums" zu verändern.

 

5.c. ORANUR

Da die meisten Sterne hauptsächlich sichtbares Licht emittieren, wird das Universum von diesem Strahlenbereich beherrscht. Es ist also alles andere als "anthropozentrisch", wenn das elektromagnetische Spektrum des optischen Bereichs als "natürlich" bezeichnet wird. Dieses sichtbare Licht entsteht dadurch, daß in der Atomhülle aus den äußeren Schalen Elektronen herausgehoben werden und wieder zurückfallen. Diese minimale Gleichgewichtsstörung wird in Form eines verhältnismäßig energiearmen Photons an die Umwelt wieder zurückgegeben. Zum Beispiel ist das bei den gewöhnlichen Glühbirnen mit ihren leuchtenden Wolframfäden der Fall.

Wie wir in Abschnitt 2.a. anhand der "Schwarzkörperstrahlung" und der "Ultraviolettkatastrophe" gesehen haben, kann durch "konventionelles" Erhitzen, d.h. ein Erhitzen, wie es sozusagen "in Küche und Chemielabor" üblich ist, keine hochenergetische Strahlung freiwerden (vgl. Erstrahlung, Überlagerung und Relativität). Ganz anders ist die Situation bei Beleuchtungsystemen, in denen Gase zum Leuchten angeregt werden: hier kommt es buchstäblich zu einer "Ultraviolettkatastrophe". Bei Leuchtstoffröhren und Energiesparlampen treten hochenergetische Elektronen aus der Kathode aus. Sie treffen auf Quecksilberatome und schleudern deren innere Hüllenelektronen in höhere Bahnen. Beim Zurückfallen in ihre ursprüngliche tiefliegende Bahn wird die aufgenommene Stoßenergie in Form von unsichtbarer ultravioletter Strahlung abgegeben, die wiederum die äußeren Hüllenelektronen der Atome der Leuchtstoffbeschichtung dazu anregt, sichtbares Licht abzustrahlen.

Durch technische Manipulationen werden dergestalt jene Schleusen geöffnet, die normalerweise garantieren, daß die Atome in der Lage sind, die "Freiheitsgrade" so einzuschränken, daß eine geordnete Struktur der Materie und damit der Strahlungsfelder erhalten bleibt. Je näher wir zum Kern kommen, desto härter wird die Strahlung - sozusagen desto "radioaktiver" oder "nuklearer".(15) Diese unnatürliche Strahlung, die von kernnahen Elektronenbahnen oder vom Kern selbst ausgeht, hat Reich als nuclear radiation (NUR) bezeichnet und gegen die natürliche Orgonenergie (OR) gestellt: OR Against NUR = ORANUR.

Obwohl die gängigen Laser aus technischen Gründen nur "gemäßigte" Frequenzen abstrahlen, sind sie trotzdem starke ORANUR-Quellen, weil dieses Licht nicht aus intakten "Boltzmannschen Atomen" mit einer "Boltzmann-Verteilung" der Elektronen in der Atomhülle kommt, sondern aus Atomen mit einer "inversen Verteilung". Laserlicht entsteht, wenn in den Atomen des "Lasermediums" künstlich eine "Besetzungsinversion" erzeugt wird, d.h. die höheren Energieniveaus der Atomhüllen sind stärker mit Elektronen belegt als die niederen. Die Atome stehen damit energetisch sozusagen "auf dem Kopf" und können ihre Funktion, eine "Boltzmannsche Ordnung" sicherzustellen, nicht mehr erfüllen.

Und was die energiearme Strahlung im Bereich der Mikro-, Radar- und Radiowellen betrifft: sie ist keineswegs harmloser, denn sie entsteht ebenfalls infolge der Zerstörung der "Boltzmannschen Atome", nämlich dann, wenn Elektronen aus ihrem natürlichen Schwingungsverband, den strahlungsfreien Boltzmannschen Atomen, herausgerissen und stattdessen innerhalb von Leitern in Schwingung versetzt und so künstlich zur Strahlung angeregt werden (vgl. dazu Abschnitt 2.b.).

Egal, wie nuclear radiation (NUR) entsteht, ob nun in "guten" Energiesparlampen, in bösen Kernkraftwerken oder anderen Segnungen unserer Zivilisation, sie steht für eine "Ultraviolettkatastrophe": die Blotzmannschen Atome werden "im Kern" angegriffen. Wenn dergestalt die materiellen Sicherheitsvorkehrungen gegen die Ultraviolettkatastrophe zusammenzubrechen drohen, versucht das Orgonenergie-Kontinuum den Kollaps der natürlichen Boltzmannschen Ordnung energetisch aufzufangen, indem sie selbst materieartig und "hart" wird, sozusagen "radioaktiv". Das kommt beispielsweise dadurch zum Ausdruck, daß ORANUR mit der chaotischen Wärmebewegung (Brownschen Bewegung, vgl. Abschnitt 2.3.) funktionell identisch ist. Wenn man die Bewegung der Orgonenergie-Einheiten in der Atmosphäre beobachtet, wird dies unmittelbar evident. Daß die Gleichsetzung von Brownscher Bewegung und ORANUR mehr ist als eine bloße Analogie, wird auch im Rückblick auf die vorangehenden Abschnitte deutlich, in denen gezeigt wurde, daß die "atomare" Struktur von Materie, wie sie von der Quantenmechanik beschrieben wurde, aus der "freiheitsgrade-einschränkenden" Struktur der Orgonenergie hervorgegangen ist. Versagt nun die atomare Struktur der Materie, d.h. kann sie ihre orgon-energetische Funktion "für Ordnung zu sorgen", nicht mehr erfüllen, muß die Orgonenergie selbst in jeder Hinsicht "atomar" entarten.

Was würde aber geschehen, wenn es den energetischen Schutzmechanismus "ORANUR" oder gar den materiellen Schutzmechanismus "Atome" nicht geben würde? Es würde sich das ereignen, was am Ende einer jeden erfolglosen ORANUR-Reaktion steht: die Orgonenergie würde absterben und zu DOR werden, d.h. das Universum würde in einem alles erstickenden "haltlosen" Kontinuum versinken.

Abschließend wollen wir nochmals auf einen Punkt aus Abschnitt 5.b. zurückkommen: die "Eichinvarianz", die die Elementarteilchen erklärt, und die Störung dieser Invarianz. Starke Orgonenergie-Felder, wie sie im ORANUR-Experiment auftraten, könnten durchaus durch Störung der "Eichfelder" die Ordnung und innere Struktur der Elementarteilchen so verändern, daß jene "ORUR-Effekte" auftreten, die Reich beschrieben hat. Nachdem Reich 1951 im ORANUR-Experiment Radium-Nadeln, wie sie damals in der Krebstherapie verwendet wurden, einer starken Orgonenergie-Konzentration ausgesetzt hatte (was in der Atmosphäre den beschriebenen "ORANUR-Effekt" auslöste) und sie in einem Safe, der sie von der Umwelt abschirmen sollte, aber ganz im Gegenteil wie ein schwacher Orgonenergie-Akkumulator wirkte, ungewollt weiter behandelt hatte, entdeckte er 1954, daß das bestrahlte Radium keine Radioaktivität mehr emittierte. Offensichtlich hatte sich das Kernmaterial mit konzentrierter Orgonenergie förmlich "vollgesogen" und dergestalt in eine Art "Orgonmaterial" verwandelt ("ORUR"), das extrem empfindlich auf die Orgonenergie in seiner Umgebung reagierte und vice versa, insbesondere wenn das ORUR durch die Nähe von vermeintlich "abschirmendem" Metall in einen Erregungszustand versetzt wurde (15, 16, siehe auch Robert McCulloughs Erinnerungen an Reich).

 

 

Zusammenfassung

Sowohl die Materie (Atomkerne und Atomhüllen) als auch die Strahlung (Elektromagnetismus) und vielleicht sogar der Raum selbst bilden keine Kontinua, sondern sind sozusagen "körnig". Ohne diese "nicht-klassische" Struktur (Orgonomisches Potential), die durch eine kleinstmögliche Wirkung (das Plancksche Wirkungsquantum) bestimmt wird, würde die Natur an den Gesetzen der klassischen Physik (Mechanik, Thermodynamik und Elektrodynamik) buchstäblich zugrundegehen (mechanisches Potential).

Daß diese "körnige Struktur" tatsächlich auf den Funktionsgesetzen der Orgonenergie beruht, sieht man daran, daß der Dualismus von Welle und Teilchen in jeder Beziehung an die Kreiselwelle, d.h. die charakteristische Funktionsweise der Orgonenergie, erinnert. Die innige Verschränkung dieser beiden Grundfunktionen der kosmischen Orgonenergie zeigt sich in der Unbestimmtheitsrelation, der damit zusammenhängenden Nicht-Lokalität (EPR und GHZ) und den diversen Versionen des Doppelspaltversuchs. Nicht von ungefähr stellt die Interferenz, d.h. das Hervorgehen "teilchenartiger" Struktur aus "kontinuierlichen" Wellen, den Schlüssel zum Verständnis der Physik der vermeintlichen "Elementarteilchen" und "Atome" dar.

 

 

 

Literatur

  1. Afshar, S.S.: http://users.rowan.edu/~afshar
  2. Coveney, P., R. Highfield: Anti-Chaos, Reinbek 1992
  3. Genz, H.: Die Entdeckung des Nichts, München 1994
  4. Görnitz, Th.: Quanten sind anders, Heidelberg 1999
  5. Gribbin, J.: Schrödingers Kätzchen und die Suche nach der Wirklichkeit, Frankfurt 1996
  6. Heisenberg, W.: Physik und Philosophie, Stuttgart 1978
  7. Konia, C.: "An Investigation into the Orgonotic Properties of Light" The Journal of Orgonomy, Vol. 34(1), Spring/Summer 2000
  8. Lange, F.A.: Geschichte des Materialismus (Bd. 1), Frankfurt 1974
  9. Lucadou, W.v.: Psyche und Chaos, Frankfurt 1995 (bis auf den Titel identisch mit Psi-Phänomene, Frankfurt 1997)
  10. Nieborowski, T.: "Quantum Physics and Orgone Physics" The Journal of Orgonomy, Vol. 34(1), Spring/Summer 2000
  11. Nimtz, G., A. Haibel: Tunneleffekt - Räume ohne Zeit, Weinheim 2004
  12. N.N.: "The Orgone Energy Continuum" The Journal of Orgonomy, Vol. 31(2), Fall/Winter 1997
  13. Reich, W.: Äther, Gott und Teufel, Frankfurt 1983
  14. Reich, W.: "Orgonomic Functions in Non-Living Nature" Orgonomic Functionalism, Vol. 6, 1994
  15. Reich, W.: Das ORANUR-Experiment (I), Frankfurt 1997
  16. Reich, W.: Das ORANUR-Experiment (II), Frankfurt 1997
  17. Röthlein, B.: Die Quantenrevolution, München 2004
  18. Wolf, F.A.: Körper, Geist und neue Physik, München 1989
  19. Zeilinger, A.: Die neue Welt der Quantenphysik, München 2003

 

 


Fußnoten

(1) Auch die Relativitätstheorie ist eine "unphysikalische" Abstraktion (Erstrahlung, Überlagerung und Relativität).

(2) Daß Planck mit der Maxwell-Boltzmann-Statistik zu einem richtigen Ergebnis kam, war ein glücklicher Zufall, denn an sich hätte er die erst viel später entwickelte quantenmechanische Bose-Einstein-Statistik benutzen, d.h. die Schwarzkörperstrahlung als ein "Photonengas" behandeln müssen.

(3) In diesem Zusammenhang fühlt man sich unwillkürlich an die antike Naturphilosophie erinnert, die ebenfalls mit einer "Ultraviolettkatastrophe" zu kämpfen hatte. Bei Lukrez sind die Körper aus unzerstörbaren Atomen zusammengesetzt, die er "Anfänge", principia oder primordia rerum nennt. "Die Teilbarkeit ins Unendliche ist unmöglich, denn da sich jedes Ding leichter und schneller auflöst als bildet, so würde im Lauf unendlicher Zeit die Zerstörung so weit gegangen sein, daß die Wiederherstellung der Dinge nicht erfolgen könnte. Nur weil die Teilbarkeit eine Grenze hat, werden die Dinge erhalten. Auch würde die Teilbarkeit ins Unendliche die Gesetzmäßigkeit in der Erzeugung der Wesen aufheben, da, wenn nicht unveränderliche kleinste Teile zugrunde liegen, alles ohne feste Regel und Folge entstehen könnte" (8:108).

(4) Vor Boltzmann waren die Atome (jedenfalls für Physiker) rein spekulative Größen, was aus ihm eine Art "Geisterseher" machte.

(5) Bezeichnenderweise ist es in der Quantenphysik generell zweckmäßiger statt das Wirkungsquantum "h" selbst, h geteilt durch die Kreiszahl 2 Pi zu betrachten, "h-quer".

(6) Was hier über Atome gesagt wird, gilt annähernd auch für Moleküle und sogar Atomkerne.

(7) Tatsächlich kann man, wie bereits erwähnt, erst seit 1986 die Photonen-Emission einzelner Atome betrachten. Dies gewährleistet, daß wirklich jeweils nur ein einziges Photon die Versuchsanordnung durchläuft (5:169f).

(8) Hier wird schlaglichtartig deutlich, wie der diskontinuierliche Quantenaspekt unlösbar mit dem kontinuierlichen Wellenaspekt verbunden ist. In Abschnitt 5.a. werden wir zeigen, inwiefern dies auf die orgonotische Kreiselwelle (KRW) verweist, d.h. den funktionellen Gegensatz und die funktionelle Einheit von Welle und Puls.

(9) Die Diplomphysikerin und Wissenschaftsjournalistin Brigitte Röthlein schreibt in ihrem Buch Die Quantenrevolution, daß, wenn man beispielsweise Elektronen durch den Doppelspalt schickt, sie sich wie Teilchen verhalten, solange man sie beobachtet. "Schaut man während des Fluges aber nicht hin, verhalten sie sich wie eine Welle. Dies erinnert fatal an die Vielzahl von Gespenstergeschichten, bei denen die Erscheinung immer genau in dem Augenblick auftaucht, wenn die Kamera kaputt ist oder kein Film drin war. Aber immer dann, wenn die Kamera bereitsteht, ist weit und breit kein Gespenst zu sehen. Wissenschaftler lächeln darüber und halten es für eine faule Ausrede derjenigen, die einer Sinnestäuschung aufgesessen sind. In der Physik, so sagen sie, gibt es das nicht: Dort muß man alles, was behauptet wird, auch mit einem experimentellen Nachweis belegen können. Aber hier [in der Quantenphysik] benehmen sich Elektronen wie Teilchen oder wie Wellen? Es kann ja wohl kein ernst zunehmendes physikalisches Gesetz geben, das besagt, daß sie sich hinter unserem Rücken wie eine Welle verhalten, aber in dem Augenblick, wo wir genau hinschauen, werden sie zu Teilchen? So verrückt es klingen mag: Genau so ist es aber" (17:31f).

(10) Die Zeit-Energie-Unbestimmtheit wurde erst nachträglich von Bohr eingeführt und ist eine rein formale Entsprechung der Ort-Impuls-Unbestimmtheit. Bei der Zeit-Energie-Unbestimmtheit muß bedacht werden, daß die Zeit in der Quantenmechanik keine Meßgröße ist, ähnlich wie in der klassischen Mechanik "absolut" abläuft und keiner Wahrscheinlichkeitsverteilung unterworfen ist. Da diese Unbestimmtheitsrelation dergestalt nur Verwirrung stiftet, soll sie in diesem Aufsatz keine Rolle spielen.

(11) Statt von "Lage und Impuls" kann man, da die Masse konstant bleibt, ebensogut auch von "Lage und Geschwindigkeit" sprechen.

(12) Wie fragwürdig die Dekohärenz-Theorie aus orgonomischer Sicht ist, wird angesichts von Reichs Entdeckung des Orgonenergie-Akkumulator-Prinzips deutlich: 1940 versuchte er die Strahlung, die SAPA-Bione emittierten, von der Umgebung zu isolieren. Dazu baute er, konventionellen schulphysikalischen Überlegungen folgend, einen Container aus Stahl, den er mit Isoliermaterial umgab. Es stellte sich jedoch heraus, daß dieses Behältnis nicht isoliert, sondern akkumuliert. Noch heute, 60 Jahre später, tappt die Schulphysik im Dunkeln. So schreibt der bedeutende Quantenphysiker Anton Zeilinger im Zusammenhang mit "Schrödingers Katze", man könne eine Koppelung dieses Quantensystems mit der Umwelt und die damit einhergehende "Dekohärenz" verhindern, indem man sie so in eine Stahlkammer einschließe, "daß die Außenhaut der Kammer eine exzellente Isolation darstellt. Insbesondere wäre es wohl möglich sicherzustellen, daß von diesem gesamten System keinerlei Wärmestrahlung nach außen abgegeben wird. Das kann man im Prinzip dadurch erreichen, daß man eine sehr gute Wärmeisolation anbringt (...). Auf diese Weise kann man sicherstellen, daß der gesamte Behälter mit dem darin enthaltenen Lebewesen in keinerlei Wechselwirkungen mit der Umgebung tritt" (19:102). Auf die fatale Rolle der vermeintlichen "Abschirmung" kommen wir in Abschnitt 5.c. zurück.

(13) Zwar tritt in diesem Experiment kein Interferenzmuster auf, aber man kann das "Tunneln" als eine Art "Interferenz" interpretieren, d.h. Wellen strukturieren den Raum: etwas ist gleichzeitig hier und dort, während der Zwischenraum leer bleibt. (Ein Teilchen, das eine Hürde durchtunnelt, tut dies instantan und es ist unmöglich, es im "Tunnel" zu registrieren [11].) So gesehen sind auch die Atomhüllen, bei denen Elektronen zwischen den Schalen hin und her springen, ohne den Zwischenraum zu durchqueren, eine Art "Interferenzmuster" (vgl. Abschnitt 2.b.). Man betrachte dazu die "wellenmechanischen Bilder" der diversen Anregungszustände von Atomhüllen.

(14) "Die Energie ist tatsächlich der Stoff, aus dem alle Elementarteilchen, alle Atome und daher überhaupt alle Dinge gemacht sind, und gleichzeitig ist die Energie auch das Bewegende. Die Energie ist eine Substanz, denn ihr gesamter Betrag ändert sich nicht, und die Elementarteilchen können tatsächlich aus dieser Substanz gemacht werden, wie man es in vielen Experimenten über die Entstehung von Elementarteilchen sehen kann. Die Energie kann sich in Bewegung, in Wärme, in Licht und in Spannung verwandeln. Die Energie kann als Ursache für alle Veränderungen in der Welt angesehen werden" (6:47).

(15) Diese Begriffe sind durchaus angebracht, denn es gibt fließende Übergänge. Beispielsweise wandelt sich das Quecksilberisotop 197 durch sogenannten "K-Einfang" in das Goldisotop 197 um, dabei fängt ein Kernproton ein Elektron der innersten Schale der Atomhülle, der "K-Schale", ein und wird dadurch zu einem Neutron. Die Lücke, die das Elektron in der K-Schale hinterläßt, wird durch ein nachrückendes Elektron aus einer der äußeren Schalen wieder aufgefüllt, wobei Röntgenstrahlung freigesetzt wird. (Nicht zu verwechseln mit der Röntgenbremsstrahlung, die entsteht, wenn das Kathoden-Elektron auf ein Atom trifft und sich der plötzliche Verlust von kinetischer Energie direkt in Röntgenstrahlung umsetzt.)


zuletzt geändert
19.10.06

 

 


zurück zur vorherigen Seite weiter zur nächsten Seite

 

 

Copyright © 1997 - 2013
Peter Nasselstein