Der Unterschied zwischen der Zensur der Medien in Diktaturen und der Pressefreiheit in den Demokratien besteht darin, dass die Zensur in den Diktaturen unbestritten ist.

                               Der CO2 - Skandal

Die Demonstrationen der "Letzten Generation" ließen sich leicht vermeiden, wenn es die Bundesregierung ermöglichen würde. der Bevölkerung mitzuteilen, dass wissenschaftlich unstrittig nachgewiesen ist, dass CO2 nicht für die derzeitige Erderwärmung verantwortlich ist. Siehe auch die Begründung weiter unten.

Darüber hinaus würden auch die Aktivitäten der "Friday for Future" eingestellt, wenn die Physiklehrer entsprechend dem Lehrplan für Physik der Oberstufen, ihren Schülern die drei Hauptsätze der Wärmelehre erklären würden, denn die Vermittlung von Lehrninhalten gehört schließlich zu ihren Hauptaufgaben. Ansonsten  müssten die Demonstrationen in "Friday for Stupids" umbenannt werden.

Interessant wäre es auch, wenn die frühere Umweltministerin und spätere Klimakanzlerin,  Frau Dr. Angela Merkel, eine diplomierte und promovierte

Physikerin, der Öffentlichkeit erklären würde, warum sie die physikalischen Gesetze ignoriert und sich für die falschen Behauptungen der Ideologen eingesetzt hat, unter denen wir heute leiden.

                                                                                      Ende des Klimatextes

********************************************************************************************************************

                    Kosmologie: Warum der Urknall eine unhaltbare Theorie ist..

********************************************************************************************************************

Friday for Stupids!

Da die Physiklehrer ganz offensichtlich nicht die Dienstordnung befolgen, ist zu überprüfen, ob hier nicht der Tatbestand der Arbeitsverweigerung zum Schaden der Bevölkerung vorliegt.

           Allgemeine Dienstordnung für Lehrer und Lehrerinnen, Schulleiter und Schulleiterinnen an

                                                          öffentlichen Schulen (ADO)      

  1. Es gehört zum Beruf der Lehrer und Lehrerinnen, in eigener Verantwortung und pädagogischer Freiheit die Schüler und Schülerinnen zu erziehen, zu unterrichten, zu beraten und zu beurteilen. Dabei ist der Bildungs- und Erziehungsauftrag der Schulen nach Verfassung und Schulgesetzen zu beachten.

 

Würden die Schüler entsprechend der oben angeführten Dienstordnung unter­rich­tet, Beweis weiter unten, würden sich die Schüler auch nicht von interessierten Kreisen miss­brauchen lassen.

Der wissenschaftliche Beweis,

dass CO2 nicht für den Klimawandel verantwortlich ist.

Eine Blamage sowohl für die Medien, die Politiker und das Bildungswesen.

Würde die Öffentlichkeit seriös informiert und würden die Schüler pflichtgemäß unterrichtet, gäbe es keinen „Friday for Future“. So ist aber die Bezeichnung irreführend, denn es handelt sich in Wahrheit, um einen „Friday for Stupids“.

Aus diesem Grunde sind der Emissionshandel mit CO2 Zertifikaten und die beabsichtigte CO2 Steuer ein Schildbürgerstreich. Man kann nur hoffen, dass durch Gerichtsentscheide dieser grobe und in jeder Beziehung schädliche Unfug verboten wird. So kann allein schon aus formalen Gründen eigentlich keine CO2 Steuer erhoben werden, denn in Deutschland gibt es lediglich Verbrauchs-, Aufwands- oder Verkehrssteuern. Zu keiner dieser Kategorien passt nach Einschätzung des wissenschaftlichen Dienstes die CO2 - Steuer. Eine CO2-Emission ist aber "weder der Verbrauch eines Verbrauchsguts" - da CO2 emittiert und nicht verbraucht wird -, es ist aber auch kein Rechts- oder Wirtschaftsvorgang oder der Besitz einer Sache. Wie die Experten schreiben, sieht der Steuertypen­katalog des Grundgesetzes zwar ein "Steuerfindungsrecht, aber gerade kein Steuererfindungsrecht" vor. (MDR.DE Wissenschaftlicher Dienst).

Der Philosoph Professor Dr. Klaus Fischer von der Universität Trier stellte bereits in: Die politische Konstruktion der Universitätskrise - Siebzehn Thesen zu einer merkwürdigen Diskussion.“ (November 1997, 51. Jahrgang, Heft 584, pp 1003-1011) Folgendes fest.

Seine 7. These lautet: „Das deutsche System der Forschungsförderung ist nicht auf das Erkennen des Außergewöhnlichen, sondern auf die Belohnung des konsensfähigen Mittelmaßes angelegt.“

Die These 15 lautet: „Die Zwänge des „peer- reviewing – Systems“ führen zu einer Konvergenz der Meinungen, die nicht durch Fakten und Überzeugungen, sondern von der Notwendigkeit geleitet wird, Verbündete im Kampf um Forschungsmittel zu suchen.“

Es nützte auch nichts, als bereits am 13. März 2001 der US-Präsident George W. Bush erklärt hatte: „I oppose the Kyoto Protocol!“, da er nicht an die CO2 – Lüge glaubte. Damit löste er kurzzeitig einigen Wirbel aus. So schrieb das als Organ der Deutschen Wirtschaft geltende Handelsblatt am 27. März 2001: „Bush dreht die Uhr beim Klimaschutz zurück“ und die Börsenzeitung schrieb in ihrer Thomas-Gebert-Kolumne voller Optimismus: „Der Irrsinn hat ein Ende ….. .Jedenfalls hat Georg Bush, der in einer Unterschriftenaktion von 31.487 amerikanischen Wissenschaftlern genau dazu aufgefordert worden ist, uns vor einer riesigen Dummheit bewahrt und uns allen viele hundert Milliarden Dollar eingespart. Bravo, George!“

Global Warming Petition Project

31,487 American scientists have signed this petition,
including 9,029 with PhDs

Bereits 2001 wurden von drei deutschen Behörden, nämlich der Bundes­anstalt für Geowissen­schaften und Rohstoffe in Hannover (eine nachgeordnete Behörde des Bundes­wirt­schafts­ministeriums), dem  Institut für Geowissenschaftliche Gemein­schafts­aufgaben und dem Niedersächsi­schen Landesamt für Boden-forschung, die Erkenntnisse ihrer  wissenschaftlichen Mitarbeiter durch die Autoren U​lrich Berner und Hansjörg Streif in Buchform auf 238 Seiten dargelegt und veröffentlicht. Die Wissenschaftler dieser Behörden  kamen im Hinblick auf den Zusammenhang zwischen der Zunahme des Treibhaus­gases CO2 und der Erderwärmung in den letzten 150 Jahre zu der Schlußfolgerung, dass „die beobachteten Temperaturanstiege bzw. -abnahmen ohne Bezug zu CO2 erfolgten.“ Das Buch erschien 2001 im Stuttgarter Fachverlag E. Schweizerbart unter dem Titel „Klimafakten. Der Rückblick - Ein Schlüssel für die Zukunft“.

Der Verlag schreibt zu dem Buch: Wenige Themen nehmen heute in Politik und Medien ähnlich breiten Raum ein wie Klima - Klimaänderungen - Klimakatastrophen. Meist geht es dabei um mögliche Aus­wirkungen menschlicher Eingriffe in das Klimasystem. Oft unterschätzt man allerdings das Ausmaß und die Dynamik natürlicher Klimaschwankungen. Rückblickend auf die Erdgeschichte legen Geowissen­schaftler im vorliegenden Sachbuch ihr umfangreiches Wissen über das Klima vergangener Zeiten vor. Aus den hinterlassenen Gesteinen, dem Grundwasser und dem Eis großer Gletscher gewinnen sie eine Fülle von Informationen, wie z.B. über Wassertemperaturen ehemaliger Ozeane, die Luftfeuchtigkeit bzw. Trockenheit untergegangener Kontinente oder die Gaszu­sammen­setzung einer früheren Atmosphäre. Dieser Rückblick ist gleichzeitig auch ein Schlüssel für die Zukunft, weil er eine Bewertung der verschiedenen im Klimasystem wirksamen Faktoren erlaubt. Hervorzuheben ist dabei, dass nicht das oft zitierte Kohlendioxid bestimmender Faktor des Klima­geschehens ist. Vielmehr treibt die Sonne wie ein Motor die klimawirksamen Prozesse in der Atmosphäre, den Ozeanen und in der Biosphäre an. Zahlreiche Belege aus der Natur sprechen für eine wahre "Achterbahnfahrt" des Klimas durch die Erdgeschichte. Wer mehr zum Thema Klima erfahren möchte, findet in diesem Buch umfassende, auch dem Laien verständliche Informationen. In anregender Form sprechen die Autoren offene Fragen an und vermitteln neue Denkanstöße. Erstmalig wird hier aus der Sicht der Geowissenschaft Stellung zur aktuellen Klimadiskussion bezogen. Mit dem hier vorgelegten, erheblich erweiterten Hintergrundwissen sind viele bisher getroffene Aussagen zum Thema Mensch und Klima höchst kritisch zu bewerten.“

Auch beim 58. Nobel Laureate Treffen in Lindau vom 29.06. - 04.07.2008 wurde durch den Vortrag des Klimaforschers von Dr. David Evans auf Grund fundierter Forschungsergebnisse der Nachweis erbracht, dass CO2 – nicht für die derzeitige Klimaerwärmung verantwort­lich ist, wie interessierte Kreise glaubhaft machen wollen.

In seinem Vortrag „No smoking hot spot“ führte Dr. David Evans damals aus, dass die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grönland bezeugen, dass Temperaturerhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg des CO2 - Niveaus. Der späte Anstieg der CO2 - Werte beruhe darauf, dass sich die Erdatmosphäre schneller erwärmt, als das Wasser in den Meeren. Wenn sich Wasser erwärmt, wird das im Wasser gelöste CO2 freigesetzt und an die Erdatmosphäre abgegeben. Wenn sich die Atmosphäre zu einem späteren Zeitpunkt wieder abkühlt, kühlt sich entsprechend später das Wasser der Meere wieder ab und CO2 löst sich wieder aus der Erdatmosphäre. Der CO2 - Wert in der Erdatmosphäre sinkt folglich auch. Das sagt eigentlich alles über Ursache und Wirkung!

Die Öffentlichkeit und unsere Politiker kennen offensichtlich nicht die maßgebenden Zusammenhänge und Fakten: Denn keiner der von Dr. Evans erwähnten Punkte ist umstritten. Selbst die Klimaalarmisten stimmen ihnen zu, bezweifeln aber ihre Bedeutung.

Eine offene Diskussion zu diesem Thema wurde in den letzten 18 Jahren zu keinem Zeitpunkt geführt, die Öffentlichkeit wurde gebetsmühlenhaft von allen Medien und Parteien einseitig informiert und mit Panikmache, statt Durchsetzung gesicherter seriöser und effektiver Maßnahmen, riesige Geldsummen „verbrannt“. 

Selbst das Bundesministerium für Bildung und Forschung stellte fest.

Kurz wir haben Zustände wie zur Zeit der Inquisition, allerdings ist die Vorgehensweise optimiert worden und weltweit wird die Menschheit indoktriniert. Dabei lässt sich allein mit dem gesunden Menschenverstand nachweisen, dass CO2 nicht für die Klimaerwärmung verantwortlich sein kann.

Es wundert mich, warum in Deutschland offensichtlich die Physiklehrer nicht ihren Pflichten nachkommen und auch kein Kultusministerium seiner Fachaufsicht nachkommt. Stattdessen verurteilt man die Protestbewegung der Schüler. Wenn die Schüler im Unterricht mit den Gesetzen der Thermodynamik vertraut gemacht worden wären, wären sie auch nicht auf die Straße gegangen. Bei der Protestbewegung „Friday for Future“ handelt es sich deshalb um “Friday for Stupids“, weil Medien, Politiker und Lehrer sträflich versagt haben. Offensichtlich wird von der Bundesregierung der § 5 des Grundgesetzes nur als Absichtserklärung verstanden, denn ansonsten hätten schon längst juristische Schritte gegen diese Indoktrinierung der Bevölkerung unternommen werden müssen.

Zurzeit werden 419 ppm CO2 in der Erdatmosphäre nachgewiesen. Das bedeutet in Zahlen, dass auf 100.000 Luftmoleküle 41,9 CO2 Moleküle kommen. Eine derart geringe Zahl an dem Spurenelement CO2 kann weder eine geschlossene CO2 Schicht bilden, wie die Scheiben in einem Gewächshaus, noch besitzen sie eine derartige „Heizkraft“ mit den re-reflektierten Infrarotstrahlen des Erdbodens um die Atmosphäre zu erwärmen.

Die Erde nimmt Strahlungsenergie von der Sonne auf und reflektiert einen Teil der Strahlungs­energie in Form von langwelligerer Wärmestrahlung in den Weltraum. Die einzelnen CO2 Moleküle sind sporadisch in der Erdatmosphäre verstreut und absorbie­ren einen geringen Teil dieser Erdwärme­strahlung, um sie dann erneut nach allen Seiten abzugeben. Das bedeutet, dass lediglich weniger als die Hälfte dieser aufgenomme­nen geringen Wärmeenergie überhaupt erneut zur Erde re-reflektiert wird.

CO2 kann mangels geeigneter Absorptionslinien das atmosphärische „Strahlungs­fenster“ nicht schließen und hat daher keinen Einfluss auf das Wetter, auf das Klima! Anders formuliert: Es ist physikalisch unmöglich, dass ein „Schwarzer Körper“, der kontinuierlich über ein breites Wellenlängenspektrum Energie abstrahlt, von einer atmosphärischen Gashülle, die nur selektiv, vereinzelt und diskret Strahlung absorbiert, an seiner Abkühlung gehindert, geschweige denn erwärmt werden könnte.

Meteorologisches Elementarwissen: Die tagsüber vom Erdboden aufgenommene Energie entschwindet nachts bei klarem Himmel unsichtbar und ungehindert „direkt“ mittels „Temperaturstrahlung“ wieder in den Weltraum. Insbesondere die CO2 -Moleküle mit ihren besonderen stoffspezifischen Absorptions­banden bei 2,8 m, 4,5 m und 15 m, die so unabänderlich und charakteristisch sind wie ein menschlicher „Fingerabdruck“, haben auf den täglichen Temperaturverlauf keinen Einfluss, weil sie das „offene Strahlungs­fenster“ zwischen 7 m und 13 m nicht schließen können. Dies würde auch dann gelten, wenn die Erde von einer reinen CO2 -Atmosphäre umgeben wäre. Es kann also aus rein physikalischen Axiomen heraus keinen wie auch immer gearteten „Wärmestau“ unter dem fiktiven „Glasdach“ in 6 km Höhe geben. Der „Treibhaus­effekt“ ist eine pure Erfindung interessierter Kreise, die Mathematiker beauftragten, für ihre Interessen geeignete Klimamodelle zu errechnen. Mathematiker rechnen „Wenn“ > „Dann“.

Man kann deshalb durch entsprechende Vorgaben ein erwünschtes Ergebnis mathematisch konstruieren. Sind aber die Vorgaben falsch, kann das Ergebnis nicht richtig sein. Deshalb fordern seriöse Wissenschaftler, dass mathematische Berechnungen mit der Realität abgeglichen werden müssen. Selbst wenn man die Atmosphäre wegdenken und wie dereinst Svante Arrhenius bei seiner „Eiszeithypo­these“ 1896 rein modelltheoretisch annehmen würde, dass der gesamte CO2-Gehalt der Atmosphäre wie ein „Schwarzer Körper“ in 6 km Höhe die Erde umhülle, selbst dann kann es keinen „Treibhauseffekt“ geben, denn die -18 C kalte „Kohlendioxidschicht“ würde mit einer Leistung von 240 W/m2 die Erde „anstrahlen“, während die +15 C warme Erde permanent Energie in der Größenordnung von  390 W/m2 abstrahlen würde. Der 2. Hauptsatz der Thermodynamik lässt prinzipiell nicht zu, dass Wärme von kalt nach warm fließt. Das gasförmige CO2 als „Treibhausgas“ zu bezeichnen, welches wie ein „Glasdach“ in einem Gewächshaus die Wärmestrahlung „reflektiert“ und am Ent­weichen in den Weltraum hindert, ist physikalisch unhaltbar. Auch Gewächshäuser kühlen nachts aus und müssen im Winter beheizt werden. Zur Strahlungsabsorption in diesem Bereich stellte bereits im März 1989 die Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ in ihrem Zwischenbericht physikalisch korrekt fest: „Die Gase in der Atmosphäre absorbieren die Infrarot-Strahlung der Erdoberfläche in den meisten Spektralbereichen stark, in einigen dagegen nur geringfügig, wie etwa im Spektral­bereich 7 bis 13 m. In diesem Bereich stammt der größte Anteil der IR-Strahlung von der Erdoberfläche. Er wird als „offenes atmosphärisches Strahlungs­fenster“ bezeichnet, da hier am wenigsten Wasserdampf- und CO2-Absorption stattfindet. 70 % bis 90 % der Abstrahlung von der Erde gelangen hier direkt in den Weltraum.“

Enquete-Kommissionen sind vom Deutschen Bundestag oder einem Landesparlament eingesetzte überfraktionelle Arbeitsgruppen, die umfangreiche und bedeutsame Sachkomplexe lösen sollen, in denen unter­schiedliche rechtliche, wirtschaftliche, soziale oder ethische Aspekte abgewogen werden müssen.

Bei wolkenlosem Himmel entweichen 70 % bis 90 % der im Erdboden gespeicherten Wärme ungehindert ins Weltall und im „Idealfall“ werden rein hypothetisch 10 % bis 30 % von den „Treibhausgasen“ absorbiert, um dann zur Erde „re-emittiert“ zu werden.

Eine „Erwärmung“ der Erde über die eigene wieder reflektierte Energie ist deshalb völlig ausgeschlossen! Damit bricht die Hypothese, die Erhöhung des CO2-Gehaltes in der Atmosphäre würde eine „Erderwärmung“ hervorrufen und eine „Klimakatastrophe“ zur Folge haben, die nur durch eine drastische Reduzierung der „CO2 -Emissionen“ verhindert werden könnte, in sich zusammen. Deshalb sind der Handel mit Emissionszertifikaten und die Besteuerung von CO2 – Ausstoß ein ungeheuerlicher und willkürlicher Eingriff in die Wirtschaftspolitik, ganz davon abgesehen, dass ein nicht vom Menschen verursachter Klimawandel völlig andere Maßnahmen zur Vermeidung klima­bedingter Schäden bedarf.

Aber schon Jesus, immerhin der Sohn Gottes, des Schöpfers dieser Welt, sagte: „Ein Prophet gilt nirgends weniger als in seinem Vaterland und in seinem Hause." Mt. 13,57, und Friedrich Schiller lässt Talbot in „Die Jungfrau von Orleans“ sagen: „Unsinn, du siegst und ich muss untergehn! Mit der Dummheit kämpfen Götter selbst vergebens.“

Wenn es nicht gelingen wird, durch Gerichtsentscheide die verhängnisvolle Klimalüge zu verbieten, wird es der Weltwirtschaft wie Talbot ergehen, denn selbst die öffentliche - rechtlichen Rundfunk- und Fernsehanstalten kommen ihrem Auftrag nicht nach.

 

Debatte im Bundestag - Schulze wirbt für Klimapaket.

Datum: 25.10.2019 11:42 Uhr

 

Der Bundestag hat in Berlin unter falschen Behauptungen mit den Beratungen der Gesetze zum Klimaschutz begonnen, die zu riesigen Fehlinvestitionen und einer falschen Ausrichtung der Energiepolitik führen werden.

Bundesumweltministerin Svenja Schulze (SPD) sagte, sie verstehe junge Menschen, die weiter auf den Straßen protestierten, und ihre Angst vor der Erderhitzung. Sie könne aber auch die Menschen verstehen, die sich existenzielle Sorgen machten über all die Veränderungen und um ihren Arbeitsplatz und den schnellen Wandel.

Diese ganze, zum Teil emotionsgeladenen aber von Fachkenntnis ungetrübte Debatte könnte man sich ebenso wie die Verunsicherung der Bevölkerung ersparen, wenn man die Bevölkerung nicht mit Fake News verunsichern, sondern über die gesicherten Fakten seriöser Wissenschaftler informieren würde.

Unter derÜberschrift: Schülerin, Klimaschützerin, globale Ikone:

                                                                 Das ist Greta Thunberg: Swyrl.tv

wird der Leser informiert, dass Greta Thunberg väterlicherseits weitläufig mit Svante August Arrhenius verwandt sei, der 1903 als erster Schwede den Nobelpreis gewann. Unglaublich, aber wahr: Der Urahn der Klimaschützerin forschte tatsächlich über Treibhausgase und war der erste Wissenschaftler, der vorhersagte, dass der CO2 – Ausstoß der Menschheit zu globaler Erwärmung führen werde. (Hulton Archive / Getty Images) und damit begann die verhängnisvolle Entwicklung mit der wir es heute zu tun haben:

 

Die Theorie von Arrhenius wurde nur eine kurze Zeit, nämlich zwischen 1896 und Anfang des 20. Jh. ernsthaft diskutiert und 1909 durch den amerikanischen Physiker Robert W. Wood widerlegt. Die Theorie wurde erst Jahrzehnte später wieder neu aufgegriffen, um sie als Argument für den Bau von Atomreaktoren und gegen die Reaktorgegner zu verwenden. Fest steht ferner: Ein Zusammenhang zwischen einer Verdopplung im CO2 - Gehalt der Erdatmosphäre, gefolgt von globalen Temperatur­veränderungen von einigen Grad ist ein rein mathe­matisches Konstrukt, für das es in der Realität keine Bestätigung gibt und auch nicht geben kann. Der Grund ist, dass Mathematiker grundsätzlich rechnen: „Wenn“ > „Dann“. Durch entsprechende Vorgaben, lässt sich auf jedes beliebige Ergebnis hinrechnen. Deshalb wird von der seriösen Wissenschaft stets ein Abgleich der mathematischen Ergebnisse mit der Realität gefordert.

Die 1896 von dem schwedischen Physiker Svante Arrhenius aufgestellte „Treibhaus-Theorie“ wurde bereits 1909 von dem amerikanischen Physiker Robert W. Wood widerlegt. Es gibt keinen „Treibhaus-Effekt“ in der Erd­atmosphäre! Noch 1959 konnte man im „FRANCKE Lexikon der Physik“ nachlesen: „CO2 als Klimagas ist bedeutungslos“. Erst in den 60ger Jahren des vorigen Jahrhunderts wurde, wie bereits erwähnt, plötzlich CO2 als Argument gegen die Atomkraftgegner in dem luftver­schmutzten Ruhrgebiet zum Klimagas proklamiert. Diese Luftverschnuzung wurde aber nicht durch CO2 sondern die Schadstoffaustoßungen der Industrie und dem steigenden Verbrennen von fossilen Energien verursacht. Hier laufen also zwei völlig voneinander unabhängige Prozesse ab. Unstrittig erhöht sich die Temperatur der Erdatmosphäre und unstrittig ist, dass der CO2 – Gehalt der Atmosphäre umso stärker ansteigt, je mehr fossile Energien verbrannt werden. Schließlich optimiert die Bundesregierung auch nicht die Biotope für Störche, um den Geburtenrückgang zu beheben. Es gilt also Zusammenhänge zu erkennen und nicht willkürlich Behauptungen unter das Volk zu bringen. Als dann der „saure Regen“ zu weiteren Umweltschäden führte, wurden erste Gegenmaßnahmen ergriffen aber CO2 – weiterhin in Verruf gebracht. Für Medien eine gute Einnahmequelle durch verbreiten von Ängsten und von Politikern, um von den Problemen mit den Atomkraftwerken abzulenken. So wurden wissenschaftliche Erkenntnisse, die die Volksverdummung gestört hätten nicht veröffentlicht und die Forschungsgelder nur an Einrichtungen vergeben, die weitgehend den gewünschten Mainstream unterstützten. Statt der angeblich anthropogen verursachten Klima­erwärmung handelte es sich in Wirklichkeit um eine mediogene und politogene Fehlinformation.  

Entsprechend erarbeitet das Potsdamer-Institut für Klimaforschung, das unsere Bundes­kanzlerin über die angebliche Klimaerwärmung durch CO2 berät, die gewünschten Ergebnisse und ignoriert Naturgesetze, wie den 2. Hauptsatz der Thermodynamik und ignoriert gesicherte Fakten. Mit Simulationsberechnungen, bei denen man willkürlich Werte einsetzen kann, um das gewünschte Ergebnis zu erhalten, werden gesicherte wissenschaftliche Erkenntnisse ignoriert und durch das Peer reviewing Verfahren werden unerwünschte Erkenntnisse unterdrück bzw. totgeschwiegen und in der Öffentlichkeit der Eindruck erweckt, dass die Berichte der Medien und die Argumente der Politiker dem aktuellen wissenschaftlichen Stand entsprechen. So schreibt Stefan Rahmstorf unter anderem: „ Erst seit den 50ger Jahren des vorigen Jahrhunderts wird die Gefahr einer anthropo­genen (also vom Menschen verursachten) Erwärmung ernst genommen. Im Rahmen des internationalen geophysikalischen Jahres (IGY) 1957/58 gelang der Nachweis, dass die CO2 – Konzentration der Atmosphäre tatsächlich ansteigt. Die ersten Simulations­rechnungen mit einem Atmosphärenmodell in den 60ger Jahren ergaben einen Temperaturanstieg von 2 Grad Celsius für eine Verdoppelung der CO2 – Konzentration. In den 70ger Jahren warnte mit der National Academy of Sciences der USA erstmals eine Wissen­schaftsorganisation vor der globalen Erwärmung; die Wirkung einer CO2 - Verdoppelung wurde auf 1,5 - 4,5 Grad Celsius abgeschätzt. Diese Unsicherheitsspanne gilt unverändert bis heute.“ Ende des Zitates.

Eine derartige Behauptung ist nicht das Papier wert, auf der sie geschrieben steht. Statistisch ist das eine „No go!“ Aussage. Aber die anthropogene Klimaerwärmung ist politisch gewollt und dann wird das auch durchgezogen, obwohl z.B. bereits 2001 von drei deutschen Behörden, nämlich der Bundes­anstalt für Geowissenschaften und Rohstoffe in Hannover (eine nachgeordnete Behörde des Bundes­wirt­schafts­ministeriums), dem  Institut für Geowissenschaftliche Gemein­schafts­aufgaben und dem Niedersächsi­schen Landesamt für Bodenforschung, die Erkenntnisse ihrer  wissen­schaftlichen Mitarbeiter durch die Autoren Ulrich Berner und  Hansjörg Streif in Buchform auf 238 Seiten dargelegt und veröffentlicht wurden. Die Wissenschaftler dieser Behörden kamen im Hinblick auf den Zusammenhang zwischen der Zunahme des Treibhaus­gases CO2 und der Erderwärmung in den letzten 150 Jahre zu der Schlussfolgerung, dass „die beobachteten Temperatur­anstiege bzw. -abnahmen ohne Bezug zu CO2 erfolgten.“ Das Buch erschien 2001 im Stuttgarter Fachverlag E. Schweizerbart unter dem Titel „Klimafakten. Der Rückblick - Ein Schlüssel für die Zukunft“.

Der Verlag schreibt zu dem Buch: Wenige Themen nehmen heute in Politik und Medien ähnlich breiten Raum ein wie Klima - Klimaänderungen - Klimakatastrophen. Meist geht es dabei um mögliche Aus­wirkungen menschlicher Eingriffe in das Klimasystem. Oft unterschätzt man allerdings das Ausmaß und die Dynamik natürlicher Klimaschwankungen. Rückblickend auf die Erdgeschichte legen Geowissen­schaftler im vorliegenden Sachbuch ihr umfangreiches Wissen über das Klima vergangener Zeiten vor. Aus den hinterlassenen Gesteinen, dem Grundwasser und dem Eis großer Gletscher gewinnen sie eine Fülle von Informationen, wie z.B. über Wassertemperaturen ehemaliger Ozeane, die Luftfeuchtigkeit bzw. Trockenheit untergegangener Kontinente oder die Gaszu­sammen­setzung einer früheren Atmosphäre. Dieser Rückblick ist gleichzeitig auch ein Schlüssel für die Zukunft, weil er eine Bewertung der verschiedenen im Klimasystem wirksamen Faktoren erlaubt. Hervorzuheben ist dabei, dass nicht das oft zitierte Kohlendioxid bestimmender Faktor des Klima­geschehens ist. Vielmehr treibt die Sonne wie ein Motor die klimawirksamen Prozesse in der Atmosphäre, den Ozeanen und in der Biosphäre an. Zahlreiche Belege aus der Natur sprechen für eine wahre "Achterbahnfahrt" des Klimas durch die Erdgeschichte. Wer mehr zum Thema Klima erfahren möchte, findet in diesem Buch umfassende, auch dem Laien verständliche Informationen. In anregender Form sprechen die Autoren offene Fragen an und vermitteln neue Denkanstöße. Erstmalig wird hier aus der Sicht der Geowissenschaft Stellung zur aktuellen Klimadiskussion bezogen. Mit dem hier vorgelegten, erheblich erweiterten Hintergrundwissen sind viele bisher getroffene Aussagen zum Thema Mensch und Klima höchst kritisch zu bewerten.“ Ende des Zitates

Am 31. August 2017 erschien im Fachblatt Review of Policy Research eine bemerkens­werte Arbeit, in der sich Hannah Rachel Hughes von der Cardiff University und Matthew Paterson von der University of Manchester mit der Zusammensetzung der Autoren der IPCC-Arbeitsgruppe III beschäftigen. Das Resultat der Analyse ist erschreckend: Offenbar kontrolliert eine kleine Gruppe von Autoren und Institutionen den Inhalt der Berichte. Wie robust sind die Klima-Zusammenfassungen also wirklich, wenn eine kleine Clique das Zepter fest in der Hand hält? Hughes und Paterson sehen hier die inhaltliche Ausgewogenheit in Gefahr und stellen die Glaubwürdigkeit der Organi­sation in Frage. Sie befürchten eine Politisierung der Klimawissenschaften, wobei die nüchterne und ergebnis­offene Darstellung auf der Strecke bleibt.

Der emeritierte Physikprofessor, man beachte das Wort „emeritiert“, (offen­sichlich fürchtete er in seinem Berufsleben weitreichende Konsequenzen) Harold Lewis tritt aus der Amerikanischen Physikalischen Gesellschaft aus und bezeichnet die menschlich verursachte Erderwärmung als den „größten und erfolgreichsten pseudowissen­schaftlichen Betrug, den ich während meines langen Lebens gesehen habe.“ In seinem Rücktrittsschreiben gewährt er tiefe Einblicke in die Machenschaften einer durch eine „Flut aus Geldern …korrum­pierten“ Bagage pseudowissenschaftlicher Berufsver­brecher, deren einziges Interesse die Jagd nach Forschungsgeldern und Karriere­möglichkeiten ist.

Der Treibhauseffekt ist seit 1909 als physikalischer Unsinn entlarvt. Sämtliches Geschwätz vom Treibhaus ist als Unfug aufgeflogen. Der Physiker Robert W. Wood hat es widerlegt, weil auch die Physik nichts anderes zulässt. Die Physik kann man nicht austricksen und die sagt, der Treibhauseffekt hat noch nie existiert und es gibt nur eine Physik.

Die Physiker Gerlich/Tscheuschner haben übrigens ebenfalls die Erkenntnisse von Prof. Wood und das "Woodsche Experiment" aus dunkler Vergangenheit wieder ans Licht gebracht und bestätigt, dass CO2  kein Treibhausgas ist und die Behaup­tung der Medien und der Politiker gegen den 2. Hauptsatz des Thermodynamik Gesetzes verstoßen.

Deshalb ist es wichtig noch einmal festzustellen, das IPCC (Intergovernmental Panel on Climate Change, auch Weltklimarat genannt), ist eine politische Institution, die Berichte zusammenträgt und in den sog. „IPCC Assessment Reports“ veröffentlicht. Es betreibt selbst keine Wissenschaft, sondern hat die Aufgabe, die Ergebnisse der Forschung in den unter­schied­lichsten Fachbereichen zusammenzutragen, insbeson­dere auf dem Gebiet der Klimatologie. Das hat aber nichts mit einer wissenschaftlichen Einrichtung zu tun. Sogenannte Review Editors kontrollieren, ob die Berichte linienkonform sind und auch bleiben. Diese Berichte bilden also die Basis der politischen und „wissenschaftlichen“ Diskussionen über die globale Erwärmung, da andere gesicherte Erkenntnisse totgeschwiegen werden. Wenn also über die Erderwärmung durch CO2 diskutiert wird, ist es zwingend zu erwähnen, ob man gekaufte Behauptungen oder die Erkenntnisse seriöser Wissenschaftler zur Argumentation benutzt.

Dazu ist zu sagen, dass man vor etwa 150 Jahren, als man mit der Aufzeichnung der CO2 Konzentrationen in der Atmosphäre begann, bis heute, der damalige Ausgangswert von 280 ppm auf 419 ppm im Mai 2019 angestiegen ist. Das heißt, in 139 Jahren stieg die CO2 Konzentration um 139 ppm. Um die Größe und Aussagekraft dieser Zahlen zu veranschaulichen, möchte ich darauf hinweisen, was das in Zahlen ausgedrückt bedeutet:

In 100 000 Luftmolekülen sind in 139 Jahren die CO2 Werte von 28 CO2 Molekülen auf 41,9 CO2 Werte angestiegen. Mit diesen CO2 Mengen eine CO2 Schicht aufzubauen, die wie bei den Treibhäusern die Wärme unter einer Glashaube zurückhält, liegt weit jenseits jeder Realität. Wenn es aber in derartigen Treibhäusern ebenso wie in einem in der Sonne geparktem Auto zu heiß wird, braucht man nur die Fenster zu öffnen, um die Temperatur der Umgebungs­temperatur wieder anzugleichen. Logische Konsequenz: Ohne geschlossene CO2 Schicht in der Erdatmosphäre auch keine Klimaerwärmung. Siehe Zweiter Hauptsatz der Wärmelehre.

Zusammenfassung: Jeder logisch denkende Mensch wird sofort erkennen, dass diese CO2 Mengen keine entsprechende CO2 Schicht, aufbauen kann. Diese Schicht ist eine unhaltbare Behauptung des IPCC und wurde bis jetzt auch zu keinem Zeitpunkt nachgewiesen. Das bedeutet, dass die Erdatmosphäre wie die Treibhäuser mit Fenstern, offene Systeme sind und nach dem 2. Haupt­satz der Thermo­dynamik, Erdwärme in das kalte Universum abstrahlt, denn der zweite Hauptsatz der Thermodynamik, auch 2. Hauptsatz der Wärmelehre genannt, macht eine Aussage über die Richtung der Energieübertragung bei Vorgängen in Natur und Technik: Wärme geht niemals von selbst von einem Körper niederer Temperatur zu einem Körper höherer Temperatur über. Wenn man das den Schülern im Unterricht erklären würde, brauchten sie sich nicht zum eigenen Schaden als Helfeshelfer interessierter Kreise missbrauchen lassen. Erschreckend ist bei der ganzen Sachlage, dass offensichtlich auf der ganzen Welt kein Physiklehrer es wagt, den Schülern zu erklären, warum aus physikalischen Gründen 42 CO2 Moleküle unter 100 000 Luftmolekülen keinen Treibhauseffekt erzielen können. Wir haben es folglich mit einem „Friday for Stupids“ zu tun.

Die Riokonferenz zur Nachhaltigkeit von 1992 bereitete den internationalen politi­­schen Boden für den ganzen Unsinn auf Grund wirtschaftlicher Interessen vor, unter aktiver Beteiligung der jetzigen Bundeskanzlerin, der promovierten Physikerin Frau Dr. Merkel, und schon wurde alle Kritik unterdrückt. Ihre Energiegesetzgebung wurde vor allem mit dem „Klimaschutz" begründet und dem Ziel den Atomkraftgegnern den Wind aus den Segeln zu nehmen. Schließlich sollte die konventionelle Energieversorgung nachhaltig zu Gunsten der Atomen­ergie abgebaut werden. Naturgesetze hin, physikalisches Grundwissen her und so wurde der Treibhauseffekt politisch hoffähig und das wissenschaftliche Establish­ment schwieg dienstbeflissen. Nach der Nuklearkatastrophe am 11. März 2011 im japanischen Kernkraftwerk Fukushima kam unsere Bundeskanzlerin innerhalb von 3 Tagen zu völlig neuen Erkenntnissen und beschloss spontan den Ausstieg aus der Kernenergie, obwohl erst kurz zuvor die Laufzeit der Kernkraftwerke verlängert worden war. Anstatt einen sinnvollen und geordneten Rückzug aus der Kernkraft, wurde völlig überstürzt die alternative Energiegewinnung angeordnet. Um die dadurch entstehenden Kosten einigermaßen abzudecken, war es notwendig und wichtig die Angst durch das angebliche Treibhausgas CO2 wieder hochzu­fahren und die öffentlich - rechtlichen Rundfunk- und Fernsehanstalten sorgten für ein entsprechendes Klimabewusstsein in der Bevölkerung, siehe Bericht über Demonstration in Aachen. Hier mussten wieder Polizisten und Polizistinnen, viele davon selber Eltern, ihren Kopf hinhalten, weil ihre Kinder in der Schule nicht gelernt hatten, dass CO2 nicht für die Klimaerwärmung verantwortlich ist.

Die Theorien der Vertreter der Theoretischen Physik über unser Weltbild beruhen auf willkür­lichen Annahmen, der Verliebtheit von Mathematikern in die Eleganz und Symme­trie ihrer Formeln, der Fehlinterpretation von Experi­men­ten und dem Ignorie­ren von Fakten und Naturgesetzen. So postulierte der Mathematiker und Theoretische Physiker Henri Poincaré: „Das Ästhetische ist mehr als das Logische die domi­nieren­de Kompo­nente in der mathema­tischen Kreativität." Paul Dirac, britischer Physiker, Nobelpreisträger und Mitbe­gründer der Quantenphysik, wurde noch deutlicher: „Es ist wichtiger, dass eine Gleichung schön ist, als dass sie mit dem Experiment übereinstimmt." (12. Heft aus der Reihe: Gegenworte, Hefte für den Disput über Wissen - Martin Aigner: „Die pure Eleganz der Mathematik“).

Das kommt einem Offenbarungseid gleich und zeigt, wie gefährlich Mathe­matik in falschen Händen sein kann. Will­kür­lich werden Anfangszu­stände postuliert und Tatsachen verschwie­gen, um Vorher­sagen behaupten zu können, die nichts mit der Realität zu tun haben.

Die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grön­land bezeu­gen, dass Temperatur­erhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg der CO2-Konzentrationen in der Luft. (Dr. Davis Evans, Klima­wissen­schaftler, im „The Australian“ 18. Juli 2008). Der Grund für diese Zeitverzögerung ist die Tatsache, dass sich das Wasser der Weltmeere entsprechend später erwärmt als die Erdatmosphäre. Wenn sich das Wasser schließlich ebenfalls erwärmt, gast es das in ihm gelöste CO2 aus und die CO2 Werte in der Atmosphäre steigen auch nach einem erneuten Absinken der Temperaturen der Erdatmosphäre so lange weiter an, bis sich auch das Wasser der Weltmeere wieder abkühlt und CO2 aus der Atmosphäre wieder im Wasser gelöst wird und die CO2 Werte der Atmosphäre sinken wieder. Dieser Sach­verhalt zeigt, dass der CO2-Anstieg als Folge einer Erderwärmung anzusehen ist und nicht umgekehrt. Diese Fakten besagen eigentlich alles über Ursache und Wirkung. Fakten sind aus wissenschaftlicher Sicht aber das Todesurteil selbst der schönsten Theorie. Hinzu kommt, dass diese Fakten unumstritten sind, wie Dr. Evans ausdrücklich versichert.

Wenn die Physiklehrer nicht schweigen, sondern die Schüler seriös unterrichten würden,

Hätten weder Medien noch Politiker eine Chance, dass sie die Bevölkerung weiterhin falsch informieren, um durch eine CO2 – Besteuerung den Bürgern in die Tasche zu greifen, sowie Banken und anderen Profiteuren die Lizenz zum Gelddrucken zu ermöglichen.

 

           CO2 ist lebensnotwendig und nicht für die Erderwärmung verantwortlich.

 

Dr. Herwig Horst Schmidt

 

 

 

 

 

 

 

 

 

                                                                 Ende der Abhandlung

************************************************************************************************************

                                                                Text zur Homöopathie

            Text zur Klimalüge: CO2 ist nicht für die Klimaerwärmung verantwortlich.

                                                         Die Klimalüge. Inuit belehren westliche Eliten.

Die amerikanische Webseite »Natural News« berichtete, dass die Inuit (zurzeit die Sammelbezeichnung für die Völker Eskimos, Inupiat, Kalaalit, Yupik) sich im letzten Jahr an die NASA gewandt haben. Sie teilten der US-amerikanischen Raumfahrtbehörde mit, dass der Himmel sich geändert habe, viele Dinge sich gewandelt haben und sie vermuten, dass die Erdachse sich ein wenig verschoben haben könnte. Ihre Warnung verhallte bei der NASA ungehört.

Alle Inuitvölker im Polarkreis machen dieselben Beobachtungen. Sie glauben nicht, dass vom Menschen in die Atmosphäre entlassenes CO2 diese Veränderungen hervorrufen kann. Es geht nämlich nicht nur um Klimaveränderungen. Der Lauf der Sonne, ihre Aufgangspunkte und Untergangspunkte, die Stellung der Sterne und die Winde haben sich leicht, aber bemerkbar verschoben. Die Sonne geht im Winter früher auf und später unter. Früher habe es nur eine Stunde Licht im Mittwinter gegeben, heute sind es zwei. Die Tage werden länger und die Sonneneinstrahlung ist wesentlich höher. Sie beobachten die zunehmen­den, schmelzenden Gletscher, die Verbrennungen an den Körpern der Seehunde und die Beschädigungen ihrer Haut. Die Ältesten behaupten, dass die Sonne seit einiger Zeit nicht mehr dort aufgeht, wo sie früher einmal aufging und die Tage wärmer geworden sind und spürbar länger dauern als früher. So ging früher nach der langen Winterpolarnacht die Sonne pünktlich am 13. Januar zum ersten Mal wieder über der grönländischen Stadt Ilulissat auf. Seit 2011 ereignet sich dieser erste Sonnenaufgang im neuen Jahr aber am 11. Januar.

Auch die Sterne und der Mond haben ihre Position am Himmel leicht verändert. Dies alles beeinflusst die Temperaturen, da sind sich die Ältesten der Inuit sicher. Sie haben von ihren Vorfahren wiederum die äußerst feine und aufmerksame Beobachtung der Natur, der Winde, des Himmels, der Sonnenauf- und Untergangspunkte gelernt, weil das für das Überleben dort in der gnadenlosen Eiswüste unabdingbar ist. Die Inuit beobachten all diese feinen Zeichen viel genauer und aufmerksamer und sind unbeeindruckt und unabhängig von einseitigen Medienberichten.

Erdachsverschiebung- die Beobachtung der Inuit - YouTube

 7:03

https://www.youtube.com/watch?v=37RT2u9sA_Q

12.07.2011 - Hochgeladen von conrebbi

Sowohl die Beobachtungen der Inuit vom Jahreswechsel 2010/2011, als auch die Meldung der ...

 

Richtlinien für seriösen Journalismus:

Die Informationen müssen durch Darstellung der wesentlichen Materialien der eigenen Meinungsbildung dienen. Sie dürfen dabei nicht durch Weglassen wichtiger Tatsachen, durch Verfälschung oder durch Suggestiv­methoden die persön­liche Entscheidung zu bestimmen versuchen.

Es ist darauf zu achten, dass gegensätzliche Standpunkte möglichst gleichwertig behandelt werden. Werturteile über Perso­nen und Tatbestände müssen als persönliche oder redaktionelle Meinung zu erkennen sein. Sie haben dem Gebot journalistischer Fairness zu entsprechen.

 

Die Medien und Politiker lügen nicht, sie manipulieren nur die Menschen und korrigieren die Fakten.

 

Die Irrlehre von der Klimaerwärmung durch CO2.

So wie die Inquisition wider besseres Wissen darauf bestand, dass sich die Sonne um die Erde zu drehen hat, weil die Kirche nicht zu kontrollierende Auswirkungen für den Glauben fürchtete, so beharrt unsere Regierung ebenfalls wider besseren Wissens im Interesse bestimmter Wirtschafts­zweige darauf, dass sich das Klima auf unserem Planeten durch steigenden CO2 – Werte in der Atmosphäre als Folge vermehrter Verbrennung fossiler Energiequellen durch den Menschen erwärmt. Die Vorgehensweise der Bundes­regierung gegen die Skeptiker, wie man heute die Ketzer früherer Zeiten nennt, ist zwar nicht so rustikal, dafür aber wesentlich effektiver mit verhängnis­vollen Auswirkungen für unangepasste Wissenschaftler, einer breiten Öffentlichkeit und den ganzen Planeten.

Bereits vor 2400 Jahren hatte der griechische Astronom und Mathematiker Aristarchos von Samos (310-230 v.Chr.) darauf  hingewiesen, dass  die jahreszeitlichen Klimaänderungen auf unserem Planeten allein durch die Neigung der Erdachse auf ihrer Bahn um die Sonne und der dadurch bedingten  unterschiedlich starken Sonneneinstrahlung sowie die Lage der Bahnebene der Erde zur Sonne bei deren Um­rundung hervorgerufen werden. Bis heute wurde die folgenschwere Erkenntnis dieses Genies immer noch nicht ganz verstanden, obwohl inzwischen unstrittig ist, dass seine Argu­men­tation, die Jahreszeiten seien nur durch die Neigung der Erdachse zur Sonne zu erklären, allgemein anerkannt wird. Aber im Interesse der Politik und bestimmter Lobbyisten hat unser Planet nicht zu wackeln oder die Ebene der Umlaufbahn um die Sonne zu verändern. Basta! Das wäre ja auch noch schöner, wenn die Natur machen könnte was sie will. Wie spottete dereinst Albert Einstein? „Wenn die Fakten nicht zur Theorie passen, ändere die Fakten .....!“

Seit mehr als 100 Jahren gehen einige Forscher davon aus, dass das bei der Verbrennung fossiler Brennstoffe freigesetzt CO2, wie auch andere chemische Verbindungen z. B. Methan und Lachgas (Distickstoffmonoxid), zur Klimaerwärmung beitragen kann. Allerdings besitzen diese chemischen Verbindungen ein deutlich höheres Erwärmungspotential als CO2.

Übersicht über wichtige anthropogene Treibhausgase

                                          CO2                 279 ppm                   391 ppm

                                          CH4                 730 ppm                  1803 ppm  

                                          N2O                 270 ppm                   324 ppm

                                                       Vorindustrielle Werte     Werte von 2011

Der Energiehaushalt der Erde besteht aus einer feinen Bilanz kurzwelliger Sonnenstrahlung, die von der Erdoberfläche absorbiert und langwelliger Infrarotstrahlung, die wieder zum Weltall reflektiert wird. Der Treibhauseffekt soll darauf beruhen, dass ein großer Teil dieser Infrarotstrahlung von Molekülen in der Atmosphäre wie etwa CO2 oder Wasserdampf aufgenommen und wieder zur Erde reflektiert wird. Dabei wird verschwiegen, dass Gase die Eigenschaft haben, ausschließlich elektromagnetische Wellen ganz bestimmter Wellenlängen zu „absorbieren“ und wieder abzustrahlen. Eine Eigenschaft, die man bei der Spektralanalyse zur Identifizierung der Gase nutzt, denn jedes Gas absorbiert andere Wellenlängen oder Wellenlängenbereiche, die charakteristisch für dieses Gas sind. Wenn man die Licht- oder Wärmestrahlung angeben will, die absorbiert wird, nennt man die betroffene Wellenlänge bzw. den Weitenlängenbereiche. Diese sind unabhängig von der Temperatur des Gases. CO2 absorbiert Wärmestrahlung in drei Wellenlängenbereichen. Die Absorptionslinien des CO2 entsprechen den Temperaturen +759°C, +369°C und -80° C, also einem winzigen Ausschnitt des gesamten abgestrahlten Spektrums. Aber selbst diese Abstrahlung wird nur zum Teil auf die Erde reflektiert, da die Moleküle nach allen Seiten abstrahlen.

Im November 1957 hatte der Chemiker Keeling begonnen, mit einem neuen Analyse-Gerät den CO2-Gehalt der Luft kontinuierlich zu messen. Seine  Messungen, aus denen sich die berühmte Keeling-Kurve ergab, legten den Grundstein für den Nachweis, dass die CO2-Konzentration in der Luft kontinuierlich ansteigt. Zur gleichen Zeit glaubte man einen Temperaturanstieg der Erdatmosphäre zu beobachten und so schloss man messerscharf, dass dies auf die von Menschen verursachten Emissionen von Treibhausgasen zurück­zu­führen ist, ohne zu überprüpfen, ob nicht eine zufällige Koinzidenz besteht. Wenn sich z. B. jemand eine Zigarette anzündet und gleicheitig ein Unwetter hereinbricht, so muss diesbezüglich kein Zusammenhang bestehen.

1958 lag der CO2-Gehalt der Luft noch bei 315 ppm. Keeling stellte bei seinen Messungen typische jahreszeitliche Schwankungen fest, die durch die Vegetation bedingt sind. Da es auf der nörd­lichen Halbkugel größere Landmassen und deshalb mehr Pflanzen gibt, wird im nördlichen Frühjahr mehr CO2 aufgenommen als im nördlichen Herbst, woraus sich das Zickzackmuster der „Atmung“ ergibt. 1960 veröffentlichte Keeling seine ersten Ergebnisse und wies erstmals auf eine leichte, aber kontinuierliche Zunahme der CO2-Konzentration als Folge der gesteigerten Verbrennung fossiler Brennstoffe durch die Industrie hin. Ohne irgendeinen Beweis zu liefern, behaupteten daraufhin interessierte Kreise, dass die Erderwärmung durch einen auf der Zunahme der CO2 Moleküle beruhenden Treibhauseffekt erfolge. Diese Argumentation ist umso erstaunlicher, als in den letzen 150 Jahren die Zahl der CO2 Moleküle von 238 um 122 Moleküle auf 400 unter einer Million anderer Luftmoleküle, einen Anstieg der Temperatur auf unserem Planeten um 1,5 bis 2 Grad bewirkt haben soll. Für die Klimalobbyisten galt bereits der gleichzeitige Anstieg von CO2 Molekülen und der Temperatur als Beweis, dass CO2 für die Klimaerwärmung verantwortlich ist. Ob ein tatsächlicher Zusammenhang zwischen den gemessenen Werten besteht, wurde nicht überprüft bzw. Kritiker einer derartigen Beweisführung mundtot gemacht. Schließlich galt es die Kritiker der Kernenergie zum Schweigen zu bringen.

Zum scheinbaren Beweis bediente man sich zusätlich käuflicher Wissenschaftler, die dank ihrer Abstraktionen, völlig unauffällig für den Laien, von der Wirklichkeit abheben und über Computer­modelle, die ja das Ergebnis willkürlicher Vorgaben für die Mathematiker sind, die breite Öffentlichkeit täuschen. Man kann also je nach Vorgaben, auf jedes gewünschte Ergebnis hinrechnen.

Margret Thatcher, von Mai 1979 bis November 1990 Premierministerin des Vereinigten Königreichs, nutzte diese Vorgehesweise, um die Atomkraft durchzusetzen und die Bergbaugewerkschaften in Groß­britannien zu zerschlagen. Ferner  erklärte sie CO2 zum Klimagift, obwohl es viele andere Gründe  gegeben hätte, Kohlekraftwerke abzulehnen. Nitrose Gase, Schwefeloxide, Stickstoff­oxide, CO2 und Rußpartikel (Smog) waren damals bereits als Ursache für den sauren Regen, auftretende Atemnot sowie  „Schwarze Wäsche“ und das Land Nordrheinwestfalen als „das Land ohne Sonne“ bekannt. Zwischen­zeitlich wurden all diese Emissionen durch geeignete Filtertechniken, sowie andere chemische und physikalische Maßnahmen stark reduziert, aber CO2 als Klimakiller ließ sich leicht und erfolgreich vermarkten.

Der Philosoph Professor Dr. Klaus Fischer von der Universität Trierstellte  in: Die politische Konstruktion der Universitätskrise - Siebzehn Thesen zu einer merkwürdigen Diskussion.“ (November 1997, 51. Jahrgang, Heft 584, pp 1003-1011) Folgendes fest.

Seine 7. These lautet: „Das deutsche System der Forschungsförderung ist nicht auf das Erkennen des Außergewöhnlichen, sondern auf die Belohnung des konsensfähigen Mittelmaßes angelegt.“

Die These 15 lautet: „Die Zwänge des „peer- reviewing – Systems“ führen zu einer Konvergenz der Meinungen, die nicht durch Fakten und Überzeugungen, sondern von der Notwendigkeit geleitet wird, Verbündete im Kampf um Forschungsmittel zu suchen.“

Die These 17 spricht die Konsequenzen dieses Fehlverhaltens an: „Unsere Politiker werden es womöglich schaffen, die deutschen Universitäten tatsächlich so zu schädigen, dass diese These von ihrer „Verrottetheit“ nicht nur eine populistische Parole ist: Durch weitere Überlastung mit neuen Aufgaben, durch den Zwang der Verlagerung mit neuen Aufgaben, durch den Zwang der Verlagerung knapper Ressourcen von Forschung und Lehre auf Analyse des eigenen Innenlebens, durch weitere Politisierung der Wirtschaft, durch Mobilisierung von Ressentiments gegen Außenseiter, Innovateure und andere unabhängige Geister, die sich nicht in Zitations- und Begutachtungsnetzwerke einfügen wollen.“ Ende der Zitate

Im gleichen Jahr (am 11. Dezember 1997) wurde in Kyoto ein Abkommen zur Ausgestaltung der Klimarahmenkonvention der vereinten Nationen getroffen, in welchem Zielwerte für den Ausstoß von Treibhausgasen in den Industrieländern vereinbart wurden, da  man diese Gase  und insbesondere CO2 für die hauptsächliche Ursache der  globalen  Erderwärmung hielt. Bis Anfang 2011 hatten 191 Staaten sowie die Europäische Union das Kyotoprotokoll ratifiziet.

Bereits am 25. Oktober 1999 stellte der damalige Bundeskanzler Gerhard Schröder in seiner Rede zur Eröfnung der 5. Vertragsstaaten- oder Folgekonferenz der Klimarahmenkonventionen unter anderem fest: „Umweltschutz ist aber kein Luxus. Nur wenn wir die natürlichen Lebensgrundlagen der Menschheit dauerhaft schützen,kann es eine tragfähige und dauerhafte wirtschaftliche Entwicklung geben. Das gilt für das einelne Land genauso wie weltweit. Alles andere wäre ein gefährlicher Irrtum. In keinem Bereich tritt dies deutlicher zutage als bei der Erwärmung der Erdatmosphäre und dem Treibhauseffekt. Kein anderes Umweltproblem ist derart bedrohlich für die gesamte Menschheit. Gerade deshalb müssen wir zu Beginn der 5. Vertragskonferenz in Bonn die Frage stellen: „Wo stehen wir heute im Klimaschutz?“ Ende des Zitates.

Es nützte auch nichts, dass am 13. März 2001  der US-Präsident George W. Bush erklärt hatte: „I oppose the Kyoto Protocol!“, da  er nicht an die CO2 – Lüge glaubte. Damit löste er zwar kurzzeitig einigen Wirbel aus, aber interessierten Kreisen gelang es, insbesondere in der Bundesrepublik Deutschland, wieder schnell die Weltöffentlichkeit einzuschläfern. Damals wies Herr Bush auch zu Recht darauf hin, dass CO2 nach dem Luftreinhaltegesetz nicht zu den Luftschadstoffen zählt. Ohne CO2 würden schließlich weder Pflanzen wachsen noch Tiere und Menschen leben. Die teils unsachliche Kritik des jetzigen US-Präsident Trump am Pariser-Klimaabkommen ist aber insofern hilfreich, als sie dazu geführt hat, dass diese Problematik noch einmal weltweit diskutiert wird.

Bereits 2001 wurden von drei deutschen Behörden, nämlich der Bundes­anstalt für Geowissenschaften und Rohstoffe in Hannover (eine nachgeordnete Behörde des Bundes­wirt­schafts­ministeriums), dem  Institut für Geowissenschaftliche Gemein­schafts­aufgaben und dem Niedersächsi­schen Landesamt für Boden-forschung, die Erkenntnisse ihrer  wissenschaftlichen Mitarbeiter durch die Autoren Ulrich Berner und  Hansjörg Streif in Buchform auf 238 Seiten dargelegt und veröffentlicht. Die Wissenschaftler dieser Behörden  kamen im Hinblick auf den Zusammenhang zwischen der Zunahme des Treibhaus­gases CO2 und der Erderwärmung in den letzten 150 Jahre zu der Schlußfolgerung, dass „die beobachteten Temperaturanstiege bzw. -abnahmen ohne Bezug zu CO2 erfolgten.“ Das Buch erschien 2001 im Stuttgarter Fachverlag E. Schweizerbart unter dem Titel „Klimafakten. Der Rückblick - Ein Schlüssel für die Zukunft“.

Der Verlag schreibt zu dem Buch: Wenige Themen nehmen heute in Politik und Medien ähnlich breiten Raum ein wie Klima - Klimaänderungen - Klimakatastrophen. Meist geht es dabei um mögliche Aus­wirkungen menschlicher Eingriffe in das Klimasystem. Oft unterschätzt man allerdings das Ausmaß und die Dynamik natürlicher Klimaschwankungen. Rückblickend auf die Erdgeschichte legen Geowissen­schaftler im vorliegenden Sachbuch ihr umfangreiches Wissen über das Klima vergangener Zeiten vor. Aus den hinterlassenen Gesteinen, dem Grundwasser und dem Eis großer Gletscher gewinnen sie eine Fülle von Informationen, wie z.B. über Wassertemperaturen ehemaliger Ozeane, die Luftfeuchtigkeit bzw. Trockenheit untergegangener Kontinente oder die Gaszu­sammen­setzung einer früheren Atmosphäre. Dieser Rückblick ist gleichzeitig auch ein Schlüssel für die Zukunft, weil er eine Bewertung der verschiedenen im Klimasystem wirksamen Faktoren erlaubt. Hervorzuheben ist dabei, dass nicht das oft zitierte Kohlendioxid bestimmender Faktor des Klima­geschehens ist. Vielmehr treibt die Sonne wie ein Motor die klimawirksamen Prozesse in der Atmosphäre, den Ozeanen und in der Biosphäre an. Zahlreiche Belege aus der Natur sprechen für eine wahre "Achterbahnfahrt" des Klimas durch die Erdgeschichte. Wer mehr zum Thema Klima erfahren möchte, findet in diesem Buch umfassende, auch dem Laien verständliche Informationen. In anregender Form sprechen die Autoren offene Fragen an und vermitteln neue Denkanstöße. Erstmalig wird hier aus der Sicht der Geowissenschaft Stellung zur aktuellen Klimadiskussion bezogen. Mit dem hier vorgelegten, erheblich erweiterten Hintergrundwissen sind viele bisher getroffene Aussagen zum Thema Mensch und Klima höchst kritisch zu bewerten.“

Auch beim 58. Nobel Laureate Treffen in Lindau vom 29.06. - 04.07.2008  wurde durch den Vortrag von Dr. David Evans auf Grund fundierter Forschungsergebnisse der Nachweis erbracht, dass CO2 – nicht für die derzeitige Klimaerwärmung verantwort­lich ist, wie interessierte Kreise glaubhaft machen wollen.

In seinem Vortrag „No smoking hot spot“ führte Dr. David Evans damals aus, dass die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grönland bezeugen, dass Temperaturerhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg des CO2 - Niveaus. Der späte Anstieg der CO2 - Werte beruhe darauf, dass sich die Erdatmosphäre schneller erwärmt, als das Wasser in den Meeren. Wenn sich Wasser erwärmt, wird das im Wasser gelöste CO2 freigesetzt und an die Erdatmosphäre abgegeben. Wenn sich die Atmosphäre zu einem späteren Zeitpunkt wieder abkühlt, kühlt sich entsprechend später das Wasser der Meere wieder ab und CO2 löst sich wieder aus der Erdatmosphäre. Der CO2 - Wert in der Erdatmosphäre sinkt folglich auch. Das sagt eigentlich alles über Ursache und Wirkung!

Die Öffentlichkeit und unsere Politiker kennen offensichtlich nicht die maßgebenden Zusammenhänge und Fakten: Denn keiner der von Dr. Evans erwähnten Punkte ist umstritten. Selbst die Klimaalarmisten stimmen ihnen zu, bezweifeln aber ihre Bedeutung.

Eine offene Diskussion zu diesem Thema wurde in den letzten 18 Jahren zu keinem Zeitpunkt geführt, die Öffentlichkeit wurde gebetsmühlenhaft einseitig von allen Medien und Parteien einseitig informiert und mit Panikmache, statt Durchsetzung gesicherter seriöser und effektiver Maßnahmen, riesige Geldsummen „verbrannt“. 

Unwill­kürlich fragt man sich nach der Logik, die hinter einer derartigen Ablehnung steckt. Die Argumente der Klimaalarmisten, dass Berechnungen die Klimaer­wär­mung durch CO2 ergeben, sind keine Beweise, weil die Ergebnisse von den jeweiligen Vorgaben abhängen und wenig über die damaligen Umwelt­verhältnisse aussagen. Die unterschiedlichsten Wechselwirkungen waren und sind derart komplex, dass sie zu keinem Zeitpunkt erfasst und seriös dargestellt werden können. Sind die Vorgaben jedoch falsch, kann das Ergebnis nicht richtig sein. Die Bohrkerne zeigen zwar eindeutige Ergebnisse, sagen aber  nichts über die Ursachen aus.

In der Eröffnungsrunde der 58. Nobel Laureate Treffen in Lindau vom 29.06. - 04.07. äußerte sich Porfessor Giaever (Nobelpreisträger 1973) wie folgt: „Die globale Erwärmung ist zu einer neuen Religion geworden. Alltäglich hören wir von der großen Anzahl von Wissenschaftlern, welche diese unterstützen. Aber nicht die Anzahl ist entscheidend, sondern diejenigen die Recht behalten.“ Ende des Zitates.

Auch die beiden Diplomphysiker der TU Braunschweig, Prof. Dr. G. Gerlich und  Dr. R. D. Tscheuschner haben auf 114 Seiten den angeblichen atmosphärischen Treibhauseffekt eindeutig widerlegt, indem sie unter anderem auch nachweisen konnten, dass diese Theorie gegen den zweiten Hauptsatz der Thermodynamik verstößt, was aber von den Medien in Deutschland weitgehend totgeschwiegen wird. Diese beiden Wissenschaftler führen zudem unter anderem an, dass es keine gemeinsamen physikalischen Gesetze zwischen dem Erwär­mungs­phänomen in einem Glasgewächshaus und dem fiktiven at­mosphä­rischen Treibhauseffekt gibt.

So gibt es immer wieder mutige Wissenschaftler, die riskieren von den Medien und Politikern öffentlich mit unbewiesenen Behauptungen angegriffen zu werden, weil Fakten geleugnet und Naturgesetze ignoriert werden. Übereinstimmungen in der Vorgehensweise der Inquisition im Mittelalter und unserer heutigen Regierung sind keineswegs zufällig, sondern traurige Wirklichkeit. Fakten sind aber aus wissenschaft­licher Sicht das Todesurteil jeder Theorie.

Dennoch hindert das weder die Printmedien, noch die angeblich unabhängigen Rundfunk- und Fernseh­anstalten, den Menschen die Erderwärmung weiterhin durch CO2 zu suggerieren, anstatt darauf hinzuweisen, dass der Klimawandel nicht durch den Menschen zu beeinflussen ist.

Jeder interessierte Bürger konnte wiederholt bei den unterschiedlichen Fernsehdokumentationen im Privatfernsehen über die Entstehung von Wüsten, insbesondere der Sahara, lesen, sehen und hören, dass als Ursache für deren Klimawandel eine geringgradige Veränderungen der Neigung der Erdachse zur Sonne bw. eine leichte Veränderung der Bahnebene der Erde um die Sonne angesehen wird, was eine unterschied­lich intensive Sonneneinstrahlung auf unseren Planeten zur Folge hatte. Bei öffentlich-rechtlichen Rundfunk- und Fernsehanstalten habe ich dergleichen noch nie wahrgenommen. Spätsendungen, wenn die arbeitende Bevölkerung ihre verdiente Nachtruhe genießt, will ich aber nicht gänzlich ausschließen. In einem derartigen Fall muss man zwar nicht gleich von „Lügenpresse“ sprechen, aber unter seriösem Journalismus versteht man eigentlich etwas anderes. Auch „Zensur“ ist vielleicht ein zu starkes Wort, aber „gelenkte Information“ dürfte die passende diplomatische Formulierung sein.

Die Behauptungen über die angebliche Versauerung der Weltmeere durch CO2 braucht man ebenfalls nicht ernst zu nehmen. Die Vertreter dieses Horrorszenariums verschweigen nämlich, dass einige 100 Millionen Jahre vor unserer Zeitrechnung sich die damaligen Meereslebewesen vom Kambrium bis zur Kreidezeit, also vor rund 540 bis etwa 65 Millionen Jahren, trotz eines bis zu 20fach höheren CO2-Gehalts bester Gesundheit erfreut haben. Überall auf der Erde beweisen zahllose, teils hunderte von Metern dicke Kalk- und Kreide­schich­ten, dass die Meereslebewesen imstande waren, gesunde und vollständige Kalkskelette auszubilden. Die Geologie beweist dies in Form gut erhaltener Kalkfossilien in nahezu unendlichen Stückzahlen. Rund 80% der gesamten Kohlenstoff­vorräte der oberflächennahen Zonen der Erde sind heutzutage in Form von Kalkstein und Dolomit gebunden. Aber das wird alles totgeschwiegen.

Tatsache ist, dass das Klima unseres Planeten nicht durch CO2 beeinflusst wird, sondern durch kosmische Einflüsse, die für die Neigung der Erdachse, der Umlaufebene und die Sonnenaktivität verantwortlich sind.Während die Planeten um die Sonne kreisen, üben sie u.a. auch gegenseitig gravitative Kräfte aufeinander aus, was zur Folge hat, dass nicht nur in den großen Zeiträumen, in denen  die Erdachse ihre Neigung und Umlaufebene zur Sonne deutlich und langfristig verändert, anhaltende Klimaveränderungen  (wie z.B. die langen Eiszeiten auf unserem Planeten) auftreten, sondern dass bereits kleinere, kurzfristige Schwankungen der Erdachsenneigung und/oder der Erdumlaufbahn ebenfalls zu vorübergehenden Klimaveränderungen, wie die zur Zeit zu  beobachtende Klimaerwärmung, führen können.

So lassen sich die Wechsel zwischen den Eiszeiten und Warmphasen der vergangenen ein bis zwei Millionen Jahre auf kleine periodische Schwankungen in der Erdbahn um die Sonne zurückführen, die sich jedoch, da es sich um ein Vielkörperproblem handelt, nicht im Voraus berechnen lassen. In diesem Zusammenhang sei auf die „kurze Eiszeit“ im Mittelalter hingewiesen, die als Folge einer kurzfristigen Neigungsveränderung der Erdachse zur Sonne anzusehen ist  und auf die Desertation der Sahara vor etwa 8000 Jahren, die durch eine Veränderung der Bahnebene der Erdumlaufbahn um die Sonne entstanden sein dürfte und deshalb langfristige Auswirkungen das Klima hat.

Übrigens gibt es zwischenzeitlich Spezialkameras, die auch schon industriell genutzt werden, um CO2 sichtbar zu machen. Sogar Atemluft lässt sich nachweisen (19.11.2016; www.spiegel.de; Wissenschaft, Natur, Klimawandel. CO2: Spezialkamera macht Kohlendioxid sichtbar). Wenn diese Kamera auf einen bestimmten Wellenmengen­bereich im Infraroten, in dem CO2 Wärmestrahlung absorbiert wird, gerichtet wird,   kann man  CO2 als dunkle Kontrast­wolke vor dem Hintergrund  erkennen.

Die Erklärung,  aus welchem Grund der CO2 Anstieg erst etwa 800 Jahre nach einer beginnenden Erderwärmung auftritt, ist die Erkenntnis seriöser Wissenschaftler, die nicht bereit sind, sich dem weltweiten Mainstream unterzuordnen. Dass CO2 im Wasser gebunden wird, kann jeder beim Öffnen einer Mineralwasserflasche erkennen, wenn sich die Gasblasen bilden und unterschiedlich schnell aufsteigen. Nun ist die Lösung von CO2 im Wasser nicht nur von der jeweiligen Temperatur abhängig, sondern auch von den jeweiligen Druckverhältnissen. Wenn sich also die Meere erwärmen, setzen sie gelöstes CO2 in Form von Gasblasen frei. Dieser Vorgang führt aber gleichzeitig wieder zu einer Abkühlung, wie jeder, der schon einmal geschwitzt hat, sich erinnern dürfte.  Beim Sinken der Umwelttemperaturen löst sich wieder mehr CO2 im Wasser und der CO2-Wert sinkt wieder. Der gleiche Effekt ist während der unterschied­lichsten Vegetationsphasen zu beobachten. Das ist auch der Grund, weshalb sich die Erde wieder abkühlen konnte, obwohl sich in der Atmosphäre ungleich höhere CO2 Konzentrationen als heute nachweisen ließen.

Wenn sich trotzdem  unsere Bundeskanzlerin Merkel, eine promovierte Physikerin, von „Experten“ umgibt, die glauben, sich über Naturgesetze hinwegsetzen zu können, dann machen wir uns nicht nur lächerlich, sondern fallen wieder in das Mittelalter zurück.

Die Befürworter der CO2 - Reduzierung argumentieren hier folgendermaßen: Weil es zu dieser oder jener Zeit weltweite Tempera­tur­­erhöhungen gab, muss dieser Temperaturanstieg auf die damals herrschenden CO2-Werte bezogen werden. Man benutzt also Temperatur- und CO2-Werte aus der Vergangenheit zum Beweis der anthropogenen Klimaerwärmung, ohne den Beweis erbracht zu haben, dass ein Zusammen­hang zwischen diesen beiden Werten besteht. Schließ­lich kommt es gerade auf den Temperaturverlauf und seine Über­einstimmung mit dem Kohlen­dioxid­gehalt in der Vergan­gen­­heit an. Wenn sich diese angebliche Übereinstimmung in der Vergangen­heit nicht zeigt - und sie tut es nicht -, dann bricht die ganze Theorie des vom Menschen gemachten Treibhauseffektes wie ein Kartenhaus in sich zusammen. Schließlich behauptet heute wohl kaum ein Mensch, dass der Geburtenrückgang in Deutschland damit zusammenhängt, dass die Zahl der Störche ebenfalls rückläufig ist.

Zu den Klimaverhältnissen in der Antarktis schreibt das  Umweltbundesamt unter:

 www.umweltbundesamt.de/themen/.../antarktis/die-antarktis/das-klima-der-antarktis:

„Die sehr niedrigen Temperaturen in der Antarktis gehen im Wesentlichen auf den geringen Eintrag von Strahlungsenergie zurück. Im Südsommer – wenn auf der Nordhalbkugel Winter herrscht – ist der Südpol zur Sonne geneigt und es herrscht 24 Stunden lang Tag. Wegen der Schiefe der Ekliptik, also der Neigung der Erdachse von 23,5° zur Ebene ihrer Umlaufbahn um die Sonne, treffen die Sonnenstrahlen selbst im Südsommer nur sehr flach auf die Oberfläche der Antarktis. Zusätzlich besitzt der Schnee ein starkes Reflektionsvermögen (Albedo), so dass die Sonnenenergie zum größten Teil gar nicht aufgenommen wird und die Wärmeabstrahlung größer als die Sonneneinstrahlung ist (negative Strahlungsbilanz der Antarktis). Selbst im Südsommer bei ganztägiger Sonneneinstrahlung erwärmt sich die Antarktis nicht nennenswert. Im Südwinter (Nordsommer) herrscht am Südpol wegen der Neigung der Erdachse von der Sonne weg 24 Stunden lang Nacht, so dass keine Sonnenstrahlung den Kontinent erwärmt.“ Ende des Zitates.

Es lässt sich also durchaus nachvollziehen, warum das Eis in der Arktis schneller schmilzt als in der Antarktis und man bekommt gleichzeitig eine Vorstellung, welche Bedeutung eine Abweichung der Neigung der Erdachse zur Sonne hat.

Heute weiß man, dass nicht nur die Sonne und die Erde exzentri­sche Schwerpunkte haben, was allein schon bei der Berechnung der Erdachsenneigung auf ihrer Umlaufbahn um die Sonne Probleme bereitet, nein, auch der Mond und die anderen Planeten wirken auf unsere Erde und letztlich auch auf die Sonne ein. Das führt dazu, dass die Erde auf ihrer Umlaufbahn förmlich um die Sonne eiert. Die Mathe­matiker haben es folglich mit einem unbewältigten mathema­tischen Mehr­körper­­problem zu tun und können deshalb nur bestätigen, dass, wie bereits erwähnt, die Erdachse und die Bahnebenen sich nicht nur in großen Zyklen, sondern auch permanent unterschiedlich stark in Form von kleineren Abweichungen verändern, sich also quasi chaotisch verhalten. Dies führt zwangsläufig zu unter­schied­lich intensiver und unregelmäßiger Sonnenein­strahlung auf unseren Planeten und hat die schon lange bekannten und nachgewiesenen Klimaveränderungen zur Folge.

Diesen Sachverhalt kann jeder leicht überprüfen, wenn er verfolgt, wie sich die Temperatur mit dem jeweiligen Sonnenstand verändert. Aus diesem Grunde ist es zu Mittag am wärmsten, wenn die Sonne am höchsten steht. Die Erde umrundet die Sonne in einer quasi chaotischen Umlaufbahn in unterschiedlicher Entfernung. Da es sich um ein multifaktorielles Problem handelt, lassen sich auch keine hinreichend genauen bzw. längeren Vorhersagen machen.

Am Montag, den 8. Juni 2015 berichtete der General-Anzeiger aus Bonn ausführlich über die Klima­erwärmung und ihre möglichen Ursachen, da Herr Thomas Litt, Professor für Paläobotanik am Steinmann-Institut in Bonn und Leiter des Internationalen Forscherkon­sortiums Paleovan, die Ergebnisse seiner aktuellen Forschertätigkeit im Fachmagazin „Quaternary Science Reviews“ in mehreren Artikeln veröffentlicht hatte. Er führte in dem in der Osttürkei liegenden Vansee, der siebenmal so groß wie der Bodensee ist, fünf Jahre lang Erdkernbohrungen durch. Die Auswertungen des Sedimentes in den Bohrkernen ergaben eindeutige Ergebnisse. Das Sediment dieses Sees, das, was allgemein anerkannt ist, wegen seiner Lage und seines Alters die Vorgänge in der Umwelt seit Urzeiten in seinen Sedimentschichten gespeichert hat, „informiert“, vergleichbar den Seiten eines Buches, über alle Veränderungen in der Zeitspanne seines Bestehens. Der lückenlose Kalender umfasst insgesamt sechs Zyklen aus warmen und kalten Perioden und erzählt eine Geschichte der natürlichen Klimaschwankungen, die zeitlich synchron zu den periodischen Schwankungen der Erdbahn um die Sonne verlaufen. Es ist weitgehend unstrittig, dass die CO2-Werte um 122 Moleküle bei 1 000 000 Luftteilchen in den letzten 150 Jahren angestiegen sind. Es ist auch unbestritten, dass dieser Anstieg weitgehend von den Menschen verursacht wurde. Es ist aber keineswegs bewiesen, dass der geringe CO2-Anstieg eine Erderwärmung zwischen 1 und 2 Grad Celsius verursacht hat. Hier handelt es sich vielmehr um ein zufälliges Zusammentreffen zweier Vorgänge, die nichts miteinander zu tun haben, aber so wird es, aus welchen Gründen auch immer, den Leuten eingeredet. Auf Grund der oben beschriebenen Tatsachen sind Erdkernbohrungen ein ideales Klimaarchiv und lassen Rückschlüsse auf die Klimaverhältnisse auf unserem Planeten während mehrerer Jahrhunderttausende zu.

Professor Litt schreibt u. a.: „Die Ergebnisse zeigen, dass das Klima in den vergangenen Hunderttausenden Jahren auf der Nordhalbkugel Achterbahn gefahren ist. Innerhalb weniger Jahrzehnte konnte es kippen und von Eiszeit auf Warmzeit und umgekehrt umschalten.“  Ende des Zitates.

Unsere Bundeskanzlerin, eine promovierte Physikerin, ignoriert nicht nur die Argumente ihrer Kollegen, sondern auch die anderer Wissenschaftszweige, die die gesamte Irrlehre von der Erderwärmung durch CO2 ad absurdum führen. Wenn sich aber eine Bundeskanzlerin, die ja bekanntlich die Richtlinien der Politik bestimmt, über Naturgesetze hinwegsetzt, indem sie nicht dem logischen Denken und dem Sachverstand seriöser Wissenschaftlern, sondern dem Mainstream folgt,  um durch Mehrheitsmeinungen, welche  von den Medien durch entsprechende Bericht­erstattungen befeuert werden, bestimmte Interessen durch-zusetzen, werden nicht nur sinnlose Unsummen an Steuergeldern „verbrannt“, dann ist auch die Demokratie  in Gefahr, weil auf diese Weise abweichende Meinungen von der bestimmenden Kanzlerinnenmeinung als unbedeutende Spinnereien abgetan werden. Für mich ist unter diesen Bedingungen auch nicht nachvollziehbar, warum Politiker öffentlich einen Amtseid ablegen.

Ende 2015 haben sich die Regierungsvertreter von über 190 Ländern, also fast der gesamten Welt­gemeinschaft, auf der internationalen, in Paris stattfindenen Klimaschutzkonferenz erneut darauf geeinigt, alles daran zu setzen, die Erderwärmung durch Drosselung der CO2-Produktion auf höchstens 2 und möglichst auf 1,5 Grad zu begrenzen. Dieses kostspielige globale Abkommen, welches auch von China und der USA (noch unter Obama) ratifiziert wurde, hat zwar keinen Einfluss auf die Klimaerwärmung, führt aber bei seiner Umsetzung in diesen Ländern zwangsläufig zu enormen Fehlinvestitionen, also „verbrannten Steuergeldern“, die an anderer Stelle dringend benötigt werden.

Allgemein erkennbar leben Politiker und ein Großteil ihrer Berater in einer Welt der Kompromisse, des Kuhhandels, der Konsensmeinungen, Meinungsmache und Mehrheitssuche. Jeder versucht seine Position zu verteidigen und zu festigen. Unter diesen Voraus­setzungen ist der aktuelle Rundumschlag des US-Präsidenten Trump bezüglich des Klimawandels eine wohltuende Intervention, denn wer alles negiert, schafft nach den Erkenntnissen der Chaosforschung die Chance eine neue Ordnung entstehen zu lassen. In der Fischwirtschaft würde man von einem Hecht im Karpfenteich sprechen. Er ist ein übliches Mittel, die trägen Karpfen in Bewegung zu halten, damit sie Muskelfleisch entwickeln. Besonders im 19. Jahrhundert wurde diese Redewendung viel in der politischen Satire und Karikatur gebraucht und auf verschiedene Herrscherfiguren (Napoleon III., Bismarck u. a.) angewendet.

Die zur globalen Verminderung der CO2 -Emissionen vorgesehenen riesigen Summen sollten, anstatt sie sinnlos zu vergeuden, besser und wirkungsvoll sowohl zur Minderung der durch den unbestrittenen Klimawandel bereits eingetretenen sowie der zukünftigen Schäden und zur weitgehenden Reduzierung von Luftschadstoffen verwandt werden, denn alle Menschen brauchen weltweit dringend saubere Luft, reines Trinkwasser und gesunde Böden und Meere. Es ist erschreckend, wie man seriöse Wissenschaftler wirkungsvoll mundtot macht und ihre voraus­schauenden Warnungen missachtet. Außerdem wäre es immens wichtig, so schnell wie möglich umfangreiche bauliche und andere wichtige Maßnahmen zu ergreifen, um gegen die Folgen zukünftiger Naturkatastrophen  besser gewappnet zu sein.

Saurer Regen wird durch Verteilung der Schad­stoff­­emissionen in der Atmosphäre infolge von Luft-strömungen häufig in weit entfernten Regionen verbracht. Das bedeutet, dass der Verursacher und der Empfänger von saurem Regen oft verschiedene Staaten sind. Durch die Luftverschmutzung kommt es zur Wasser­belastung und Bodendegradation, bei denen es sinnvoll ist, aufgrund der Gemeinsamkeiten die Ursachen oder Folgen als ein System zu begreifen. So werden Bäche, Flüsse, Seen und Küstenregionen durch den sauren Regen geschädigt. In Schweden etwa waren einzelne Seen so versauert, dass sie ohne jegliches Leben waren. Sie hatten teilweise einen pH-Wert von weniger als 3, waren also in etwa so sauer wie Haushaltsessig. Wie oben berichtet wurde, kann ein derart saurer Regen nicht durch den hohen Ausstoß von Kohlenstoffdioxid entstehen. Verantwortlich für einen pH-Wert des Wassers unter 5,6 müssen andere chemische Verbindungen sein. Die Schadstoffe, die für den sauren Regen verantwortlich sind, sind Stickstoffmonoxid, Stickstoffdioxid, Schwefeldioxid und Phosphorverbindungen.

Diese Verbindungen bilden die stärksten Säuren und vernichten im Wasser und in den geschädigten Böden viele Mikroorganismen, was wiederum eine Verschlechterung der Wasser- und Boden­qualität zur Folge hat. Die oben angeführten Verbindungen kommen zwar auch ohne das Zutun des Menschen in der Natur vor: Z.B. entstehen Stickstoffoxide bei Zersetzungsprozessen im Boden und Schwefeloxide werden von Vulkanen freigesetzt. Diese gasförmigen Oxide reagieren mit den Wassermolekülen in der Luft und bilden so den sauren Regen. Die Hauptmenge dieser Schadstoffe wird jedoch vom Menschen erzeugt und ausgestoßen, vor allem bei der Verbrennung von fossilen Brennstoffen in Kraftwerken, Haushalten und Verkehr, obwohl man auch hier mit geeigneten Maßnahmen Abhilfe schaffen könnte: Der vom Menschen produzierte Rauch besteht aus einem Gemisch unterschiedlichster fester Teilchen in einer gasförmigen Phase und kann zusammen mit Ruß beträchtliche Umwelt- und Gesundheitsschäden bei Menschen, Tieren und Pflanzen verursachen. Es wäre folglich viel sinnvoller diese Umweltgifte zu eliminieren oder wenigstens stark zu reduzieren, da durch sie aktuell ein größerer Schaden verursacht wird, als von dem angeblichen Klimakiller CO2 je zu erwarten ist.

Wasserdampf ist das wichtigste natürliche Treibhausgas. Da der Wassergehalt in der Luft von der Temperatur abhängig ist, nimmt der Gehalt an Wasserdampf in der Atmosphäre mit steigenden Temperaturen zu und verstärkt damit die Auswirkungen anderer Treibhausgase.

Ein Kubikmeter Luft kann bei folgenden Umgebungstemperaturen maximalnachstehend angegebenenGramm Wasser aufnehmen:
0°C ca. 5g Wasser
10°C ca. 9g Wasser
20°C ca. 17g Wasser
30°C ca. 30g Wasser
40°C ca. 50g Wasser
50°C ca. 80g Wasser
60°C ca. 120g Wasser
80°C ca. 300g Wasser

Stark erhöhte Luftschadstoffkonzentrationen als Folge von allen möglichen Emissionen verursachen nicht nur nebelartige Dunstglocken, den sogenannten Smog, sondern führen auch zu erheblichen Gesundheits­schäden. Durch entsprechende Filter sowie chemische und physikalische Trennungsverfahren kann man diese Luftverschmutzung in den Griff bekommen, wenn man nur entsprechende Geldmittel locker macht. Ein Eindrucksvolles Beispiel effektiver Bekämpfungs­maßnahmen sind die Neuen Bundesländer. Wenn man also weltweit derart fahrlässig mit der Reinhaltung der Luft umgeht, werden Millionen von Menschen an den Schadstoffen in der Luft sterben, bevor sie die durch die Folgen einer fiktiven, durch CO2 verursachten Erderwärmung Schaden erleiden.

Doch nach wie vor werden Naturgesetze ignoriert und der in den letzten Jahren ansteigende  CO2 - Gehalt der  Atmosphäre weiterhin als der „Klimakiller“ dargestellt,  dessen „Freispruch“ aus  wirtschaftlichen  und/oder  politischen Interessen für die Regierenden der meisten Länder nicht in Frage kommt, weil sie, wie die meisten Menschen, bedenkenlos den Behauptungen der von dem Establishment und den Lobbyisten geförderten und von den Medien ins öffentliche Rampenlicht gehobenen, wie „Gurus“ auftretenden „Klimaexperten“ mehr Vertrauen schenken, als den auf exakten Untersuchungsergebnissen basierenden Aussagen der zahlreichen seriösen aber „totgeschwiegenen“  Wissenschaftlern. Im Internet sind zahlreiche seriöse Veröffentlichungen von Wissenschaftlern nachzulesen, die nicht bereit sind, dem Mainstream zu folgen, aber von mächtigen Interessensgruppen im günstigsten Fall als „Klimaskeptiker“ disqulifiziert und ins Abseits gestellt werden.

Trotz Fukushima haben auch die japanischen Regierungsvertreter offensichtlich nichts dazu gelernt.  So kann man im Internet (unter http://www.spiegel.de/wissenschaft/technik/fuenf-jahre-fukushima-japans-ungenutzte-chance-a-1081070.html. ( geschrieben: Freitag, den 11.03.2016, 11:38 Uhr) den folgenden Beitrag finden: „Zusammengefasst: Umfragen zufolge lehnt die Mehrheit der Japaner den nuklearen Neustart ab. Doch fünf Jahre nach der dreifachen Kernschmelze von Fukushima zeigt die Atomlobby keine Reue. Langfristig will das Land zwar nur noch ein Fünftel des Stroms aus Kernenergie erzeugen. Doch die Atombosse möchten so schnell wie möglich weitere Kernkraftwerke wieder hochfahren, die nach dem Desaster von 2011 zeitweise abgeschaltet worden waren.“ Ende des Zitates.

Da trifft es sich gut, dass gerade in einer derart verfahrenen Situation die Asahi Glass Foundation in Japan den renommierten Blue Planet Prize, kurz vor dem G20 – Gipfel in Hamburg im November dieses Jahres, rein zufällig, den Blue Planet Prize an Hans Joachim Schellnhuber, einen  vehementen  Vertreter der CO2 – Klimalüge, vergibt, der als PIK-Direktor weitreichende Einflussnahme auf die internationale Klimapolitik hat und u.a. auch unsere Bundeskanzlerin Frau Dr. phil. nat. Angela Merkel berät, welcher politische Entscheidungen offensichtlich ebenfalls wichtiger als Naturgesetze sind. Honi soit qui mal y pense.

Auf der Suche nach Lösungen und Ideen, welche langfristig von direktem oder indirektem gesellschaft­lichen Nutzen sind, braucht die Klimapolitik wissenschaftliche Beratung durch unabhängige und neutrale Wissenschaftler. Die Rollen von Wissen­schaft und Politik müssen allerdings klar definiert und getrennt bleiben. Das ist aber praktisch unmöglich, da die Politik einerseits die nötigen finanziellen Mittel bereitstellt und verteilt und andererseits die auch „Scientific Community“ genannte Wissenschafts­gemeinde, über ein interessengesteuertes gut funktionsfähiges eigenes welt­weites Netzwerk verfügt, in dem auch die Weichen für Karrieren gestellt werden und man mit den Wölfen heulen muss, will man die eigene Protektion innerhalb der Wissenschaften auf­bauen.

Doch erfreulicher Weise eröffneten sich im Laufe der Menschheitsgeschichte immer wieder Zeitfenster, die zu entscheidenden Paradigmenwechseln führten. Schließlich blieb unser Planet trotz aller Widerstände auch nicht für alle Zeiten eine flache Scheibe und das Zentrum des Universums.  Jedoch brauchte solch ein Vorgang stets Zeit und viele Opfer. In unserer so  schnelllebigen Gegenwart wird man nicht von heute auf morgen umdenken. Die Konzerne sind zu einflussreich und die Öffentlichkeit zu passiv und zu gutgläubig. Immerhin dauerte es fast 2500 Jahre, bis die Erkenntnisse des griechischen Astronomen und Mathematikers Aristarchos von Samos, dass die Erde um die Sonne kreist, unser Planet eine kugelförmige Gestalt besitzt und die Jahreszeiten nur durch die Neigung der Erd­achse zur Sonne erklärt werden können, allgemein akzeptiert wurden.

Unter den derzeitigen Umständen wird die Menschheit allerdings nicht noch einmal so viel Zeit zum Überlegen haben, da sie sich zuvor selbst eliminieren wird.

©

==============================================================================================================

 

 

Kosmologie in der Sackgasse.

Die Theorie wie der Kosmos entstand, wird von dem wissenschaftlichen Establishment mit einem Enthusiasmus verteidigt, der dem blinden Glauben und religiösen Eifer der Kirche im Mittelalter nicht nachsteht. Inkompetenz, Intoleranz und Arroganz der tonangebenden Vertreter einer theoretischen Physik, die an Esoterik erinnert, gehen erbarmungslos gegen Kritiker vor. Der Physiker und Nobelpreisträger Martinus Veltman kam 1961 als junger holländischer Physiker ans Cern. Er beschreibt die Situation der Physiker auf die Frage eines Journalisten der Zeit (DIE ZEIT 23.09.2004 Nr.40), ob es stimmt, dass der Umgang unter Physikern wenig zimperlich ist: „Physiker sind anarchistische Naturen. Man kann sie mit nervösen Rennpferden vor dem Start vergleichen. Sie haben ein ausgeprägtes Gefühl für Konkurrenz. Aber wie überall ist das eine Frage des Charakters. Bei gewissen Leuten muss man vorsichtig sein, was man sagt, sonst erhält man umgehend die Quittung.“

In der Kosmologie gibt es zwei Grundwahrheiten.

1. Die Wissenschaftslobby hat immer Recht

2. Das Universum entstand durch einen Urknall

Wer gegen diese beiden Dogmen verstößt, den trifft die Acht der Wissenschaftslobby, denn es geht um viel Geld und der Urknall, die angeblich stetige Ausdehnung des Universums, die Schwarzen Löcher, die Schwerkraft u.a. lassen sich mit der Allgemeinen Relativitäts­theorie mathematisch beschreiben, da die ganze moderne Kosmologie auf den Gleichungen von Einstein fußt. Das besagt aber nicht, dass alles was behauptet wird, weil es auf korrekten mathematischen Vorgehensweisen beruht, auch der Realität entspricht bzw. dass die Ergebnisse der mathematischen Berechnungen verstanden und richtig interpretiert wurden.  Die klassische Mechanik und die Elektrodynamik beschreiben makros­kopische dynamische Prozesse. Sie versagen jedoch beim Beschreiben der atomaren Phänomene. Während die Relativitätstheorie die Begriffe von Raum und Zeit neu inter­pretiert, revolutionierte die Quantentheorie unsere Auffassung vom Wissen über die Vorgänge in der Natur. Mit ihr nahmen die Physiker endgültig Abschied von der Absolutheit des Wissens und der Realität. Sie entmündigten die Skeptiker, indem sie behaupteten, dass es den gesunden und kritischen Menschenverstand nicht gibt, da während der Evolution die notwendigen geistigen Entwicklungen des Menschen für den Überlebenskampf nicht notwendig waren und deshalb die Erkenntnisse der Vertreter der Theoretischen Physik nicht verstanden werden. Unwillkürlich stellt sich die Frage, warum dies Physikern trotzdem möglich ist, da unbestritten bleibt, dass Physiker auch zu den Menschen gezählt werden. Fakt ist, dass die Realität die mathematischen Konstruktionen von Vertretern der Theoretischen Physik oft widerlegt. So ist es auf Grund heutiger gesicherter wissen­schaftlicher Erkenntnisse eine Tatsache, dass der Kosmos ein zeitloser, sich selbst regenerierender Organismus ist, in dem sich weder Räume krümmen und die Zeit sich nicht dehnen lässt.

Die Quantentheorie besagt, dass man zurzeit subatomare Vorgänge nur mit einer gewissen Wahrscheinlichkeit beschreiben kann. Trotz mancher unrealistischen Behauptungen, die aus der Relativitätstheorie und der Quantentheorie abgeleitet wurden, muss man feststellen, dass bemerkenswerte wissenschaftliche Erfolge auf Grund sehr spezieller Fragestellungen erzielt wurden. Diese mathematischen Operationen dürfen aber nicht über ihren jeweils sehr speziellen Geltungsbereich hinaus, für allgemein gültig erklärt und angewendet werden. Das wissenschaftliche Establishment weigert sich einzuge­stehen, dass sich die Experten in eine Sackgasse manövriert haben. Man hatte zu Anfang der 20ger Jahre des vorigen Jahrhunderts noch nicht die wissenschaftlich gesicherten Erkenntnisse von heute und interpretierte deshalb richtige mathematische Ergebnisse falsch. Da nur die Physiker eine Chance auf eine wissen­schaftliche Karriere bekamen, die einfach kritiklos die Vorgaben übernahmen, entstand die bedauerliche Situation, die heute noch anhält. Die Arroganz, Intoleranz und Borniertheit der „Eliten“ in Schlüssel­positionen von heute verhindern erfolgreich ein Umdenken und entsprechende Korrekturen durchzuführen, indem sie Kritiker in jeder Beziehung behindern und ächten.

Mit der Acht wurde bereits im germanischen Recht das Ausstoßen eines Täters aus der Gemein­schaft bestraft, der gegen ihre Regeln verstieß.  Auch das altdeutsche Recht kennt bei schwerem Friedensbruch, und etwas Anderes stellt ja eine kontroverse Argumentation in den Augen der Wissenschaftslobby nicht dar, die Acht. Der Geächtete wurde friedlos, rechtlos und vogelfrei; er verlor den Sippenschutz und sollte von jedermann getötet und von niemandem unterstützt werden. Er verlor auch sein Vermögen; seine Frau wurde Witwe, seine Kinder Waisen. Die Acht kam eigentlich einem Todesurteil gleich. Die Spielregeln bestehen heute noch, sind allerdings effektiver und eleganter optimiert worden.

Die Wissenschaftsgemeinde, auch „Scientific Community“ genannt, hat ein eigenes welt­weites Netzwerk, in dem auch die Weichen für Karrieren gestellt werden. Man muss also mit den Wölfen heulen, will man die eigene Protektion innerhalb der Wissenschaften auf­bauen. Schließlich kennt man sich, weiß sich gegenseitig einzuschätzen, bespricht sich gegenseitig zu allen Anlässen und gegenüber dem Wissen­schaftsbetrieb und den Medien, indem man sich einer eigenen Fachsprache bedient, die für Laien oft ein Buch mit sieben Siegeln darstellt. Perfektioniert wird das ganze System durch das Peer-Reviewing (engl. von Peer, Gleichrangiger und Review, Gutachten). Dieses Verfahren soll eigentlich zur Qualitätssicherung einer wissenschaft­lichen Arbeit durch unabhängige Gutachter aus dem gleichen Fachgebiet dienen. Der Nachteil ist, dass die Gutachter ernannt werden und wenn sie nicht „spuren“ keine weiteren Gutachten zugeteilt bekommen. Zudem bleiben sie anonym und können deshalb auch nicht zur Rechenschaft gezogen werden. Auf diese Weise wird durch diese Gutachter der gesamte Wissenschaftsbetrieb überwacht und zensiert, da man auf diese Weise unerwünschte kritische wissenschaftliche Arbeiten nicht zur Veröffentlichung frei gibt, die jeweiligen Autoren kaltstellt, die Steuergelder für Forschungszwecke entsprechend zuteilt und so auch über dieses Verfahren alles im Griff hat. Trotz aller Widerstände, Folter und Verbrennung von sogenannten Ketzern, blieb die Erde im Laufe der Geschichte nicht für alle Zeiten der Mittelpunkt des Universums, um die sich alles zu drehen hatte und so wird auch irgendwann die Menschheit begreifen, dass es paradox ist, dass aus einem unendlich kleinen Volumen von unendlicher Dichte etwas Endliches durch einen endlichen Urknall entstehen kann, das so groß, vielgestaltig und funktionsfähig wie unser Universum ist.

Da man heute keine Angst mehr zu haben braucht, wegen der angeblichen Klimaerwärmung durch CO2 am Scheiterhaufen verbrannt zu werden, habe ich mich entschlossen, auf die Fakes der Kosmologen und Astrophysiker hinzuweisen, wissenschaftlich abgesicherte Fakten zusammenzutragen und im Internet zu veröffentlichen. Ich hoffe, dass, ähnlich wie mit der Erfindung des Buchdruckes im Mittelalter, heute das Internet einer breiten Öffentlichkeit die Möglichkeit bietet, sich nicht von dem wissenschaftlichen Establishment und den gelenkten Informationen durch die Medien manipulieren zu lassen.

Die Erfindung des Buchdruckes durch Gutenberg, der zwischen 1452 und 1454 die erste Bibel druckte und veröffentlichte, ermöglichte dem aufstrebenden Bürgertum an Infor­mationen heran­zukommen und diese auch weiter zu verbreiten, die bis dahin in den Klöstern konserviert und zensiert wurden. Zudem waren diese Schriften kaum jemandem zugänglich. Durch den Buchdruck konnten neue technischen Innovationen und die unter­schied­lichsten Nachrichten ungleich schneller unter das Volk gebracht werden. Infolge kam auch die Idee des Humanismus erstmals auf. Martin Luther hatte schon Recht, wenn er Empfahl, dem Volk auf’s Maul zu schauen, denn die kollektive Intelligenz, auch Gruppen- oder Schwarm­intelligenz genannt, ist ein emergentes Phänomen. Kommunikation und spezifische Handlungen von Individuen können intelligente Verhaltensweisen des betreffenden „Superorganismus“, d. h. der sozialen Gemeinschaft, hervorrufen.

Die Städte errich­te­ten eigene Schulen und Universitäten. Der Klerus begann auf diese Weise seine Bildungs­hoheit allmählich zu verlieren und immer mehr Menschen fingen damals an, begünstig durch die besseren Infor­mationsmöglichkeiten, aus bereits vorhandenen, aber nur Eingeweihten bekannten Quellen, eigenen Erfahrun­gen und überprüfbaren Beobachtungen eine Erkenntnis über Gott und die Welt zu suchen. Die menschliche Vernunft und die Betrachtung der Schöpfung, insbesondere die mit den Sinnen wahrnehmbare Welt, bildeten von nun an die Kriterien zur eigenen Meinungsbildung. Dies führte allerdings zu langen erheblichen Meinungsver­schieden­heiten zwischen der Obrigkeit und der Kirche einerseits und dem finanziell immer stärker werdenden Bürgertum andererseits.

 

Das Universum auf einen Blick.

Am 11. Februar 2016 wurde offiziell verkündet, dass es gelungen ist, Gravitations­wellen von entfernten Himmelsobjekten zu messen. Mit diesem Befund wurde gleichzeitig nachge­wiesen, dass der offiziell geleugnete Äther, ein Medium, das den gesamten Kosmos ausfüllt, doch existiert. Gravitationswellen dehnen und stauchen nämlich nicht die von Einstein propagierte Raumzeit, wie das wissenschaftliche Establishment behauptet, denn in der Realität gibt es weder Raum noch Zeit als etwas Reales. In der speziellen Relativitäts­theorie sind Raumkrümmungen und Zeitdilatation angenommene Eigenschaften von Raum und Zeit und keine realen Veränderungen. Die Raumzeit ist lediglich eine falsche Interpretation korrekter mathematischer Ergebnisse. Da man den Äther leugnete, wurde eine mathematische Erklärung konstruiert, die anschaulich sein sollte, die allerdings der Realität widerspricht. Auf Grund heutiger gesicherter Erkenntnisse von Biologen und Medizinern sind Raum und Zeit abstrakte Ordnungs­prinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen und zu berechnen. Raum und Zeit sind nichts, was für sich allein besteht. Sie sind nichts Stoffliches, sondern ein Modell oder eine Anschauungsform des Gehirns des jeweiligen Lebewesens, um das Objekt oder Subjekt seiner Wahr­nehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrung und Berechnungen erst ermöglicht.

Schon in der ältesten schriftlich bezeugten Form der althochdeutschen Sprache in der Zeit etwa von 750 bis 1050 n.Chr., verstand man unter rumi, von dem sich das Wort Raum ableitet, weit und geräumig. In der Mathematik erklärt man den Raum als eine mit einer Struktur versehene Menge, der physikalische Raum wird als Behälter aller Dinge interpretiert und die Kosmologen beschreiben den Weltraum als eine nicht fest eingegrenzte physikalische Ausdehnung. Im allgemeinen Gebrauch versteht man eine in Länge, Breite und Höhe fest eingegrenzte Ausdehnung und berechnet auf diese Weise gleichzeitig ihr Volumen. So viel zur Definition des Raumes.

Die Zeit ist dagegen ein Abgleich der Schnelligkeit einer Veränderung im Vergleich zu einer standardisierten und unveränderlichen Messgröße, z. B. einem Pendel. Dabei sind die jeweilige Länge und das Gleichmaß der Pendelbewegung die bestimmenden Größen. Da die Lichtgeschwindigkeit die limitierende Größe für beschleunigte Körper darstellt, also absolut ist, werden die Vorgänge innerhalb des jeweiligen beschleunigten Systems umso langsamer, je stärker seine Beschleunigung ist. Ein gutes Beispiel ist das GPS. Das Weltraumsegment dieses Systems setzt sich aus ca. 24 Satelliten zusammen, die in sechs Umlaufbahnen so angeordnet sind, dass eine weltweite Überdeckung mit möglichst wenig Satelliten realisiert werden kann. Die Umlaufbahnen befinden sich im Mittel bei 20.230 km über der Erdoberfläche und ein Satellit benötigt ca. 11Stunden und 58 Minuten für eine Erdum­rundung. Die relativ hohen Umlaufbahnen bewirken, dass der Sichtbarkeitsbereich (der Teil der Erdoberfläche, von dem eine quasioptische Sicht zum Satelliten möglich ist) ziemlich groß ist. Da die Uhren in den Satelliten im Vergleich zur Bodenstation umso langsamer gehen, je schneller der jeweilige Satellit die Erde umkreist, müssen alle Uhren der Satelliten mit der Zentraluhr der Bodenstation dauernd abgeglichen werden, da eine Zeitdifferenz von nur 1:1000 Sekunde zu einer Ungenauigkeit bei den Messungen von 300 km führen.

Aus biologischer Sicht ist auch das Zwillingsparadoxon eine Fehlinterpretation mathe­matischer Ergebnisse, da alle Stoffwechselvorgänge in einem Organismus umso langsamer ablaufen, je stärker der jeweilige Organismus beschleunigt wird. Das bedeutet, dass der eine Zwilling sehr schnell unterkühlt und schließlich erfriert, bevor er nach vielen Jahren noch genauso jung aussehend, wie beim Start, allerdings Tod, weil er erfroren, zurückkommt.

Es dehnt sich also nicht die Zeit, sondern die Uhren, wie alles innerhalb des jeweili­gen Satelliten, bewegen sich entsprechend langsamer. Hätte Einstein ein geeichtes Inertial­system, also ein Bezugssystem, in dem sich kräftefreie Körper geradlinig und gleichförmig bewegen festgelegt, hätte er nicht die gesamte Physik auf das Glatteis der Zeitdehnung geführt. Als ein solches System bietet sich z. B. die Hintergrundstrahlung an. Kein Wunder, dass unter diesen Vorgaben für die Astrophysiker von Newtons Gravitationsgesetz auf den ersten Blick nicht mehr viel übrig zu bleiben scheint.

Nach der Allgemeinen Relativitätstheorie ziehen sich Massen nicht nur an, sie krümmen, dehnen und biegen angeblich sogar diesen hypothetischen Raum, die unterschiedlichsten Objekte und Teilchen sowie die Zeit, sodass die Schwerkraft von den Vertretern der theoretischen Physik mathematisch als eines mit Löchern und Trichtern ausgefüllten Universums interpretiert wird. Das hat aber nichts mit der Realität zu tun. Wenn sich z. B. Galaxien voneinander entfernen, kann man diese Relativbewegung wahlweise als "Expansion des Raums" oder als "Bewegung durch den Raum" zu betrachten.

Einsteins Erklärung der Gravitation ist ein Musterbeispiel von Fehlinterpretation richtiger mathematischer Ergebnisse, weil man den Äther als Medium bewusst leugnete. Aus der Chaosforschung kennt man das sogenannte Selbstähnlichkeitsprinzip. Selbst­ähnlichkeit ist die Eigenschaft von Gegenständen, Körpern, Mengen oder geometrischen Objekten, in größeren Maßstäben, d. h. bei Vergrößerung, dieselben oder ähnliche Strukturen aufzu­weisen wie im Anfangszustand. Im weiteren Sinne wird der Begriff auch in den Natur­wissen­schaften verwendet, um grundsätzlich wiederkehrende, in sich selbst verschachtelte Strukturen zu bezeichnen. Man denke nur an die Bilder von Wirbelstürmen oder von scheibenförmigen Galaxien. Siehe auch im Internet unter Kymatik. Das Weltraummedium Äther verhält sich wie Gase in unserer Atmosphäre und die Vorgänge im All sind mit den Vorgängen in unserer Atmosphäre vergleichbar, so dass man das Wissen der Meteorologen 1 : 1 umsetzen kann. Statt gekrümmter Räume, Löcher und Trichter bilden sich Hoch- und Tiefdruck­gebiete und wenn sich die Himmelsobjekte gegenseitig beschatten, entsteht zwischen ihnen ein Unterdruck und die jeweiligen Objekte werden durch den sie umgebenden Ätherdruck aufeinander zugeschoben. Siehe Casimir-Effekt zum Nachweis des Ätherdruckes und den Halbkugel­versuch von Otto von Guericke zum Nachweis des Luftdruckes. Die Elementar­teilchen durchfluten zwar reaktionslos bis auf die Atomkerne die gesamte Materie, werden jedoch von den Quarks der Atomkerne vollständig reflektiert, da die Quarks wie die Schwarzen Löcher so massiv sind, dass sich in ihrem Inneren nichts bewegen kann, weshalb ihre Innentemperatur stets dem absoluten Nullpunkt entspricht. Nach ihrer Reflexion gelangen aber die Ätherteilchen nicht mehr exakt, sondern unterschiedlich stark versetzt zu ihrem Ausgangsbereich zurück. Dadurch entsteht einerseits eine Krängung des Objektes, das schließlich zu einer Rotation des Körpers führt, andererseits entsteht in Bewegungsrichtung vor dem Objekt ein gewisser Unterdruck, da hier jetzt die zurückgekehrten zwischenzeitlich versetzten Ätherteilchen fehlen. Dieser Unterdruck bewirkt, dass sich die Objekte nicht mehr gradlinig fortbewegen können, sondern „abkippen“ und von ihrem Kurs abweichen bis hin zu kreisförmigen bzw. ovalen Bahn um entsprechend größere Himmels­körper einnehmen oder umeinanderkreisen, während sie sich gleichzeitig so lange nähern, bis ein Druckaus­gleich entsteht oder sie zusammenprallen. Das ist der Grund, warum alle Himmelskörper und Galaxien rotieren und sich als Folge des Druckausgleiches nähern und umeinanderkreisen.

Der Astronaut David Scott demonstrierte während seiner Apollo -15 - Mission 1971 auf dem Mond, dass ein Hammer und eine Feder, wenn man beide auf dem luftleeren Mond gleichzeitig fallen lässt, entgegen all unserer Alltagserfahrung, beide gleichzeitig den Boden erreichen. Wie ist das möglich? Der Mond ist eine Kugel. Der Ätherdruck ist auf seiner gesamten Oberfläche gleich. Nimmt man aber eine Feder und einen Hammer, so bilden diese beiden Objekte einen geringen Unterdruck zwischen sich und der Mondoberfläche im Vergleich zum gesamten Druck, der sie umgibt. Sowohl die Atomkerne der Feder, wie die des Hammers bilden also einen geringen Unterdruck zwischen sich und der Mondoberfläche. Auf diese Mondoberfläche wirkt aber auch der Druck der Ätherteilchen von der gegenüberliegenden Mondseite. Da der Mond aber rund ist, werden in der Mitte des Mondes, wo der Durchmesser am Größten ist, eine geringere Teilchenmenge durch­kommen, als an seinen Rändern. Aus diesem Grunde fallen alle Objekte grundsätzlich in Richtung Mondzentrum zu Boden, da hier der Unterdruck am Größten ist. Wenn man annimmt, dass die Feder aus 100 Atomen besteht und der Hammer aus 100.000 Atomen, wirken auf alle Atomkerne, sowohl von der Feder, wie von dem Hammer gleichstarke Kräfte ihrem Fall entgegen, da die Atomkerne so weit voneinander Entfernt sind, dass sie sich nicht gegenseitig beschatten. Die Stärke der Pfeile soll die Druckunterschiede verdeutlichen.

 

Weder Raum noch Zeit können sich kräuseln, Gravitations­wellen weiterleiten, sich krümmen, biegen oder dehnen. Raum- und Zeitangaben sind in der Relativitätstheorie von Einstein keine universell gültigen Ordnungsstrukturen, sondern mathematische Strukturen. Hier hat sich Einstein auf Glatteis begeben und seiner Relativitätstheorie einen schlechten Dienst erwiesen. Er geht bei seinen Überlegungen davon aus, dass der räumliche und zeitliche Abstand zweier Ereignisse oder auch deren Gleichzeitigkeit von Beobachtern mit verschiedenen Bewegungszuständen unterschiedlich beurteilt werden. Bewegte Objekte erweisen sich im Vergleich zum Ruhezustand in Bewegungsrichtung als verkürzt und bewegte Uhren als verlangsamt. Da jedoch jeder gleichförmig bewegte Beobachter den Standpunkt vertreten kann, er sei in Ruhe, beruhen diese Beobachtun­gen auf Gegenseitig­keit, das heißt, zwei relativ zueinander bewegte Beobachter sehen die Uhren des jeweils anderen langsamer gehen. Außerdem sind aus ihrer Sicht die Meterstäbe des jeweils anderen kürzer als ein Meter, wenn sie längs der Bewegungs­richtung ausgerichtet sind. Die Frage, wer die Situation korrekt beschreibt, ist bei diesen Vorgaben prinzipiell nicht zu beantworten und deshalb ist die Argumentation von Einstein irreführend, weil er behauptet, dass es kein allgemeingültiges Inertialsystem gibt. Das Problem lässt sich jedoch lösen, wenn man die Hintergrund­strahlung, die fälschlich als Echo eines fiktiven Urknalls erklärt wird, als Betriebs­temperatur des Universums anerkennt. Bereits 1926 hatte der englische Astronom Sir Arthur Stanley Eddington eine Temperatur von 3 Kelvin als Wärme­energie des gleich­mäßig verteilten Lichtes aller Sterne im Kosmos mittels der Boltzmann-Konstante errechnet. Die Boltzmann-Konstante zählt zu den fundamentalen Naturkonstanten; sie ist definiert als Quotient aus Energie E und Temperatur T. Im Gesetz für ideale Gase tritt sie über die nachfolgende Beziehung als Proportionalitätskonstante auf: Die Formulierung: „Gleich­mäßig verteiltes Licht aller Sterne im Kosmos“ besagt eindeutig, dass es sich um einen aktuellen Wärmeaustausch zwischen allen Sternen handelt. Eddington soll gesagt haben, dass alle Himmelskörper im Sternenlicht bei 3 Kelvin, also bei etwa -270°C baden. Auf die Idee, dass es sich bei dieser Hintergrund­strahlung um das Echo eines fiktiven Urknalls handeln könnte, kam zunächst niemand, da eine eventuelle Strahlung schon längst in den Weiten des Alls verschwunden wäre, zumal nach dieser Theorie die fiktive Ausdehnung des Universums ungleich langsamer erfolgen soll als die Flucht­geschwindig­keit der Photonen mit Lichtgeschwindigkeit.

Tatsache ist, dass Gravitationswellen wie alle Wellen ein Ausbreitungsmedium benötigen. Auf diese Weise wurde auch gleichzeitig bewiesen, dass es den geleugneten Äther doch gibt. Eine Tatsache, die viele Eliten zum Schwitzen bringen wird, denn damit ist auch die Urknalltheorie widerlegt und die Astrophysiker werden die Geschichte des Universums umschreiben müssen. Das werden auch die Medien, die in ihrer Berichterstattung den Gesetzen der Marktwirtschaft unterliegen, nicht verhindern können.

www.wirtschaftslexikon.co/d/zwang-oekonomischer/zwang-oekonomischer.htm. Mit ökonomischen Mit­teln ausgeübter Zwang im Gegensatz zur direkten Gewalt. Es ist der Druck, die Unausweichlichkeit, sich den kapitalistischen Gesetzen zu unterwerfen. Dazu gehört vor allem der Zwang, seine Arbeitskraft zu den vom Kapitalismus diktierten Bedingungen zu verkaufen. Die kapitalisti­sche Produktionsweise zwingt die ArbeiterInnen, ihre Arbeitskraft zu verkaufen, wenn sie leben wollen.

Was der Buchdruck für die Kirche, das ist das Internet für die Wissenschaftslobby, da zurzeit noch Teile der Bevölkerung ebenso wie im Mittelalter in der Lage sind, sich eine eigene Meinung zu bilden und nicht die Medien, auch sehr zum Ärger vieler Politiker, nicht für sich denken lassen wollen. Nicht ohne Grund wird nicht nur von Feinden der Demokratie öffentlich von einer Lügenpresse gesprochen, obwohl es sich eigentlich um eine weitgehend gelenkte Information der Öffentlichkeit handelt. Auf diese Weise kann man unauffällig die im Grundgesetz garantierte Pressefreiheit garantieren und gleichzeitig unterlaufen.

Quarks und Anti­quarks bauen zusammen mit der Dunklen Materie sowie den drei verschiedenen Feldern, dem Gravitationsfeld, dem elektrischen Feld und dem Magnetfeld die Materie des gesamten Kosmos auf. Aus welchem Blick­winkel man auch immer die Dinge betrach­tet: Immer ist das Große im Kleinen und das Kleine im Großen wieder zu erkennen. Entscheidend für das Verständ­nis all dieser geschilderten Ereignisse ist das sogenannte Selbst­ähnlichkeits­prinzip, das die Chaosforschung entdeckte. Es besagt, dass alle Funktions­mechanismen im Universum sich letztlich durch dauerndes Wieder­holen einfachster Grund­vorgänge und Grundmuster aufbauen. Der Äther ist dagegen das Medium, das die Welt im Innersten zusammenhält. Die Chaosforschung macht es uns Menschen nachvollziehbar, warum die Welt so bunt und vielfältig ist und warum uni­verselle Gesetzmäßigkeiten gelten. Unab­hängig von den Vorgaben unserer Eliten, organisiert sich das Universum selbst und funktioniert und reagiert sich selbst nach altbewährten eigenen Gesetzen seit ewigen Zeiten und kein Sterblicher, möge er noch so viele Titel und Macht haben, wird ebenso wenig wie ein auch immer postuliertes „vernunftbegabtes Wesen“ je etwas daran ändern. Aus diesen unum­stößlichen Gründen kann man mit dem heutigen gesicherten Wissen das Universum erklären und verstehen, sofern nicht finanzielle und machtpolitische Interessen gemeinsam mit Emotionen und religiösen Überzeugungen das behindern. Der Kosmos ist ein Organsystem und funktioniert wie die ersten Einfachsten Organismen, indem sich einzelne Atome, zu immer komplexeren Molekülen vereinigen und sich so über anorgani­sche Verbindungen zu organischen Molekülverbänden anordneten, um schließlich einen lebenden Organismus zu gestalten, der sich die zum Überleben notwendige Energie eigenständig zu besorgen vermag und sich schließlich zu reproduzieren in der Lage ist. Aus diesem Grunde sind die sogenannten „Schwarzen und Weißen Raucher“ als Ursprung des Lebens anzusehen.

Bei der Entstehung der Erde bildet sich eine Atmosphäre, deren Gasbestandteile durch Ausgasungen vom Inneren der Erde her, vor allem durch Vulkanismus, freigesetzt wurde. Die Erdatmosphäre bestand in jener Zeit hauptsächlich aus Kohlendioxid, Stickstoff, Methan, Ammoniak, Schwefelwasserstoff und Wasser­dampf, der an Schwebestoffen in der Luft konden­sierte und danach abregnete. Es herrschten also absolut lebensfeindliche Bedingungen für Pflanzen und Tiere, wie wir sie heute kennen. Der viele hundert Millionen Jahre andauernde Regen ließ die Ozeane entstehen und hat das Kohlendioxid und den Schwefel aus der Atmosphäre herausge­waschen. Langsam begann sich etwas Sauerstoff durch die Aufspaltung von Wasserdampf (H2O) und Kohlendioxid (CO2) zu bilden. Gleichzeitig spielte und spielt sich noch heute unter Wasser Erstaunliches ab. Einerseits entstehen Lebensformen, für die Sauerstoff tödlich ist, andererseits erschienen kleine winzige blaugrüne Zellen, die sogenannten Cyanobakterien, die die Photo­synthese „erfanden“ und Sauerstoff bilden. Sie nutzen die Energie des Sonnenlichts, um aus Wasser und Kohlendioxid Zucker herzustellen. Dieser Sauerstoff war aber Gift für die Organismen, die sich ohne Sauerstoff im Bereich der Schwarzen Smoker im Laufe der Zeit unter relativ gleichbleibenden Bedingungen über Milliarden von Jahren allmählich entwickelt haben. Für diese Organismen wie z.B. Einzeller, Bakterien, Röhrenwürmer, Venusmuscheln, blinde Krabben und Bathymodiolide Miesmuscheln, (selbst einzelne Fische wurden in dieser bis dahin unbekannten einzigartigen Lebewelt gesehen), war Sauerstoff ein tödliches Gift.  Ihr Stoffwechsel ermöglichte es ihnen dafür z. B. an heißen Quellen der Tiefsee, bei Temperaturen von bis zu 360 Grad Celsius, die Energie für ihren Stoffwechsel und ihre Vermehrung durch chemische Reaktionen aus anorganischen Verbindungen zu gewinnen. Etwa 1979 wurden erstmals diese sogenannten Black Smoker, die hydrothermalen Quellen am Grund der Tiefsee, die durch Vulkanismus entstehen, entdeckt. Ihre Öffnung ragt aus einer röhren- oder kegelförmigen porösen mineralischen Struktur, dem Schornstein, aus dem eine Sedimentwolke austritt, die aus Metallsulfiden, -oxiden und -sulfaten besteht hervor. Da sich diese Smoker unterhalb von 1000 Metern Tiefe befinden, ist der Druck höher als 100 Kilogramm/cm2. Das bedeutet, dass die Atome so dicht aneinandergepresst werden, dass kein Dampf bzw. Gas freigesetzt werden kann. Gleichzeitig herrschen in diesen Tiefen sowohl weitgehend stabile Makro­klimate als auch eine Unzahl von Mikroklimate in den schwammig aufgebauten porösen Wänden der Smoker. Kurz: Es bestehen dauerhaft optimale Voraussetzungen für die Entstehung unterschiedlichster chemischer Verbindungen auf engstem Raum.

Durch die moderne Technik ist es möglich geworden, den Stoffwechsel der Organismen in diesen Tiefen zu erforschen. Da ähnliche Formen in fossilen Faunengemeinschaften von Massiv-Sulvid-Lagerstätten gefunden worden sind, welche unter solchen Bedingungen abgelagert wurden, ist es naheliegend, davon auszugehen, dass sich unser Leben an hydrothermalen Quellen entwickelt hat und noch immer entwickelt. Aktiver Vulkanismus und Wasser sind also die „Geburtstshelfer“ für das Leben auf unserem Planeten.

Die urtümlichsten aller Organismen, die Archaeen, zählen sozusagen zu den ältesten heute noch nachzuweisenden Wurzeln des Lebens, das vor 3,8 Milliarden Jahren begonnen haben soll. In den letzten Jahren konnte man erstmals nachweisen, dass das von den Smokern erhitzte Wasser mit all seinen Schwebestoffen und Kleinstorganismen nicht nur aus den Tiefen aufsteigt, sondern in geringeren Tiefen, wenn es sich entsprechend abgekühlt hat, flächenartig in Form von umschriebenen Inseln ausbreitet und so anorganisches und organisches Material bzw. unterschiedliche Entwicklungsstufen von Organismen in einer Art Kapsel einschließt. Diese „Inseln“ werden ebenso wie die Larven von Lebewesen, deren Lebens­grundlage durch Zerstörung der Smoker entzogen wurde, von den unterschied­lichsten Meeres­strömungen weltweit in die verschiedensten Umwelt­milieus verbreitet. So können die einzelnen Organismen an für sie besonders günstige Umweltbedingungen gelangen, denen sie sich ent­sprechend anpassen. Auf diese Weise ergeben sich für die jeweiligen Lebewesen die unterschiedlichsten Entwicklungs­möglich­keiten. Man könnte diese „schwimmenden Inseln“ somit als einen Prototyp der „Arche Noah“ bezeichnen. Arche leitet sich von dem lateinischen Wort „arca“ = Kasten ab. Diese Befunde aus den letzten Jahren zeigen, dass es sich hier um einen über 3 Milliarden Jahre alten Prozess handelt, welcher noch immer andauert und das Potential besitzt, fortwährend neues Leben zu erschaffen.

Doch nach diesem Ausflug in die Evolution zurück zur Quantentheorie. Quantenobjekte, wie Photonen und Elektronen, sind  weder klassische Teilchen noch klassische Wellen, sondern umschriebene, unterschied­lich elastische Felder, die sich nach einem Phasenübergang aus den Ätherteilchen gebildet haben. Doch gibt es eine Reihe von Versuchen, die sich mit dem Wellen­modell, andere mit dem Teilchenmodell gut beschreiben lassen. Diese beiden Modelle wider­sprechen sich, weil die Vorgaben für die Mathematiker unterschiedlich sind und deshalb nicht miteinander verglichen werden können.

Der Wellen-Teilchen-Dualismus ist eine schizophrene Interpretation unverstandener mathematischer Operatio­nen und des Doppelspalt-Experimentes.

Die Interpretation des Doppelspalt-Experi­men­­tes kann nicht richtig sein, da das Inter­ferenz­muster auch dann auftritt, wenn die Photonen oder Atome einzeln, also hintereinander durch eine der beiden Spal­ten gesendet werden, da in diesem Falle eine Interferenz als Erklärung ausscheidet. Für eine Interferenz­erscheinung ist die gegenseitige Be­ein­­flus­sung von zwei oder mehreren Wellen­zügen mit fester Phasen­be­ziehung untereinander am gleichen Ort (Raumpunkt) zur gleichen Zeit (Zeitpunkt) zwingend. Noch einmal: Interferierende Wellen müssen grundsätzlich eine ent­sprechende Wellenlänge und eine feste Phasen­beziehung zueinan­der haben und am gleichen Ort zur gleichen Zeit aufeinander treffen, damit überhaupt Interferenz auftreten kann. Trotz anderer Voraus­setzun­gen erhält man aber das gleiche Er­geb­nis, wenn die einzelnen Photonen, Elektronen oder Atome einzeln und nacheinander durch den Doppelspalt geschickt werden. Obwohl es bei einer der­artigen Versuchs­anord­nung zu keiner Interferenz kommen kann, baut sich auf einer Fotoplatte, auch wenn genügend einzelne Photonen, Elektronen oder Atome nacheinander auf der Fotoplatte auftrafen, allmählich das gleiche Interferenzmuster auf, wie bei einer normalen Lichtquelle, als wenn alle Atome oder elektromagnetische Felder in Form von Photonen oder Elektronen gleichzeitig durch einen Doppelspalt geschickt werden. Die Erklärung ist einfach. Die Atomkerne sind so klein, dass sie keine Auswirkungen auf das Ergebnis eines Doppelspalt-Experimentes haben. Photonen, Elektronen und Atomhüllen sind alles Felder und keine massiven Teilchen.

Beim Doppelspaltexperiment lässt man Wellen, Lichtwellen, durch eine Blende mit zwei schmalen, parallelen Spalten treten. Auf einem Beobachtungsschirm bzw. einer Fotoplatte in einer Distanz zur Blende, die sehr viel größer ist als der Abstand a der beiden Spalte, zeigt sich ein Interferenzmuster. Dieses Muster entsteht durch Beugung der Wellenaus­breitung bzw. der Ausbreitung elektromagnetischer Felder am Doppelspalt. Voraussetzung zur Beobachtung des Interferenzmusters ist, dass die Wellenlänge λ kleiner als der Abstand a der beiden Spalte ist. Die kürzeste Wellenlänge für sichtbares Licht beträgt 380 Nanometer für violettes Licht. Der Atomkern ist 20.000 bis 150.000 Mal kleiner als die Atomhülle, beherbergt aber mehr als 99,9 Prozent der Masse des gesamten Atoms. Da 1 Nanometer = 1 Millionstel Millimeter (mm) ist, wird nachvoll­ziehbar, dass der Doppelspalt viel zu breit wäre um ein Interferenzmuster durch die Atomkerne zu ermöglichen, ganz davon abgesehen, dass sich die Atomkerne wie massive Kugeln verhalten und kein Interferenzmuster bilden würden. Wenn Wissenschaftler ein derartiges Experiment mit massiven Kugeln durchführen, bilden sich zwei schmale Streifen direkt hinter jedem der beiden Spalte.

 

Elektromagnetische Felder verhalten sich im Gegensatz zu massiven Teilchen wie Wellen. Es gibt folglich keinen Wellen-Teilchen-Dualismus, sondern nur falsche Interpretationen von Versuchs­ergebnissen.

Aber schließlich wären die Vertreter der Theoretischen Physik keine theoreti­schen Physiker, wenn sie für dieses wahrhaft erstaunliche Phänomen keine Erklärung hätten. Ohne jeden Skrupel stellen sie allen Ernstes und einer erschreckenden Borniertheit fest, dass dieses Versuchs­ergebnis als Interferenz der einzelnen Atome und Felder mit sich selbst zu interpretieren sind. Dass die klassische Physik die Interferenz als eine Überlagerungs­erscheinung definiert, die auftritt, wenn zwei oder mehr Wellenzüge dasselbe Raumgebiet gleichzeitig durchlaufen, wird schlicht ignoriert. Wenn die Behaup­tung der Theoretiker stimmen würde, dürfte eigentlich kein Teilchen auf der Foto­platte ankom­men bzw. zu erkennen sein. Bisher hat man auch noch nicht gelesen oder gehört, dass sich ein Atom beim Durchtritt durch einen Spalt selbst vernichtet hat. Die Fotoplatte müsste in diesem Falle schwarz bleiben. Auch hier wagt niemand ernsthaft danach zu fragen und sollte es doch einer riskieren, so wird man ihn mit den bereits so oft bewährten Methoden zum Schweigen bringen. Deshalb spottete schon Einstein: „Wenn die Fakten nicht zur Theorie passen, ändere die Fakten .....!“

Die Quantenobjekte sind nach Überzeugung der Vertreter der theoretischen Physik Teilchen, die immer als ganze Portionen auftreten. Es gibt keine halben Photonen oder viertel Elektronen. In der Realität handelt es sich bei den Photonen, Elektronen und Atomhüllen um umschriebene, plastische elektromagnetische Felder, die durch einen Phasenübergang entstanden sind und nicht um massive Teilchen. Vergleichbar mit einem Wassertropfen, der sowohl als „Teilchen“ auf eine Oberfläche fällt, als auch als Flüssigkeit sich im Wasser auflöst. Das Medium Äther ist ein gasförmiger Stoff, aus dem durch Phasenübergänge, je nach den entsprechenden Rahmen­bedingungen, elektromagnetische Felder oder Quarks und Antiquarks, die Atomkerne der Materie, entstehen können.

Wenn sich Materie durch den Raum bewegt, treten Reibungskräfte mit dem Medium Äther auf und da Photonen, Elektronen und Atomhüllen lediglich einen anderen Phasenzustand des Mediums Äther darstellen, der nach Überschreiten einer kritischen Dichte der Äther­teilchen entsteht, werden diese elektromagnetischen Felder in Flugrichtung umso stärker komprimiert, also verkürzt, je höher ihre jeweilige Beschleunigung ist. Das Gleiche passiert, wenn man einen Luftballon bei hoher Geschwindig­keit aus dem Fenster eines fahrenden Autos hält. Er wird durch den Luftwiderstand an seiner Frontseite eingedrückt. Bei Erreichen der Licht­geschwindig­keit entsteht schließlich ein massives Teilchen, vergleichbar mit der Dichte von Schwarzen Löchern. Da sich wegen des Ätherwiderstandes nichts schneller als Licht bewegen kann, sublimiert die Materie wieder zu Ätherteilchen.

Gemäß der Kopenhagener Interpretation ist der Wahrscheinlichkeitscharakter quanten­theoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell nicht deterministischen Charakters von quantenphysikalischen Naturvorgängen. Kurz: Was ein Physiker nicht wiegen oder messen kann, existiert für ihn nicht, denn er kann nicht damit arbeiten. Das hat aber nichts mit der Realität zu tun. Ein Blinder sieht auch den Kosmos nicht und trotzdem ist der Kosmos vorhanden. Unter Indeterminismus versteht die Kopenhagener Interpretation, dass nicht alle Ereignisse durch Vorbedingungen eindeutig festgelegt sind, es also bestimmte Ereignisse gibt, die nicht eindeutig durch Ursachen determiniert, sondern indeterminiert (unbestimmt) sind. Deshalb werden alle quanten­mechanischen Vorgänge nach einer Wahrscheinlichkeitsstatistik berechnet. Das Verhalten eines einzelnen Teilchens kann also nicht berechnet werden und so führte Heisenberg den Begriff der Unschärferelation ein. Das bedeutet, dass man den Ort und den Impuls von Quantenobjekten gleichzeitig nicht beliebig genau bestimmen kann. Das ist aber ein Problem der Physiker. In der Realität reagiert jedes Teilchen entsprechend  den jeweiligen Rahmenbedingungen und positioniert sich entsprechend schnell und zielgenau. „Es weiß also sehr genau wo es sich befindet und wie schnell es sich wohin zu bewegen hat.“ Dies Behauptung der Physiker ist z. B. gleichbedeutend mit dem Abschied von der klassischen Bahnvorstellung bei Quanten­objekten, da die Beschreibung einer Bahn die gleichzeitige präzise Kenntnis von Ort und Impuls eines Objekts voraussetzt. Da sich aber die Teilchen nach den Naturgesetzen und nicht nach den Physikern richten, funktioniert die Selbstorganisation der Materie hervorragend.

Die Chaosforschung versucht dagegen von vornherein nicht alle Vorgänge linear zu beschreiben, da in der Natur alle Prozesse nichtlinear ablaufen. Die Chaosforschung oder Chaostheorie bezeichnet ein nicht klar umgrenztes Teilgebiet der Nichtlinearen Dynamik bzw. der Dynamischen Systeme, welches der Mathematischen Physik oder angewandten Mathematik zugeordnet wird.  Die Chaosforschung erklärt auch, was Schüler schon lange auf Grund ihrer Unterrichtserfahrungen wussten, wenn sie feststellten: „Chemie ist das was kracht und stinkt, Physik nennt man was nie gelingt.“

Die klassische Mechanik beruht auf den von Isaac Newton Ende des 17. Jahrhunderts gelegten Grundlagen. In der Entwicklung der Physik und der anderen Naturwissenschaften diente die klassische Mechanik als wichtiges Vorbild. Die klassische Mechanik ermöglicht sehr genaue Vorhersagen und Beschreibungen aller mechanischen Vorgänge in Wissen­schaft, Technik und Natur, sofern die Geschwindigkeit der Körper gegenüber der Licht­geschwindigkeit und ihre de Broglie-Wellenlänge gegenüber den Abmessungen des betrachteten Systems vernachlässigt werden können. Die physikalischen Theorien wie Relativitätstheorie und Quantenmechanik, mit denen diese Einschränkungen im 20. Jahrhundert überwunden wurden, fußen einerseits auf der klassischen Mechanik, beruhen aber auch wesentlich auf Konzepten, die mit der klassischen Mechanik nicht mehr vereinbar sind. Typische Anwendungsgebiete der klassischen Mechanik sind Himmelsmechanik, Technische Mechanik, Hydrodynamik, Aerodynamik, Statik und Biomechanik.

Die Newtonschen Gesetze gelten als die Grundlage der klassischen Mechanik, auf der alle weiteren Modelle basieren. Viele alltägliche Phänomene werden durch die klassische Mechanik ausreichend genau beschrieben. Es gibt aber Phänomene, die mit der klassischen Mechanik nicht mehr erklärt oder nicht mehr in Einklang gebracht werden können. In diesen Fällen wird die klassische Mechanik durch entsprechende mathematische Operationen ergänzt und entsprechen zur Begründung von Theorien benutzt, wie z. B. durch die spezielle Relativitätstheorie oder die Quantenmechanik.

Die Probleme ließe sich allerdings lösen, wenn auch weiterhin unter Naturwissenschaft die Erforschung und das Verstehen von Phänomenen der Natur begreifen und deshalb die einzelnen Fachgebiete mit ihren sehr unterschiedlichen und detaillierten Erkenntnissen zusammen­fassen würde. Stattdessen werden durch analysierende, messende und vergleichende Methoden Ergebnissen erarbeitet, die von der theoretischen Physik zu Modellen und Hypothesen zusammengefasst und mit „Händen und Füßen“ verteidigt werden. Dabei werden viele Modelle mit der Wirklichkeit verwechselt, weil die mangelnden Fachkenntnisse der Physiker aus den Fachbereichen der Biologie und Medizin zu falschen Interpretationen korrekter mathematischer Ergebnisse auf verschiedensten Wissensgebieten führen. Auf diese Weise entsteht nicht nur ein Schaden für viele Fachbereiche, sondern führt auch zu einem falschen Verständnis des Universums.

 

Der Urknall ist eine unhaltbare unrealistische mathematische Konstruktion.

Bis Anfang der 30ger Jahre des vorigen Jahrhunderts wurde fast ausschließlich das statische Weltmodell diskutiert. Erst als 1929 Edwin Hubble durch seine astro­nomischen Messungen weit entfernter Galaxien eine systematische Rotverschie­bung in den Spektren beobachtete, die man als Doppler-Effekt wertete, wurde die Expansion des Universums postuliert. Einstein war allerdings mit seiner allgemeinen Relativitätstheorie zu der Über­zeugung gelangt, die auch zwischenzeitlich experimen­tell bestätigt wurde, dass Licht, also Photonen, der Schwerkraft unter­liegen. Die Tragweite dieser Tatsache wurde bis heute entweder nicht erkannt oder wird nach bewährter Methode totgeschwiegen. Jedenfalls gilt bis heute offiziell, dass die Rotverschiebung der Spektren allein als Doppler-Effekt zu werten ist und somit die Expansion des Universums beweist.

Dass derartige Rotverschiebungen der Spektren auch durch die Schwerkraft verur­sacht werden, konnten in den 60ger Jahren des vorigen Jahrhunderts R. V. Pound und G. A. Rebka experimentell beweisen, aber das wird geflissentlich verschwiegen, da dies das Todesurteil für den Urknall bedeutet. Die Photonen verbrauchen auf Ihrem Weg durch die unter­schiedlichsten Schwerkraftfelder des Universums Energie, was man an der Rotverschiebung der Spektren nachweisen kann. Sie verlieren ferner Energie durch Stoßprozesse mit „Materie­wolken“ und durch Reibungs­verluste der Photonen mit den allseits geleugneten Medium (Ätherteilchen). Schließlich sind ja auf der materiel­len Ebene der Luftwiderstand und dadurch bedingte Reibungs­verluste nicht unbekannt. Jede „Stern­schnuppe“, die am Himmel verglüht, bestätigt diesen Sachverhalt.

Reibungsverluste oder ein Compton-Effekt erklären zusätzlich die mit der Entfernung der Objekte zunehmende Rotverschiebung der Spektren, denn je weiter der zurückgelegte Weg, desto größer der Energieverlust. Da braucht man keine völlig unverstandene Dunkle Energie zu erfinden. Die Dunkle Energie wurde als eine Verallgemeinerung der kosmologischen Konstanten eingeführt, um die fehlinterpretierte beschleunigte Expansion des Universums zu erklären. Dieser Sachverhalt erklärt auch, warum bei der Raumsonde Pionier 10 nach dreißig Jahren Flugzeit, wie auch bei anderen Raumsonden im All, eine bisher unerklärliche geringe Abbremsung beobachtet wird. Diese Raumsonden waren nämlich nicht so weit entfernt, wie man im Voraus berechnet hatte. Das ist keineswegs verwunder­lich. Es ist zwangsläufig. Dieser Sachverhalt beweist nämlich ebenfalls, dass es den viel geleugneten Äther, die Dunkle Materie, Gravitonen WIMPs oder wie immer man den Urstoff oder das fast alles durchdringende Medium im All bezeichnen will, existiert. Man könnte sogar aus den gewonnenen Daten die Dichte des geleugneten Äthers errechnen. Wie gesagt: Wenn man wollen dürfte!

Photonen ermüden also und lösen sich aus diesem Grunde schließlich auf. Das ist übrigens auch der Grund, warum das sog. Olberssche Paradoxon kein Paradoxon ist, denn uns erreichen nur Bruchteile der Photonen, die von den unterschiedlichsten Himmelskörpern ausgestrahlt werden. Wenn es aber keinen Urknall gab, hätte man sich auch die Suche nach den Higgs-Teilchen ersparen können, denn ohne Urknall braucht man diese Higgs-Teilchen nicht und auch keine kostenintensiven Einrichtungen zu deren Nachweis. Aber man hatte die gutgläubige Öffent­lich­keit, die ja schließlich diesen ganzen Unfug bezahlen muss, bereits dermaßen indoktriniert, dass es am 4. Juli 2012 zu einem echten Medienhype kam. Die Weltpresse verkündete in großen Aufmachern, dass die Physiker am Kernforschungs­zentrum CERN eine wissenschaft­liche Sensation feiern. Angeblich hatten sie endlich das lange gesuchte Higgs-Boson gefunden, das anderen Teilchen Masse verleihen soll. So wurde dies wenigstens in allen Medien berichtet. Um dieser fachlich unhaltbaren Behauptung die Krone aufzusetzen, wurde dafür auch noch der Nobelpreis vergeben.

Federico di Trocchio, Professor für Wirt­schafts­ge­schichte an der Universität von Lecce, stellt in seinem Buch, „Newtons Koffer, Querdenker und ihre Umwege in die Wissenschaft“, Rohwohlt Taschenbuchverlag, 2001, u.a. fest: „Die Anmaßung, im alleinigen Besitz der Wahrheit zu sein, hat das wissenschaftliche Establishment dazu verleitet, auch das Monopol der Wissenschaftsfinanzierung und der Veröffent­lichungs­­möglich­keiten zu for­dern. Der Fall Arp und der noch dramatischere Fall Hillmann, die im III. Kapitel behandelt werden, haben deutlich gezeigt, dass Wissenschaftler mit abweichender Meinung heute riskieren, die Finanzmittel und die für ihre Arbeit erforderlichen Instrumente zu verlieren, ganz zu schweigen von der Möglichkeit, ihre Ideen bekannt zu machen und zu verbreiten. Aber wenn nonkon­formistische Wissen­schaftler ihre Karriere riskieren, riskiert die westliche Gesellschaft Stagnation oder, schlimmer noch, technologi­schen Rückschritt.“ An anderer Stelle schreibt Professor di Trocchio: „Im IV. Kapitel habe ich versucht zu zeigen, wie Wissenschaftler in diesem unglücklichen Fall wie in anderen (häufig unsichtbare) Tribunale bildeten, die eben­so, wenn nicht grausa­mer als die Inquisition waren. Wenn dies richtig ist, bleibt nur der Schluss, dass heute die Intoleranz der Religion durch die Intoleranz der Wissen­schaft ersetzt worden ist.“ Ende des Zitates.

 

Die Lehre der Urknalltheorie beruht auf drei Behauptungen, die unhaltbar sind.

1. der Relativitätstheorie von Albert Einstein, die unter anderem besagen soll, dass das Universum zum Zeitpunkt Null aus einem Punkt unendlicher Dichte hervorgegangen sein muss. Eine paradoxe Situation, da zu diesem Zeitpunkt nach Überzeugung der Astrophysiker die Masse unendlich groß und der Raum unendlich klein gewesen sein soll. Da das mit den geltenden physikalischen Gesetzen nicht zu vereinbaren ist, wird kurz behauptet, dass zu diesem Zeitpunkt unsere physikalischen Gesetze nicht galten. Diese Gesetze traten erst spontan in Kraft, als man mathematisch eine Konstruktion erschuf, die in sich schlüssig und unser heutiges Universum mathematisch zu strukturieren in der Lage war. Wer das nicht glaubt, hat nach Ansicht der Vertreter dieser unhaltbaren Theorien ein evolutionsbedingtes geistiges Defizit.

2. der von Edwin Hubble gemachten Entdeckung der Rotver­schiebung der Spektrallinien im Licht weit entfernter Quasare und Galaxien, die als Doppler-Effekt gedeutet und so als Fluchtge­schwindigkeit dieser Objekte interpretiert wird, obwohl experimentell nachge­wiesen wurde, dass auch eine gravitativ bedingte Rotverschiebung der Spektren besteht.

3. der Entdeckung einer gleichmäßigen Hintergrundstrahlung im Mikro­­­wellen­bereich, die als schwacher Überrest eines fiktiven Ur­knalls inter­pretiert wird, obwohl der Entropiesatz besagt, dass der absolute Nullpunkt nicht erreicht werden kann und Sir Eddington bereits 1926 berechnet hatte, dass die „Betriebstemperatur“ des Universums 3 Kelvin beträgt.

Die Fehlinterpretationen von Einsteins Relativitätstheorie und das lineare Denken der Kosmologen bedingt, dass man auf Grund der unterschied­lichen Rotver­schiebungen von Spektren der Galaxien auf einen fiktiven Urknall zurück­rechnet und ernsthaft behauptet, dass 10-42 Sekunden nach dem Urknall das Universum so groß wie eine Apfelsine und 1032 Grad heiß war. Gleich­zeitig wird festgestellt, dass in den ungleich größeren „Schwarzen Löchern“, die in großer Zahl im Universum vorhanden sind, die Materie so stark komprimiert ist, dass sich kein Teilchen in ihnen bewegen kann und folglich die Zeit in ihnen stillsteht. In einem derartigen Zustand kann ein „Schwarze Loch“ nicht mehr weiter schrumpfen, also noch kleiner werden, es kann aber auch nicht strahlen. Hier widerlegen sich die Experten selbst. Übrigens ist auch bis jetzt noch niemand auf die Idee gekommen, dass „Schwarze Löcher“ explodieren könnten.

Trotz der weiter oben beschriebenen gesicherten Ergebnisse traf den seinerzeit allseits als bestens aus­ge­bildeten und als kompeten­testen experimen­tellen Kosmo­logen aner­kannten Halton Arp der Bann der Gurus, als er bei seinen Beobach­tungen von Quasaren zu dem Schluss kam, dass Hubbles Gesetz, nach dem man die Ent­fernung der rätselhaften Himmelskörper auf Grund der Rotver­schiebung messen kann, falsch ist. Er hatte Quasare entdeckt, die auf Grund ihrer sehr hohen Rotverschiebung sehr weit entfernt sein mussten neben Galaxien, die unserem Planeten ver­gleichs­­weise sehr nahe sind. Dabei hatte er lediglich nach­gewiesen, dass die gesicherten Experi­men­te von Rebka und Pound universelle Geltung haben. Mit diesen Ausführun­gen hatte er aber gegen das Dogma des Urknalls verstoßen. Die Reaktion der modernen Inqui­si­tion folgte schließlich 1988. Arp wurde nicht mehr erlaubt, das Teleskop der Mount-Palomar-Sternwarte zu benutzen. Er wurde ein­fach von seinem Kollegenkreis geächtet.

Man kann noch viele andere Irrlehren aufzählen. Siehe auch Offener Brief von 33 Wissenschaftlern zum Thema Urknall und Behinde­rung der Forschung durch eine Wissenschaftslobby an die Wissenschaft­ler­kreise, veröffentlicht im New Scientist (22.-28. Mai, 2004, Seite 20).

„Die Urknalltheorie basiert auf einer großen Anzahl hypothetischer Wesen­heiten, auf Dingen, die wir niemals beobachtet haben - Aufblähung, geheim­nis­volle Materie und dunkle Energie sind die auffallendsten Beispiele. Ohne diese gäbe es einen fatalen Widerspruch zwischen den Beobachtungen durch die Astrono­men und den Vorhersagen der Urknalltheorie.

In keinem anderen Bereich der Physik würde diese stetige Zuflucht in neue hypothetische Objekte als ein Weg akzeptiert werden, um die Lücken zwischen Theorie und Beobachtung zu schließen. Irgendwann müssten ernst­hafte Fragen über die Richtigkeit der zugrundeliegenden Urknalltheorie aufge­worfen werden.

Doch die Urknalltheorie kann ohne diese zu recht gepfuschten Faktoren gar nicht überleben. Ohne das hypothetische Inflationsfeld kann mit dem Urknall die fließende isentropische kosmische Hinter­grundstrahlung, die man be­obach­­ten kann, nicht erklärt werden, weil es keine Möglichkeit gibt für Teile des Universums, die sich nun weit mehr als nur wenige Grade vom Himmel weg befinden, die gleiche Temperatur anzunehmen und somit dieselbe Menge an Mikrowellen­strahlung auszuströmen  ………….“ Ende des Zitates.

 

Woraus besteht das Universum, wie funktioniert es und wie entstand der Mensch?

Wie der Nachweis von Gravitationswellen zeigt, besteht das Universum aus einem gasförmigen, stofflichen Medium, da sich Wellen nur in einem gas­förmigen, flüssigen oder festen Medium fortpflanzen können. Der dritte Hauptsatz der Thermodynamik besagt, dass die Entropie eines Körpers am absoluten Temperatur-Nullpunkt (-273.15 °C) Null wird. Physikalisch gesehen ist die Temperatur ein Energie-Mittelwert. Die Temperatur eines Gases ist z. B. proportional zum Mittelwert der Bewegungsenergie der jeweiligen Teilchen; der absolute Nullpunkt ist erreicht, wenn sich die Teilchen überhaupt nicht mehr bewegen.

Dieser absolute Nullpunkt ist aber unstrittig prinzipiell nicht erreichbar. Wäre es anders, würde es den Kosmos nicht geben. Das bedeutet, dass Teilchen, die das Medium (Äther) bilden vorhanden und stets in Bewegung sind. Einige mutige Astrophysiker sprechen von sogenannten WIMPs. (engl. weakly interacting massive particles, schwach wechsel­wirkende massereiche Teilchen“ oder auch von „Dunkler Materie“.

Vor etwa 2500 Jahren traf bereits Aristoteles (*384 v. Chr. † 322 v. Chr.) eine viel weitergehendere Aussage, die bis heute von der Fachwelt nicht akzeptiert wird, die aber den wahren Sachverhalt in wenigen Worten beschreibt. Er führte den Begriff  „hyle prote“ ein, der, in Latein übersetz, als  materia prima in die Literatur Eingang gefunden hat und zwar in einem doppelten Sinne. In seiner Abhandlung über die Physik stellt er fest, dass die materia prima das elementare Substrat aller Naturkörper ist, das die Umwandlung in andere Körper durch Phasenübergänge ermöglicht. Da nicht alle Elementarteilchen im Kosmos gleichzeitig symmetrisch schwingen können, bilden sich, vergleich­bar mit den Erkennt­nissen aus der Wetterkunde, Verdichtungen, Verdünnungen und Verwirbelungen in der Atmosphäre wie in den Weiten des Universums. Unter entsprechenden Rahmenbedingungen können sich die gasförmigen Wassermoleküle, H2O, zu Wasser verflüssigen oder zu festem Eis gefrieren. Das hat wiederum zur Folge, dass sich die unterschiedlichen Himmelskörper in diesem Medium gegenseitig „beschatten“ können, wenn sich diese Körper entsprechend nahekommen, so dass zwischen ihnen ein Unterdruckgebiet entsteht. Damit dieses Unterdruckgebiet wieder ausge­glichen wird, werden diese Objekte durch den sie umgebenden Außendruck so lange aufeinander zugeschoben, bis der Druckausgleich erfolgt ist oder sie kollidieren. Die Gravitationskraft ist also gar keine Anziehungskraft, sondern die Konsequenz eines Druckausgleiches.

Verständlich wird dieser Sachverhalt durch die Erkenntnisse der Chaos­forschung. Quasare und Galaxien folgen den jeweiligen Unterdruckregionen (Gravitations­feldern) und bilden immer größere Galaxienhaufen. Dies lässt sich auch durch statistische Analysen und gesicherte Beobachtungen beweisen, die besagen, dass im Kosmos grund­sätz­lich die Tendenz zur Haufen­­bildung von Galaxien besteht, in deren gemeinsamen Zentrum der Unterdruck als Mangel an Elementarteilchen durch die gegenseitige Abschirmung am größten ist. In der Chaos­forschung spricht man von einem zentralen Attraktor, ohne ihn jedoch näher zu definieren. Nach meiner Überzeugung sind diese „Attraktoren“ jeweils der gemeinsame Schwerpunkt, also das Gebiet maximalen Unterdrucks, das Zentrum aller dieser, die Galaxienhaufen bildenden Himmelskörper. Je näher sich die einzelnen Galaxien kommen, umso stärker werden sie auf den gemeinsamen Attraktor hin beschleunigt, bis sie schließlich irgendwann in ferner Zukunft beinahe Licht­geschwindig­keit erreichen. Da sich bei Licht­geschwindigkeit kein noch so kleines kräftetragen­des Teilchen zusätzlich zur Licht­geschwindig­keit bewegen kann, ist eine Wechsel­wir­kung zwischen den einzelnen Elementarteilchen in der Materie nicht mehr möglich und die Materie, aus denen die Himmelskörper bestehen, löst sich in ihre Grundbausteine, die Elementarteilchen, auf, sie sublimieren. So werden sie wieder zu den das Universum ausfüllenden Ätherteilchen, um sich irgendwann wieder zu verdichten, Schwarze Löcher und schließlich als Quasare wieder Quarks und Antiquarks zu bilden, die Bausteine der Materie. Da Energie, sprich diese Elementar­teilchen, weder erzeugt noch vernichtet werden können, sondern nur durch Phasen­übergänge den Energiehaushalt und die damit verbundenen Aktivitäten des Universums regulieren, erneuert sich der Kosmos stetig, indem sich Entstehen und Vergehen von Materie in einem Fließgleichgewicht befinden. Das Universum funktioniert folglich wie ein unsterblicher primitiver Organismus und jede Galaxie verhält sich im Kosmos wie eine Zelle in einem Organismus. Deshalb sieht das Universum im ganz großen Maßstab ebenso schwammartig aus, wie in den Knochen von Lebewesen. Dieses „Gewebe“, auch Spongiosa genannt, benötigt wenig Material, stützt, ist elastisch und passt sich durch ent­sprechenden Umbau den jeweiligen Zug- und Druckkräften an, weshalb sich das Universum sehr plastisch verhalten kann und sich auch optisch dauernd verändert. Es ist also nicht statisch, sondern dynamisch in steter Veränderung.

Wie bereits weiter oben beschrieben, verhält sich das Medium Äther im All wie die Luft in unserer Atmosphäre, sodass man sich die Erkenntnisse der Meteorologen zu Nutze machen kann. Als Folge der willkürlichen Bewegung der Ätherteilchen kommt es zu unterschiedlichen Verdichtungen im Universum, vergleichbar der Bildung von Wolken bis hin zu Wirbelstürmen. Während Wirbelstürme an Kraft verlieren, wenn sie an Land gelangen, weil die Energiezufuhr, die sie über dem Atlantik aufgebaut und so stark gemacht hat unterbrochen wurde, stürzen die großflächigen Verwirbelungen von Ätherteilchen im Kosmos unter der Schwerkraft in sich zusammen, weil als Folge ihrer Ausdehnung nicht mehr genügend Ätherteilchen zur Verfügung stehen, um das System stabil zu halten, geschweige denn weiter zu vergrößern. Auf diese Weise entsteht ein im Zentrum dieser Teilchenformation ein massives Gebilde, das die Physiker als Schwarzes Loch bezeichnen, weil die Schwerkraft so groß ist, dass nicht einmal Photonen entweichen können, also außer einem extrem starken Gravitationsfeld nichts auf ihre Existenz schließen lässt. Innerhalb des Schwarzen Loches kommt es zu Dichteunterschiede, die aus Temperatur- oder Konzentrations­unterschieden resultieren. Das unterschiedliche Volumen gleicher Massen führt dann zu unterschied­lichem statischen Auftrieb, den sogenannten Konvektionsströmen. Der statische Auftrieb ist eine der Schwerkraft entgegengesetzte Kraft in Gasen oder Flüssigkeiten. Er wird durch die Verdrängung des leichteren Mediums durch das dichtere, weil heißere Medium hervorgerufen.

Das massive Zentrum, also das Schwarze Loch, wird von einer von außen nach innen zunehmenden Teilchendichte umgeben. Gravitation und Dichte­unterschiede bewirken unterschiedlich schnell ablaufende Umwälzungen (Konvektionsströme) dieses Fluids, dabei kommt es an der Grenzfläche zwischen dem Fluid und dem massiven Kern des Schwarzen Loches als Folge des extremen Druckes und der extrem hohen Temperaturen zu einem Phasenübergang und die Ätherteilchen kristallisieren zu kleinen Partikeln, den Vorstufen späterer Quarks und Antiquarks aus. Gleichzeitig stürzt die Temperatur schlagartig auf den Absoluten Nullpunkt, da sich kein Ätherteilchen innerhalb dieser kristallinen Partikel bewegen kann und bilden so bei dem Erstarren ihren akuten „Konvektionstatus“ ab. Diese Partikel können sich aber wegen der extrem Größe und der hohen Rotation des massiven Kerns im Zentrum des Schwarzen Loches nicht mehr anlagern, werden durch die Corioliskraft zu den beiden Polen der Rotationsachse gepresst und reichern sich dort so lange an, bis sie schließlich durch den entstehenden Überdruck in Form von Jets an beiden Polen in entgegengesetzter Richtung explosionsartig in das All ausgestoßen werden. Auch wenn Tornados auf unserm Planeten eine andere Entstehungsgeschichte haben, so kann man die Abläufe innerhalb eines Jets und eines Tornados vergleichen. Als Hebungs­mechanismen für die Jets sind sowohl extreme Druck- und Temperaturunterschiede zwischen dem Über­druck und der Innentemperatur des Quasars und dem Weltraum, sowie die dynamischen Rotationskräfte, die von dem Quasar den Jets mitgegeben werden, anzusehen.  Erst diese zusätzlichen Energiemengen ermöglichen ein derart freies Aufsteigen der Quarks in Form der Jets, da die Weltraumsphäre gegenüber den Konvektionsströmen innerhalb der Jets stabil ist. So wie z. B. der Luftschlauch eines Tornados über Wasser auch eine Saugkraft entwickelt und große Wassermengen aufzusaugen vermag, so entsteht durch die Jets ebenfalls zusätzlich ein Sog.

Während des beschriebenen Vorgangs wird den Quarks in den jeweiligen Jets ein dauerhaftes spiegelbild­liches Oberflächenprofil aufgeprägt, vergleichbar den Vorgängen in den „Zügen“ (dem Lauf) von Hand­feuerwaffen und im Rohr von Geschützen, die dem Projektil einen Drall verleihen und dadurch die Geschoss­flugbahn stabilisieren. Das Geschoss wird beim Durchqueren des Laufes leicht gequetscht und erhält dadurch ein für den jeweiligen Lauf charakteristisches beständiges Oberflächenmuster.

Durch den gegensätzlichen Spin werden die Quarks dauerhaft zu „Südmonopolen“ und die am Gegenpol zu „Nordmonopolen“. Auf diese Weise entstehen gleichzeitig die Grundbausteine der Materie und der spiegelbildlichen Antimaterie. Die Quarks mit gegensätzlichem Spin verbinden sich in der Akkretions­scheibe des Quasars derart fest zum kleinsten Stabmagneten, dass auf unserem Planeten Quarks immer als Double auftreten, bisher auch in den Größten Teilchenbeschleunigern nicht einzeln nachgewiesen werden konnten und man deshalb lediglich unterschiedlich große, aus Südmonopol und Nordmonopol zusammengesetzte Stabmagneten kennt. Quarks können folglich erst entstehen, wenn ein Schwarze Loch die Zündungsenergie erreicht und zum Quasar wird. Diese Jets werden auf annähernde Lichtge­schwindigkeit beschleunigt und behalten ihre stabile Form dadurch, dass sie die Rotation, die sie vom massiven Kern des Quasars mitbekommen haben, beibehalten. Alle Partikel, deren Masse, Größe und innerer kristallinen Aufbau nicht den künftigen Quarks entsprechen, werden aus diesem Jet ausgeschieden und fallen durch die Schwerkraft zurück, während die Partikel, die die Bedingungen für einen Quark erfüllen den Magnetmantel um den Quasar durchstoßen, an den gegensätzlichen Polen eine Oberfläche erhalten, die sie wie Windräder künftig gegensätzlichen drehen lassen, wenn die Ätherteilchen sie künftig wie unterschiedlich starke Winde rotieren lassen.

Ausrichtung der Urstoffteilchen in den vier Quarks (Innenstruktur) und den vier Antiquarks

 

Die entsprechenden Quarks und Antiquarks haben die gleiche Innenstruktur. Sie unterscheiden sich lediglich durch ihre entge­gen­gesetzte Drehrichtung, ihren Spin.

 

 

+2/3 – 1/3 + 2/3 = e                                               -2/3 + 1/3 – 2/3 = e

+4/6 – 2/6 + 2/3 = e                                            -4/6 + 2/6 – 4/6 = e

Überwiegend elektrisches Feld                           Überwiegend magnetisches Feld

Drei Quarks und drei Antiquarks bilden je einen kugelförmigen Zusammenschluss mit einem Hohlraum im Zentrum. Die < Pfeile > zeigen, wie ich später darlegen werde, die Ausrichtung der Ätherteilchen in den Konvektionsströmungen zum Zeitpunkt des Phasenüberganges am massiven Rand eines Schwarzen Loches an. Sie entsprechen der  „Wicklung“ von Spulen, wie sie bei den Elektromagneten verwendet werden.

Dabei ist unstrittig, dass Quarks nur paarweise als Quark und Antiquark existieren und bisher nicht getrennt werden konnten. Wenn man also statt drei Quarks drei Quarkpaaren einen Atomkern zugesteht, braucht man die Ladung von Quarks in den Atomkernen nicht zu dritteln und auch nicht die Tatsache außer Kraft setzen, dass Quarks auf unserem Planeten nur paarweise existieren. Darüber hinaus braucht man auch keine Naturgesetze außer Kraft zu setzen. Diese Manipulation der Teilchenphysiker zu Gunsten einer Theorie ist erschreckend, zumal Quarks die Bausteine der Materie sind. Hier bestätigt sich wieder einmal die Feststellung von Albert Einstein: „Wenn die Tatsachen nicht mit der Theorie übereinstimmen, umso schlimmer für die Tatsachen.“

Die Quark-Antiquark-Paare, erzeugen die elektromagnetischen Felder im Atomkern, indem sie wie ein Dynamo von den reflektierten Ätherteilchen in Rotation versetzt werden. Da die magnetisch wirkenden Quarkpaare senkrecht zu den elektrischen Quarkpaaren stehen, siehe Abbildung, stehen auch im Makrokosmos die Felder senkrecht aufeinander.

 

Wenn sich elektrische Ladungen bewegen, rufen sie ein magnetisches Feld hervor, das senkrecht zu den elektrischen Ladungen steht. Bewegte elektrische Ladungen treten nicht nur in strom­führenden Leitern auf, sondern auch in den Atomhüllen, die von Elektronen gebildet werden, durch Eigenrotation der Elektronen (Elektronenspin).

Ein magnetisches Feld ruft Kraftwirkungen auf andere bewegte elektrische Ladungen hervor. Der Verlauf magnetischer Feldlinien lässt sich mit Hilfe von Eisenfeilspänen darstellen. Magnetische Feldlinien verlaufen kreisförmig um die sich bewegenden Ladungen; sie sind also im Gegensatz zu den elektrischen Feldern stets geschlossen. Die technische Stromrichtung und die Orientierung der magnetischen Feldlinien sind im Sinne einer Rechtsschraube definiert („rechte Daumenregel“): Rechter Daumen zeigt in Stromrichtung, angewinkelte Finger in Richtung des magnetischen Feldes).

Quasare sind über weite Bereiche der elektromagnetischen Strahlung hell und haben charakteristische Spektren mit sehr breiten Emissionslinien, die in rascher Bewegung befindliche Teilchen anzeigen. Im Zentrum eines Quasars befindet sich, wie bereits beschrieben, ein Schwarzes Loch, das von einem soge­nann­ten Bulg, einem besonders dichten Zentralbereich aus Ätherteilchen (Dunkler Materie), umgeben ist. An den beiden Polen eines Quasars schießen sogenannte Jets strahlenförmig gebündelte Teilchen mit Lichtgeschwindigkeit mehrere Lichtjahre weit in das All. Die leuchtkräftigsten Quasare erreichen auf diese Weise eine Helligkeit, die mehr als das 1014-fache der Sonnenleuchtkraft betragen kann.

Am Ende des Jets verteilen sich die freigesetzten Quarks und Antiquarks, vergleichbar dem Wasser einer Fontaine, nach allen Seiten und folgen den elektromagnetischen Feldlinien zum entgegen­gesetzten Pol des Quasars. Auf halben Weg treffen sie jedoch im Bereich der Äquatorialebene des Quasars auf die Teilchen des entgegengesetzten Poles und verbinden sich mit ihnen zu vier unter­schiedlichen Quark / Antiquark­paaren. Die Eigenschaften dieser Quarkpaare entsprechen den sogenannten up-Quarks und down-Quarks.

Die Quantenchromodynamik (QCD) ist eine Quantenfeldtheorie mit deren Hilfe Teilchen­physiker die „Starke Wechselwirkung“ zu beschreiben versuchen. Was sie als Farbe bezeichnen, hat nichts mit unserem Farbempfinden zu tun. Der Begriff Farbe wurde von den Experten gewählt, weil ihnen das Wissen über das Verhalten reeller Farben geeignet erschien, das Ver­ständ­nis der Wechselwirkungen im Mikro­universums, in diesem Falle der sogenannten „Starken Kernkraft“, zu erleichtern. Nach der Quantenchromodynamik tritt jedes Quark in einer der drei Grundfarben Rot, Gelb oder Blau auf, jedes Antiquark in einer der drei Komplementärfarben. Werden die drei Grundfarben oder die drei Komplemen­tärfarben gemischt, so erhält man weiß. Da Baryonen nach dem Verständnis der Teilchen­physiker aus drei Quarks bestehen sollen, obwohl Quarks auf unserem Planeten immer nur paarweise anzutreffen sind, und Protonen auch zu den Baryonen gezählt werden, wird deshalb behauptet, dass drei Quarks mit den „Farben“ Rot, Gelb, und Blau = Weiß, ein Proton bilden. Und deshalb wird die Wechselwirkung von Quarks und Gluonen, den nach ihrer Ansicht fundamen­talen Bausteine der Atomkerne, entsprechend beschrieben und erklärt. „Dicht an der Wahrheit, aber doch daneben“ kann man da nur sagen, da durch die Urknalltheorie und die mathematisch konstruierten Atom­modelle der Bezug zur Realität verloren gegangen ist. Während der Urknall blanker Unfug ist, haben sich die unterschiedlichen Atommodelle für bestimmte Problemlösungen bewährt, sie werden aber unbrauchbar, wenn sie verallgemeinert werden und beschreiben nicht die Realität.

In der Realität sind Quarks ebenso wie Photonen farblos. Der Farb­eindruck entsteht über chemische Prozesse in sogenannten Rezeptoren in der Netzhaut des Auges, was wiederum zu entsprechenden elektro­magnetischen Informationen im Gehirn führt.

Nach der Gegenfarbentheorie von Hering  (1834–1918) kann man sich Farbeindrücke wie „gelbliches Blau oder „rötliches Grün“ nicht vorstellen, weil keine Farbe zugleich rötlich und grünlich oder gleich­zeitig Gelb und Blau sein kann. Die Ursache ist der gegenseitige Ausschluss von Rot + Grün, das zu Gelb wird. Die Wellenlänge von Gelb liegt zwischen den Wellenlängen von Rot und Grün sowie Blau und Gelb, das zu Grün wird.

 

Die Farbwahrnehmung ist als Teilbereich des Sehens die Fähigkeit, Licht in Abhängigkeit von der Wellenlänge der elektromagnetischen Strahlung verschieden wahrzunehmen. Dabei können unterschiedliche spektrale Zusammensetzungen des Farbreizes zur gleichen Farbwahr­nehmung führen, weshalb allein aus der wahr­genommenen Farbe nicht die Zusammensetzung des Farbreizes erschlossen werden kann. Photonen können in den Sehzellen, den Photorezeptoren, eine Umbildung an einem zusammengesetzten Protein des Sehpurpurs bewirken und durch anschließende biochemische Vorgänge elektri­sche Signale auslösen. Über die Sehnerven, die in der Netzhaut beginnen, werden diese Signale ins Zentralnervensystem geleitet und zu einem Farbeindruck verarbeitet.

Bei Betrachtung aller Farbtöne erscheinen für die meisten Menschen die vier Farben Rot, Grün, Gelb und Blau als besonders rein. Hering bezeichnete diese Farben als Urfarben. Andere Farbtöne empfindet man immer als Mischung. Beim längeren Betrachten einer Farbfläche und anschließender Betrachtung einer neutralen hellen Fläche entstehen Nachbilder in der jeweiligen Gegenfarbe. Diesen Prozess nennt man Sukzessivkontrast, (lat. succedere = nachfolgen).

Quarks und Antiquarks bilden ein Proton

 

Wenn man etwa 30 Sekunden genau auf den Protonkern und an­schließend auf eine weiße Fläche schaut, sieht man die Gegenfarben.

 

Diese Nachbilder entstehen bei der Farbwahrnehmung durch die An­passung des Auges gegenüber bestimmten Lichtreizen der Netzhaut­rezeptoren. Dabei verbrauchen sich die Pigmente für eine der drei Grundfarben, der das Auge für längere Zeit ausgesetzt ist, so dass die Reaktionen der entsprechenden Nerven immer schwächer werden. Durch diesen Umstand befindet sich das entsprechende Gegen­farbensystem nicht mehr im Gleich­gewicht, was zur Folge hat, dass die Gegenfarbe des ursprünglichen Reizes erscheint. Man sieht ein Nachbild des Objekts in Komplementärfarben. Ganz nebenbei. Eine derartige Erscheinung lässt sich übrigens nicht mit der weitver­breiteten Drei­farben­theorie, dem RGB-Farbraum, erklären.

1966 bestätigten endlich neurophysiologische Untersuchungs­ergeb­nisse, dass es vier grundlegende Farbempfindungen gibt. Die drei verschiedenen Zapfentypen im Auge, die jeweils für kurz- (blau), mittel- (grün) und langwellige (rot) Lichtstrahlen empfindlich sind, liefern Impulse an die nachgeschalteten neuronalen Farbkanäle. Auf der neuronalen Ebene werden die Farbreize „verschaltet“: Rot und Grün werden subtrahiert, die Differenz wird im Rot-Grün-Kanal weitergeleitet; die Addition von Rot und Grün dagegen ergibt die Empfindung von Gelb; diese Impulse werden vom Blau subtrahiert und im Gelb-Blau-Kanal weitergeleitet. Alle Farben werden außer­dem gegeneinander abgewogen und in einem Signal im Schwarz-Weiß-Kanal zusammengefasst. So entstehen die drei Empfindungs­­dimensionen: 1. Helligkeit, 2. Gelb-Blau-Komponente, 3. Rot-Grün-Komponente, aus denen dann mehrere tausend Farbarten unter­schieden werden können. Ein Glück, dass sich die tonangebenden Experten dieses Sachverhaltes nicht bewusst sind, denn sonst müssten wir zwangsläufig in einem fünfdimensionalen Raumzeit-Farbraum leben.

Die Quarks und Antiquarks, die ein Proton bzw. ein Neutron aufbauen, sollte man Yukawa Mesonen nennen, da der Japaner Hideki Yukawa 1935 diese Partikel vorausgesagt und ihre Masse mit etwa 270mal schwerer als ein Elektron erstaunlich genau aufgrund von Berechnungen vorausgesagt hatte. Mesonen  (Meson = gr. „das Mittlere“) sind nach offizieller Lehre instabile subatomare Teilchen, die aus einem Quark-Antiquark-Paar aufgebaut sind. Yukawa hatte als Erster einzelne Teilchen nachgewiesen und als Mesonen bezeichnet, weil ihre Masse zwischen der des Elektrons und der eines Atoms liegt. Heute bestätigen zwar die Teilchenphysiker, dass Mesonen nicht zerlegt werden können, begründen dies aber mit der irrigen Ansicht, dass sich Quark und Antiquark nach einer geglückten Trennung sofort mit einem neuen Partner verbinden würden, der aus der Energie erzeugt würde, die man für das Aufbrechen der Mesonen benötigt hatte. Gleichzeitig sprechen sie von virtuellen Mesonen mit einer äußerst kurzen Lebensdauer, weil sie die Mesonen als die „Starke Kraft“ verstehen, die nur auf extrem kurzen Distanzen wirkt. In Wirklichkeit ist die sogenannte Starke Kraft das Ergebnis von Gravitation minus elektromagneti­scher Abstoßung der Quarkpaare untereinander. Auch hier wird der ent­scheidende Fehler begangen, Wirkung und Stoffliches gleichzusetzen. Man muss sich halt alles mühevoll mit unterschiedlichsten Hypothesen zu Recht rücken, damit unhaltbare Behauptungen offiziell verkündet und von einer breiten Öffentlichkeit geglaubt werden.

Die sog. Starke Kraft ist eine Erfindung der Teilchenphysiker, weil sie die Vorgänge in den Atomen nicht verstanden haben und mit ihren zahlreichen Hypothesen in einer Sackgasse gelandet sind. Die Physiker fragten sich nämlich, warum Atomkerne nicht explodieren, wenn sie aus Protonen und Neutronen bestehen, denn die Protonen müssten sich aufgrund ihrer elektromagnetischen Kräfte gegenseitig abstoßen. Schließlich werden Protonen, die sich einem Atomkern nähern, durch die elektrischen Kräfte abgestoßen. Zwingt man allerdings ein Proton sich einem Atomkern bis zu einer Distanz zu nähern, die seinem Durchmesser entspricht, wird das Proton plötzlich mit einer Kraft in den Kern hinein­gezogen, die etwa hundertmal stärker ist als die abstoßenden elektromagnetischen Kräfte. Also schloss man messerscharf, dass es eine Starke Kraft geben muss, die auf ganz kurze Distanz im Kern wirkt und die elektromagnetische Abstoßung der Teilchen unterdrückt. Auch in diesem Falle ist zu empfehlen, sich an das aus der Chaosforschung bekannte Selbstähnlichkeits­prinzip zu erinnern. Hier spielt sich im subatomaren Bereich ein vergleichbarer Vorgang wie bei den Schwarzen Löchern im Universum ab. Ein extrem starkes Magnetfeld besteht um jeden Atomkern, das ihn gegen alle Materieteilchen abschirmt. Erst wenn das Proton ganz nahe an den Atomkern herangekommen ist, wird, da Neutronen elektrische Felder ignorieren, durch die Magnetkräfte des Atomkerns das ankommende Proton in ein Neutron umgewandelt und kann jetzt problemlos in den Atomkern eindringen. Im Atomkern kann das Neutron umgehend in das permanente Wechselspiel Proton zu Neutron und umgekehrt eingebunden werden. Jedes Quarkpaar und Antiquarkpaar hat einen dauerhaften elektro­magnetischen Schutz­wall, so dass sich jedes Proton bzw. Neutron wie auf einer nassen Schmierseife innerhalb des Atom­kernes scheinbar frei bewegen kann.

Atome und ihre sogenannte Antimaterie

Von Hideki Yukawa wurden 1935, also zu einer Zeit, als man von Quarks noch gar nichts wusste, auf Grund mathematischer Berech­nungen Teilchen postuliert, die für die starke Kernkraft verant­wortlich sein sollten. Einige Jahre nach ihrer Vorhersage wurden Teilchen in der kosmischen Höhenstrahlung nachgewiesen, die den Berechnungen Yukawas entsprachen. Sie wurden als Mesonen bezeichnet, weil ihre Masse zwischen der eines Elektrons (1) und der eines Protons (1836) liegt. Diese Teilchen haben jedoch einige „Schönheitsfehler“, da sie für Physiker keine fundamentalen Elementarteilchen sind und damit beginnt ein weiteres Problem. Es ist nämlich auffallend, dass Mesonen nur äußerst selten vorkommen und dass sie ausschließlich in der Höhenstrahlung nachgewiesen werden können, also dort, wo eine weitaus geringere Zahl an Atomen vorkommt. Unwillkürlich stellt man sich die Frage, welchen Sinn es wohl macht, dass Teilchen der starken Kernkraft frei beweglich an Orten vorkommen, wo sie gar nicht benötigt werden? Schließlich gehören diese Teilchen, wenn die Theorie stimmt, in den Atomkern. Yukawa wusste allerdings zu seiner Zeit noch nichts von Quarks. Aus weiter oben angeführten Gründen handelt es sich bei den nachgewiesenen Mesonen um vaga­bun­­dieren­de Quarks, die, aus welchen Gründen auch immer, keinen Reaktions­partner gefunden haben. Darüber hinaus zeigen die Wechsel­wirkungen der Quarks untereinander, dass es sich bei der Ein­schätzung der Bedeutung der Gravita­tions­kräfte in der Mikrophysik um einen schwerwiegenden Fehler mit weitreichenden Folgen handelt. Für meine Feststellung, dass es sich bei den Mesonen um Quarks, also um Elementarteilchen handelt, spricht auch die Tatsache, dass es positiv geladene, negativ geladene und neutrale Elemen­tar­teilchen aus der Gruppe der Mesonen gibt.

Die Träger der positiven bzw. negativen Ladung besitzen eine Ruhemasse von 273, während das neutrale Meson eine Ruhe­masse von 264 besitzt. Wenn man bedenkt, dass ein Elektron die Ruhemasse 1 und ein Proton die Ruhe­masse 1836 hat, so fällt es schwer zu glauben, dass es sich bei den Mesonen um die starke Kernkraft handelt. Es ist vielmehr davon auszugehen, dass durch sie die „starke Kernkraft“ zum Tragen kommt, sie also die Träger der starken Wechselwirkung sind.

Nach gültiger Lehrmeinung ist die Wechsel­wirkung eine allgemeine Bezeichnung für die gegenseitige Beeinflussung physikalischer Objekte (insbeson­dere Elementar­teilchen). Aus einer Wechsel­wirkung ergibt sich stets auch ein Energie­austausch. Die Kernkraft ist die starke Wechselwirkung zwischen Kernen und Nukleonen bzw. ihren Unterstrukturen, den Quarks.

Die Quarks bilden durch die Gravitationskräfte, die stabilen Kerne der Atome und sorgen dafür, dass die Atomkerne wegen der positiven Ladung der beiden u-Quarks nicht auseinanderfliegen. Es erscheint deshalb viel wahr­scheinlicher, dass es sich bei den Mesonen um u-Quarks und d-Quarks handelt, die von Quasaren erzeugt, als Singles durch das All oder im Halo eines Quasars bzw. Schwarzen Loches vagabundieren und beim Auftreffen auf Materie sofort wechselwirken. Setzt man für jedes positiv geladene u-Quark und Anti-u-Quark die Masse 273 ein, so erhält man für die beiden u-Quark/Anti-u-Quarkpaare die Masse  4 x 273 = 1092 und für das d-Quark und das Anti-d-Quark die Masse 2 x 264 = 528. Die sechs Quarks haben somit gemeinsam die Masse 1620.  Zieht man die Masse der sechs Quarks von der Ruhemasse des Protons 1836 ab, so ergibt sich eine Restmasse von 216. Sechs Quarks haben untereinander 12 Bindungs­stellen. 216 : 12 = 18.

Das bedeutet, dass die Gluonen, ein Feld aus Ätherteilchen, die Masse 18 pro Bindung haben. Die offizielle Lehrmeinung geht davon aus, dass Gluonen die Träger der starken Kernkraft sind. Diese Teilchen sollen allerdings die Masse Null und den Spin 1 haben. Als freie Quanten wurden die Gluonen bisher noch nicht beobachtet. Da es sich also um „mathematische Gluonen“ handelt, besagt das nichts über ihre realen Eigen­schaften. Da die Masse der Gluonen nach den oben durchgeführten einfachen Berechnungen 18 beträgt, bedeutet dies eine extreme Ätherteilchen­verdichtung in Form eines Feldes zwischen den einzel­nen Quarks. Es handelt sich somit nicht um eine, mit einem besonderen Zustand des Raumes verbundene Fern­wirkungs­­erscheinung, sondern schlicht um ein Feld aus Ätherteilchen, das sich zwischen den einzelnen Quarks befindet, wobei das Medium extrem verdichtet ist. Die Masse 18 für ein Gluon, oder wie auch immer man dieses Feld aus Ätherteilchen nennen will, ist auch eine realistische Größen­ordnung, zumal die auf die Umgebung wirkende Anziehungs­kraft 100fach stärker sein soll als die elektrische Abstoßung, welche so lange erfolgt, solange der Abstand zwischen Nukleon und Atomkern größer ist als der Durchmesser eines Protons. Ist der Abstand kleiner, wird das Nukleon durch die Gravitationskräfte der Quarks in den Atomkern hinein­gezogen.

Die derzeit gültige Lehrmeinung besagt, dass sich das Proton, der Atomkern des Wasserstoffs, aus zwei u - Quarks mit der elektrischen Ladung von je +2/3 der Protonenladung und einem d - Quark mit der elektrischen Ladung von je -1/3 der Protonenladung aufbaut. Diese Aussage verstößt nicht nur gegen die Definition, dass jede Ladung ein ganzzahliges Vielfaches der Elementar­ladung ist (Unteilbarkeit der Elementarladung), sondern auch die Tatsache, dass Quarks auf unserem Planeten nie alleine, sondern grundsätzlich nur als Quark/Antiquarkpaar vorkommen. Einstein spottete nicht zu Unrecht: „Wenn die Fakten nicht mit der Theorie übereinstimmen, ändere die Fakten.“ Gemäß dieser Vorgabe wurde diese mathematische Vorgabe als Sonderheit der Quarks erklärt. Dies ist umso erstaunlicher, als die Quarks die elemen­tare Stufe der Atome und damit der Materie darstellen. Niemand wagt es, diese widersprüchlichen Behauptungen zu hinterfragen, obwohl sie weitreichende Konsequenzen haben. Wenn es richtig ist, dass jede Ladung ein ganzzahliges Viel­faches der Elementarladung ist und wenn Ladungsträger der Elementar­ladung die Elementar­teilchen sind, dann ist es falsch, für die angeblichen 3 Quarks im Proton Ladungen mit 2 x +2/3e und 1 x -1/3e zu postulieren. Eine derartige Behauptung bedeutet, dass man sich über die gesicherte Tatsache hinwegsetzt, dass Quarks grundsätzlich nur zu zweit auf unserem Planeten vorkommen. Wenn die Definition von Elementar­ladung und Ladung auf alle Elementar­teilchen zutrifft, muss sie auch für die Quarks Geltung haben.

Aus meinen bisherigen Ausführungen ergibt sich, dass ein Proton, wie oben bereits dargelegt, aus 6 Quarks besteht. Die Gravitationskraft ist entscheidend dafür verantwortlich, dass die Protonen nicht auseinanderfliegen. Die beschriebene Innenstruktur der Quarks und ihr Spin bewirken die elektro­magnetischen Eigen­schaf­ten und sind für die Topologie der Quarks innerhalb des Protons verant­wortlich. Die Schwerkraft ist es, die die einzelnen Protonen und Neutronen in den schwereren Atomkernen zusammenhält, während die elektro­magne­tischen Wechsel­wirkungen die Atomhülle auf­bauen sowie Struktur, Umbau und Stabilität von Molekülen bestimmen. Durch die unterschiedliche Ausrichtung der Ätherteilchen in den Quarks entsteht ein Effekt, wie er von der Wicklung bei Magnetspulen bekannt ist. Auch hier wieder das Selbstähnlichkeits­prinzip. So kann jedes einzelne Quark bzw. Antiquark die für seine Gruppe spezi­fische Ladung aufbauen. Die Ausrichtung der Ätherteilchen parallel oder antiparallel zur Rotation­sachse bedeutet, dass die beiden u-Quark /Anti-u-Quarkpaare für die Erzeugung der elektrischen Ladung verantwortlich sind, während das d-Quark / Anti-d-Quark den kleinsten Stabmagneten innerhalb eines Protons bildet.

Die 3 Quarkpaare, die ein Proton aufbauen, bestehen folglich aus 2 u-Quarks, 2 Anti-u-Quarks, 1 d-Quark und 1 Anti-d-Quark. Jedes u-Quark und Anti-u-Quark hat auf Grund seiner Innen­struktur eine doppelt so große und entgegengesetzte Ladung (+2) wie ein d-Quark (-1). Das eine u-Quark/ Anti-u-Quark­paar hat somit die Ladung +4. Das andere Anti-u-Quark / Quarkpaar hat ebenfalls die Ladung +4. Das d-Quark und das Anti-d-Quark sind aber im Gegensatz zu den u-Quarks und Anti-u-Quarks nicht parallel bzw. antiparallel, sondern senkrecht zur Rotationsachse ausgerichtet. Außer­dem ist die Ausrichtung der Ätherteilchen senkrecht zu der Ausrichtung der Urstoffteilchen in den u-Quarks. Die Ladung des d-Quarks ist deshalb -1. Die gleiche Ladung -1 besitzt das Anti-d-Quark. Zusammen haben das d-Quark und das Anti-d-Quark die Ladung -2. Das Proton hat aber laut Definition die Ladung +1.

Drei Quarks und drei Antiquarks bilden drei bisher nicht teilbare Quarkpaare. Man erhält also zwei u-Quark/Anti-u-Quarkpaare, die jeweils die Ladung 4 haben und ein d-Quark/Anti-d-Quarkpaar mit der Ladung -2. Die Ladung eines Protons ist also 4 + 4 - 2 = 6. Da ein Proton aus sechs Quarks besteht, ist die Elementarladung 6/6e  =  1e.

4/6e + 4/6e - 2/6e = 6/6e.

 

Da 6 Quarks ein Proton bilden, muss die Ladung 6e durch 6 geteilt werden, dann erhält man für das Proton die Elementarladung = +1e.

wenn man diese Gleichung durch 2 kürzt, erhält man mit

2/3e + 2/3e - 1/3e = 3/3e = + 1e

die Ladung, die die Experten für ein Proton berechnet haben, da in diesem Falle 3 Quark / Antiquarkpaare ein Proton bilden, muss man 3e durch 3 teilen, um die Elementarladung  = +1e zu erhalten.

 

Nach gültiger Lehrmeinung werden Protonen aus der Kombination (u u d) gebildet, wobei die Spinkombination wegen des Pauli-Prinzips ( ­¯­ ) = ­ ist. Die Ladung eines Protons errechnet sich aber nach der offiziellen Lehre von lediglich 3 Quarks. Das verstößt zwar gegen den Lehrsatz, dass jede Ladung ein ganzzahliges Vielfaches einer Elementarladung e ist, wird aber durch die Behauptung, dass nur drei Quarks ein Proton bilden aus Symmetrie­gründen ignoriert. Das ist verwunderlich, da man unter Berücksichtigung der Tatsache, dass Quarks grundsätzlich nur zu zweit vorkommen, nicht gegen den Lehrsatz verstoßen hätte, dass jede Ladung ein ganzzahliges Vielfaches einer Elementarladung e ist und man zu dem gleichen Ergebnis wie ich gekommen wäre.

Gleichung: 2/3e + 2/3e - 1/3e = 4/3e - 1/3e  =  +3/3e  = +1e

Würden also die Physiker ebenfalls davon ausgehen, dass ein Proton aus sechs Quarks besteht, wäre es völlig überflüssig, den Lehrsatz über die Ladung für Quarks außer Kraft zu setzen. Statt Symme­trie­­gründen könnte man ja auch einmal der Logik eine Chance geben und gesicherte Fakten berücksichtigen.

Das Protonmodell erklärt auch, warum die Richtung des elektrischen Feldes und die Magnetfeld­richtung immer senkrecht aufeinander stehen. Zwischen beiden Feldern besteht eine energetische Ver­knüpfung. Dabei umschlingen sich die Felder gegenseitig. Wird ein elektrisches Feld abgebaut, nimmt also die elektrische Energie ab, nimmt die magnetische Energie zu und baut ein magnetisches Feld auf. Das elektrische Feld und das magnetische Feld werden nie vollständig abgebaut, so dass sich die Oszillationen zwischen zwei Grenzwerten hin und her bewegen. Wie dies z.B. von den Dipol­antennen eines Senders bekannt ist. Dieser Vorgang ist, wie alle elementa­ren Abläufe, umkehrbar und somit ein schönes Beispiel für Oszillationen, Wechsel­wirkungen und Ver­än­­de­run­gen ohne Zeitpfeil. Das von mir entwickel­te Quarkmodell und der Aufbau des Protons zeigen auch, warum man Ladungen nicht erzeugen kann. Die in der Natur vorkommenden Ladun­gen lassen sich grundsätzlich nur trennen. Bei einer Ladungstrennung erhält man immer gleichviel positive und negative Ladungen. Wie oben schematisch dargestellt, gibt es grund­sätzlich zwei spiegel­bildlich aufgebaute Protonen. Das bedeutet, dass sich auch der Spin ihres jeweiligen Elek­trons spiegelbildlich zum Elektron des anderen Protons verhalten muss. Proton und Antiproton (Neutron) erfüllen folglich die Bedingungen von Materie und Antimaterie. Deswegen könnte man bei der Ladung ebenfalls von Ladung und „Antiladung“ (Gegenladung) sprechen, wenn man entgegengesetzte Kräfte beschrei­ben will, zumal Ladung immer an etwas Stoffliches gebunden ist. Das Wechselwirkungsgesetz wird wie folgt definiert:

Übt ein Körper A auf einen Körper B die Kraft F1  aus, so übt stets auch der Körper B auf den Körper A eine Kraft F2  aus, deren Betrag gleich dem von F1  und deren Richtung entgegengesetzt zu der von F2  ist. F2 bezeichnet man als Gegenkraft (reactio) von F1. Kräfte treten also stets paarweise auf. Zu jeder „actio“ gehört eine „reactio“. Gleichnamige Ladungen stoßen einander ab, ungleich­nami­ge Ladungen ziehen sich an.

Der Aufbau der einzelnen Quarks erklärt, weshalb sich gleiche Ladungen abstoßen und gegensätzliche Ladungen anziehen. Das Wechsel­wirkungs­gesetz macht verständlich, warum es einen halb­zahligen Spin gibt. Der halbzahlige Spin bringt zum Ausdruck, dass auf eine „actio“ noch keine „reactio“ erfolgt ist, also bei dem betref­fenden System noch eine „Aktionsbereitschaft“ bzw. „Reaktions­bereit­­schaft“ besteht. Das Wasser­stoff­atom besteht aus einem Atom­kern, dem positiv geladenen Proton und einer Atomhülle, die von einem negativ geladenen Elektron gebildet wird. Da alle Elemente aus Atomen und ihren Antiatomen bestehen, können die Atome und Antiatome Moleküle bilden, wie der Wasserstoff (H2), Chlor (Cl2) oder Sauerstoff (O2). Dies ist nur möglich, wenn ihre jeweiligen Elek­tronen spiegelbildlich spinnen. Diese Elek­tro­nen können aber nur spiegelbildlich spinnen, wenn der Atom­kern spiegelbildlich aufgebaut ist. Der Stern-Gerlach-Versuch bestätigt diesen Sachverhalt auf eindrucksvolle Weise.

Der entscheidende Faktor, der die Selbstorganisation der Materie steuert, kann z. Z. von der Physik nicht erklärt werden. Wenn man sich aber den Aufbau des oben beschriebenen Atommodells genau ansieht, so wird verständlich, warum die Ausrichtung der Äther­teilchen in den beiden d-Quark­paaren (vergleichbar den Wicklungen von Magnet­spulen) und ihr Spin für die Selbstorganisation der Materie verant­wortlich sind. Atomkerne können sich durch die oben beschriebenen Eigenschaften ent­sprechend im Raum „orientieren“ und sich folglich auch „organisie­ren“.

Zusammenfassend ist festzuhalten: Das Elektron des Protons verhält sich spiegelbildlich zu dem Elektron vom Antiproton. Eben­­so verhal­ten sich die Photonen, die von den entsprechenden Elektronen abge­strahlt werden. Auf diese Weise erhält das Proton eine spiegelbildliche Information von dem Elektron des Antiprotons und das Antiproton von dem des Protons. Somit handelt es sich auf der energetischen Ebene um das gleiche Prinzip, das auch auf der materiellen Ebene, z. B. in der Chemie, als Reaktion zwischen positiv und negativ geladenen Atomen, Ionen und Molekülen beschrieben wird und das in der Biochemie als Reaktion zwischen Rezeptor und Ligand bekannt ist. In diesem Sach­ver­halt ist die Bildung von Race­ma­ten ebenso begründet wie die Wirkung der Homöopathie, die im Vergleich zu den chemi­schen Reaktionen nicht auf der atomaren, sondern bereits auf der energeti­schen Ebene, also über die elektromagnetischen Felder, zur Wirkung kommt. Durch das bereits von Hahnemann intuitiv erkannte „Gegenbild“ („Spiegelbild“), werden die Störschwingungen, welche die Krankheitssymptome eines Patienten hervorgerufen haben, sofern die Schwingungen des nach dem Ähnlichkeitsprinzip verabreichten Arzneimittels diesen Störschwingungen spiegel­bildlich ähneln, durch Interferenz gelöscht.

Die Homöo­pathie heilt folglich nicht mit unendlichen Verdünnungen, wie „Tumbe Toren“ behaupten, denn wer logisch denken kann, der weiß, dass es „unendliche“ Verdünnun­gen gar nicht geben kann. Eine physikalische Konstante, die Avogadro - Konstante, gibt nämlich die Teilchenzahl von Atomen eines Elementes oder der Moleküle einer chemischen Ver­bin­dung in einer bestimmten Stoff­menge (einem Mol) des jeweiligen Materials an. Ent­sprechend der Definition der atomaren Massen­einheit beträgt die Masse 6,02214129 x 1023 Atome. Eine größere Verdünnung ist deshalb nicht möglich, weil man nicht etwas, das nicht mehr vorhanden ist, auch nicht weiter verdünnen kann. Wo nichts mehr ist, kann man auch nichts mehr verdünnen. Verdünnungen sind grundsätzlich endlich. Darüber hinaus ist klarzu­stellen, dass die Homöopathie nicht mit Verdünnun­gen, sondern mit unterschiedlich hoch potenzierten Arzneimitteln arbeitet.

Weil Hahnemann durchaus erkannte, welch hohe Anforderungen diese neuartige Heilmethode an seine Schüler und Nachfolger stellt, benannte er sein Hauptwerk, welchem er zunächst den Namen „Organon der rationellen Heilkunde“ (Organon bedeutet im Griechischen „Werkzeug“) gegeben hatte,  ab der 2. Auflage um, verlieh ihm den Titel „Organon der Heilkunst“ und gab allen, die seine Heilmethode ausüben wollen, den guten Rat: „Macht´s nach, aber macht´s genau nach!“

Um den Wirkungsmechanismus der Homöopathie zu verstehen, muss man sich noch einmal an die Chaosforschung und das Selbstähnlichkeitsprinzip erinnern. Es ist unstrittig, dass unsere Welt dualistisch aufgebaut ist. Es sind die Gegensätze bzw. die Polarität, die alles so funktionieren lässt, wie wir es kennen. Von dieser Realität ausgehend, lässt sich feststellen, dass alle chemischen Reaktionen darauf beruhen, dass sich gleiche Ladungen abstoßen und gegensätzliche Ladungen anziehen. Auf der energetischen Ebene, dem Elektromagnetismus sind es positive und negative elektromagnetische Felder, die sich gegenseitig löschen oder verstärken. Dieser Vorgang wird als Interferenz bezeichnet.

Die Schulmedizin nutzt chemische Verbindungen, sprich Arzneien, die eine der Krankheit entgegegesetzte Wirkung haben, um Leiden zu mindern oder gar zu heilen. Contraria contrariis curantur. Die Krankheit wird mit einem Entgegengesetzten wirkenden Mittel behandelt, z. B. Bluthochdruck mit einem Mittel zur Blutdrucksenkung.

In der Homöopathie gilt „Ähnliches soll durch Ähnliches geheilt werden“ (similia similibus curentur, Hahnemann). Danach solle ein homöopatisches Arzneimittel so ausgewählt werden, dass es an Gesunden ähnliche Symptome hervorrufen könne wie die, an denen der Kranke leidet, wobei auch der „gemüthliche und geistige Charakter“ des Patienten berücksichtigt werden muss. Zur Herstellung der homöopathischen Arzneimittel werden die Ausgangssubstanzen einer sogenannten Potenzierung  unter­zogen, das heißt, sie werden wiederholt (meist im Verhältnis 1:10 oder 1:100) mit Wasser oder Alkohol ver­schüttelt oder mit Milchzucker verrieben. Diese Verdünnungen wurde von Hahnemann anfänglich deshalb durchgeführt, weil zahlreiche der von ihm verwendete Stoffe selbst in kleinen Mengen noch zu giftig waren, um sie seinen Patienten verabreichen zu können. Daraufhin machte er an seinen Patienten die erstaunliche Erfahrung, dass sich die Heilwirkung seiner Arzneien, wenn er sie auf jeder Verdünnungsstufe verschüttelte oder verrieb, trotz der durchgeführten Verdünnungen merklich verbesserte. Erst in einer späteren Phase verordnete Hahnemann sogenannte Hochpotenzen, in denen (ab der D23, der sogen. Avogadro´schen Zahl) nicht ein Molekül der Ausgangssubstanz mehr vorhanden ist. Aus heuti­ger Sicht lassen sich die immer wieder zu beobachtenden Heilungen durch Hochpotenzen nur durch die Weitergabe von arzneispezifischen Informationen in Form von elektromagnetischen Feldern erklären.

An dieser Stelle ist nochmals darauf hinzuweisen, dass zur Zeit Hahnemanns niemand etwas von elektro­magnetischen Feldern wusste und Hahnemann, bei dem Versuch, seinen Zeitgenossen die Wir­kungsweise seiner neue Heilmethode zu erklären, etwas beschreiben musste, wofür es noch gar keinen Namen gab. Er nahm an, dass durch das besondere Verfahren der Potenzierung oder „Dynamisierung“ eine „im innern Wesen der Arzneien verborgene, geistartige Kraft“ wirksam werde und schreibt in einer Fußnote zum § 11 des Organon: „Auf die beste Art dynamisirter Arzneien kleinste Gabe, worin sich nach angestellter Berechnung nur so wenig Materielles befinden kann, dass dessen Kleinheit vom besten arithmetischen Kopfe nicht mehr gedacht und begriffen werden kann, äußert im geeigneten Krankheits-Falle bei weitem mehr Heilkraft, als große Gaben derselben Arznei in Substanz. Jene feinste Gabe kann daher fast einzig nur die reine, frei enthüllte, geistartige Arznei-Kraft enthalten und nur dynamisch so große Wirkungen vollführen, als von der eingenommenen rohen Arznei-Substanz selbst in großer Gabe, nie erreicht werden konnte.“

Im §_269 S.242 heißt es: „Die homöopathische Heilkunst entwickelt zu ihrem besondern Behufe die innern, geistartigen Arznei­kräfte der rohen Substanzen, mittels einer ihr eigenthümlichen, bis zu meiner Zeit unversuchten Behandlung, zu einem, früher unerhörten Grade, wodurch sie sämmtlich erst recht sehr, ja unermeßlich - 'durchdringend' wirksam und hülfreich werden, selbst diejenigen unter ihnen, welche im rohen Zustande nicht die geringste Arzneikraft im menschlichen Körpern äußern. Diese merkwürdige Veränderung in den Eigenschaften der Natur-Körper, durch mechanische Einwir­kung auf ihre kleinsten Theile, durch Reiben und Schütteln (während sie mittels Zwischentritts einer indifferenten Substanz, trockner oder flüssiger Art, von einander getrennt sind) entwickelt die latenten, vorher unmerklich, wie schlafend1) in ihnen verborgen gewesenen, dynamischen (§ 11) Kräfte, welche vorzugsweise auf das Lebensprinzip, auf das Befinden des thierischen Lebens Ein­fluss haben. Man nennt daher diese Bearbeitung derselben Dynamisiren, Potenzieren.“

Offensichtlich hatten aber bereits die Zeitgenossen Hahnemanns Schwierigkeiten, die Bedeutung des Verreibens oder Verschüttelns der Arznei nach jeder durchg­­e­führten Verdünnung zu erkennen. Aus diesem Grund weist Hahnemann noch einmal ausdrücklich und anschaulich in einer Fußnote zu § 269 seines Organon der Heilkünste, S.244 darauf hin, dass Verdünnen und Bearbeiten des Arzneimittels erst zur Entwicklung der Arzneikraft führen. Bei dieser neuen Art der Arznei­mittel­zubereitung handelt es sich um zwei völlig verschiedene aber untrennbar miteinander gekoppelte Arbeitsvorgänge. Ich zitiere: „Man hört noch täglich die homöopathischen Arznei-Potenzen bloß Verdünnungen nennen, da sie doch das Gegentheil derselben, d.i. wahre Aufschließung der Natur-Stoffe und zu Tage-Förderung und Offenbarung der in ihrem innern Wesen verborgen gelegenen specifischen Arzne­i­kräfte sind, durch Reiben und Schütteln bewirkt, wobei ein zu Hülfe genommenes, unarzneiliches Verdünnungs-Medium bloß als Neben-Bedingung hinzutritt. Verdünnung allein, z.B. die, der Auflösung eines Grans Kochsalz wird schier zu bloßem Wasser; der Gran Kochsalz verschwindet in der Verdünnung mit vielem Wasser und wird nie dadurch zur Kochsalz-Arznei, die sich doch zur bewundernswürdigsten Stärke, durch unsere wohlbereiteten Dynamisationen, erhöht.“ Ende des Zitates.

In seiner Arzneimittellehre (W. Buchmann: „Hahnemanns Reine Arzneimit­tel­lehre“, S.34-35). schildert Hahnemann u.a. auch die Wirkung von Arnica (Bergwohlverleih):

„Die spezifische Heilkraft dieses Krautes ist eine Hilfe gegen das allgemeine Übelbefinden, welches von einem schweren Falle, von Stößen, Schlägen, von Quetschungen, Verheben oder vom Über­drehen oder Zerreißen der festen Teile unseres Körpers entsteht. Sie ist daher selbst in den größten Verwundungen durch Kugeln und stumpfe Werkzeuge sehr heilsam - so wie in den Schmerzen und anderem Übelbefinden nach Aus­ziehen der Zähne und nach anderen chirurgischen Verrich­tungen, wobei empfindliche Teile hef­tig ausgedehnt worden waren, wie nach Einrenkungen der Gelenke, Einrichtungen von Kno­chenbrüchen usw..In den Befindensänderungen, welche Arnica in gesunden Menschen hervorzubringen pflegt, ist das Übelbefinden von starken Quetschungen und Zerreißungen der Fasern in auffallender Ähn­lich­keit homöopathisch enthalten.“ (eigene Anmerkung: homöopathisch = der Krankheit ähnlich). Hahnemann warnt aber auch: „Nur muss man sie“ (eigene Anmerkung: gemeint ist Arnica) „nie in akuten fieberhaften Krankheiten anwenden - und ebensowenig in Durch­fällen -, wo man sie immer sehr nachteilig finden wird. Am besten ist die innerliche Anwendung in der Potenz C 30.“  Ende des Zitates.

Eine Arnica-Therapie erfüllt in diesen Fällen, wie Hahnemann selber darlegt, die Bedingun­gen des Simileprinzips. Empfindet solch ein Patient doch ganz ähnliche Beschwerden oder, um es mit Hahnemanns Worten zu sagen, ein ganz ähnliches „Übelbefinden“, wie das, welches zuvor völlig gesunde Probanden bei Arzneimittel­prüfungen mit Arnica an sich beobachten haben. Graduelle Unterschiede, die von der Intensität der Gewalt­einwirkung und dem Umfang der Schad­ein­­wirkung abhängen, brauchen bei der Wahl des homöo­pathischen Mittels nicht berück­sichtigt zu werden. Es wird also Ähnliches durch Ähnliches geheilt. Auf eine so einfache Art lassen sich an diesen hinsichtlich ihrer Symptomatik leicht und gut überschaubaren Fällen die Gültigkeit des Simileprinzips oder genauer formuliert das Gesetz: Ähnliches wird durch Ähnli­ches geheilt und die Wirkung von Hochpotenzen beweisen.

Damit sich jeder interessierte Leser sein eigenes Bild über die deutliche Wirkung homöopathischer Arzneimittel und insbesondere der sog. Hochpotenzen machen kann, empfehle ich, nach einer Gehirnerschütterung, einem Knochenbruch oder nach einfachen Prellungen, Quetschungen oder Zerrungen sowie nach Zahnextraktionen unverzüglich 5 bis 10 Arnica C30 Globuli (Kügelchen) im Mund zergehen zu lassen, um überrascht wahrnehmen zu können, wie die nach derartigen Verletzungen oder Zahnextraktionen üblichen Schwellungen und Blutergüsse ausbleiben oder nur in sehr abgeschwächter Form auftreten. Aus díesem Grund habe ich seit Jahren im Auto und bei Wanderungen immer Arnica C30-Globuli in greifbarer Nähe.

Um jedoch das Ähnlichkeitsprinzip zu gewährleisten und Komplikationen zu vermeiden, sollten Per­so­nen mit einer absonderlichen individuellen Blutungsneigung sowie Patienten mit Zahnwur­zelver­eiterun­gen oder einem anderen lokalen Infekt im Kopfbereich den Versuch mit Arnica nicht durchführen, da ihre Gesamtsymptomatik ein anderes homöopathisches Mittel zu ihrer Heilung erfor­dert. Sollte einmal in Folge einer eventuellen, zuvor nicht bekannten Blutungsneigung dennoch eine unge­wöhnliche Nachblutung eintreten, empfiehlt sich unverzüglich eine Gabe von 5 Globuli Phosphorus C 30 einzunehmen, welche in den meisten Fällen kleine stark blutende Wunden rasch zu stillen vermag.

Der Erfolg nach einer Arnica-Therapie ist umso eindrucksvoller, je unmittelbarer Arnica nach der Schad­­einwirkung eingenommen wird. Ist jedoch nach ein paar Stunden bereits eine erhebliche Schwellung oder ordentlicher Bluterguss ent­standen, so wird er sich nach einer Arnica C 30 Gabe immer noch deutlich ra­scher zurückbilden als ohne eine solche.

Grundsätzlich möchte ich an dieser Stelle Sachunkundige vor weiteren Selbstversuchen warnen. Homöo­pathisch aufbereitete Substanzen haben zwar keine Nebenwirkungen im Sinne allopathisch wirkender Arzneimittel. Sie können jedoch, wie bereits dargelegt, bei besonders sensiblen Personen durchaus sog. Arznei­mittel­prüfungs­symptome hervorrufen, die sich unter Umständen manifestieren und dann häufig nicht mehr abklingen. Dies gilt besonders für die Anwendung von Hochpotenzen und für zu lange oder zu häufige Verabreichungen dieser Arzneimittel.

 

Das Komplementaritätsprinzip in der Chemie und der Biologie.

Das Komplementaritätsprinzip beschreibt die Wechselwirkung von zueinan­der wie Schlüssel und Schloss passenden Teilchen, Atomen und Molekülen. Nach diesem Prinzip erfolgt z.B. die Ausbildung der Desoxyribonukleinsäure, die der Speicherort für das genetischen Material  des in allen Lebewesen vorkommenden Biomoleküls und Träger der Erbinformation, also der Gene ist.

In allen Lebewesen haben wir es entweder mit links- oder rechtsdrehenden Molekülen zu tun, während in der anorganischen Natur Racemate, also ein Gemisch aus rechts- und linksdrehenden Molekülen üblich ist. Meinem Atommodell zufolge sind bereits die Protonen, also die Atomkerne des Wasserstoffs, komple­mentär aufgebaut: 50% der Protonen bestehen aus einem d-Quark / Antiquarkpaar, dessen Urstoffteilchen parallel und 50% aus einem d-Quarkpaar, dessen Urstoffteilchen antiparallel zu ihrer Rotationsachse ausgerichtet sind. Ebenso haben 50% der d-Quark/ Antiquarkpaare einen spiegel­bildlichen Spin (Drehrichtung). Wie sonst sollten sich zwei Protonen, die sich ja auf Grund gleicher Ladung abstoßen müssten, zu dem Wasser­stoffmolekül H2 verbinden, wenn nicht die beiden Elektronen einen entgegen­gesetzten Spin hätten, der sich wiederum nur durch den komplementären Aufbau der Protonen erklären lässt, sofern man nicht an das Märchen vom Urknall glaubt. Aber auch der Aufbau aller Atome beruht auf diesem Komplemen­taritätsprinip. Nach Pauli darf keine „Quantenbahn“ innerhalb einer Schale des Atoms von mehr als zwei Elektronen besetzt sein. Diese Elektronen müssen außerdem einen entgegengesetzten Spin, d.h. sie dürfen nicht die gleiche Drehrichtung haben. Dieses Gesetz wird deshalb auch als „Pauli Prinzip“ oder auch „Ausschließungsprinzip“ bezeichnet. Da die „Ordnungszahlen“ der chemischen Elemente durch die Zahl der Protonen bzw. deren Elektronen bestimmt wird, müssen sich die Atomkerne grundsätzlich aus komplementär aufgebauten Protonen zusammensetzen. Dieser Sachverhalt erklärt auch, warum sich grundsätzlich alle Racemate aus 50% linksdrehenden und 50% rechts­drehenden Molekülen zusammensetzen. Dieser Tat­bestand ist für das Verständnis der nachfolgen­den Aus­führungen von entscheidender Bedeutung. Nichts Anderes macht ja z.B. die Doppelhelix des Gen­codes, wenn sie durch die Basen­folge des einen DNS-Stranges die Basenfolge des komplementären DNS-Stranges bereits voll­ständig determiniert.

Auch bei der Zellteilung findet eine Reduplikation der beiden Helix-Stränge nach dem gleichen Schema statt. Bei der Transkription wird von einer DNS-Sequenz ausgehend die Messenger-RNA aufgebaut, welche ihrerseits wiederum die Eiweißmoleküle synthetisiert usw. . Wichtig ist darauf hinzu­weisen, dass die beiden Stränge selbstähnlich, aber nicht spiegelbildlich sind und das hat zur Folge, dass jeder Strang einen halben, komplementären Menschen entwickeln hilft. Deshalb haben wir eine linke und eine rechte Hand, einen linken und einen rechten Fuß, eine linke und eine rechte Gesichtshälfte, sowie eine linke und rechte Gehirnhälfte.

Der Mensch ist ein Doppelwesen, das durch animalische Verhaltensmuster geprägt ist und als einziges Lebewesen geistige und Vernunft bezogene Leistungen erbringen kann. Wir leben in einer komplementären Welt.

 

 

Der Neokortex ist der stammesgeschichtlich jüngste Teil der Großhirnrinde und hat sich erst bei den Säugetieren entwickelt und beim Menschen vorläufig sein derzeitiges Leistungs­vermögen erreicht. Er beherbergt alle Erinnerungen, Ziele, Träume, Vor­stellungen, Hoffnungen und Befürchtungen. Mit dem Ent­stehen dieses Teils unseres Gehirns entwickel­te sich der entscheidende Unter­schied zum Tier und die individuelle Persönlichkeit, das Ich-Bewusstsein.

Das Großhirn besteht aus zwei Hälften, den Hemisphären. Die beiden Gehirnhälften sind durch den Corpus callosum – die Brücke oder den Balken – verbunden: Er sorgt dafür, dass alle Informationen, die von der einen Gehirnhälfte behandelt und bearbeitet werden, auch die andere Gehirnhälfte erreichen. Unzählige Verbindungen gewähren einen perfekt funktionierenden Informationsaustausch. Jede der beiden Gehirnhälften hat unterschied­liche Aufgaben. So steuert die linke Gehirnhälfte motorisch die rechte Körperseite und die rechte Gehirnhälfte die linke Körperseite. Wenn beide Gehirnhälften zusammenarbeiten, ergeben sie ein perfektes Team. Auch fürs Lernen ist dieses „Teamwork“ unverzichtbar.

Der Schlüssel zum Verständnis derartiger morphologischer Anpassungs­vorgänge liegt in den Tripels, die den Gen Code aufbauen. Diese Tripels sind gleichzeitig für die dreidimensionale Orien­tierung der Moleküle notwendig und werden durch die stehenden Wellen der beiden u-Quark/ Antiquarkpaare und eines der beiden d-Quark/Antiquarkpaare aufgebaut. Das ist der Grund, warum der Gen Code der DNS aus den Basen Adenin, Thymin und Cytosin besteht. Interessanterweise kann Cytosin gegen Guanin ausgetauscht werden. Dies entspricht auch dem Sachverhalt, dass es vier verschiedene Quark/ Antiquarkpaare gibt, von denen aber immer nur drei ein Proton aufbauen können. Das bedingt wiederum, dass Adenin (eine Purinbase) und Thymin (eine Pyrimidin­base) von den stehenden Wellen der beiden u-Quark/ Antiquarkpaaren aufgebaut werden, während Guanin (eine Purin­base) und Cytosin (eine Pyrimidinbase) von den stehenden Wellen der beiden d-Quark/ Antiquark­paaren entsprechend ihrem spiegelbildlichen Spin gebildet werden. Das erklärt auch, warum der Gencode grundsätzlich aus Tripels besteht. Wie im Proton die drei Quark/Anti­quarkpaare zunächst die drei Dimensionen bildeten, die zu einem viel späteren Zeitpunkt uns die Vorstellung eines Raumes ermöglichten, so wie die Struktur der Protonen und Neutronen (Antiprotonen, „Antimaterie“) unter entsprechenden Rahmenbe­dingun­gen die Entstehung aller uns bekannten Elemente ermöglichte, so sind die Quarks und Antiquarks über die Atomhülle, die sie ja aufgebaut und strukturiert haben und die sie dauerhaft aufrecht erhalten, für die Ausrichtung der jeweiligen Atome beim Aufbau der Moleküle verant­wortlich. Die Quarks und Antiquarks sind also auch für die Struktur der Tripels in den Genen ursächlich. Diese Tripels bilden ihrerseits im nächsten Schritt und auf einer höheren Ordnungsebene die dreidimensionalen Moleküle, die einen lebenden Organismus in Form von Zellen und Organen ausmachen. Die Tat­sache, dass im Gencode Cytosin durch Guanin ausgetauscht werden kann, hat weittragende Konsequenzen. So wie sich die beiden d-Quark/Antiquarkpaare spiegelbildlich zueinander ver­hal­ten, so wird jeder Organismus, bei dem der Gencode der DNS aus den vier Basen Adenin, Thymin, Cytosin und Guanin aufgebaut ist, auch aus zwei Hälften bestehen, die sich spiegelbildlich zueinander verhalten, entsprechend der komple­mentär angelegten Stränge in der Doppelhelix. Ganz allgemein bekannt ist, dass z.B. die Gesichtshälften eines jeden Menschen sehr ähnlich, aber nicht spiegelbildlich gleich sind. Dies ist die Auswirkung des Austau­sches von Cytosin und Guanin im Gencode.

Die Abweichungen im Aussehen der Gesichtshälften sind dadurch zu erklären, dass der Austausch der Moleküle auf chemischer Ebene nicht spiegelbildlich sondern komplementär erfolgt, also nur näherungsweise, eben ähnlich. Die vollkommene Symmetrie wird zwar überall in der Natur angestrebt, aber nie erreicht. Dieser Sachverhalt ist die Triebfeder die verhindert, dass es im Kosmos zu einem Stillstand kommt. Und weil das so ist, bleibt alles für alle Zeiten in Bewegung. Da sich jedes Quarkpaar aus einem Quark und seinem entsprechenden Antiquark zusammensetzt, erzeugt jedes Quarkpaar zwei verschiedene Impulse mit unterschiedlicher Spannung. Ein Vorgang, der in der Computertechnik zur Anwendung des Binärcodes führte.

Nach dem Selbstähnlich­keitsprinzip finden wir im Morsealphabet das gleiche Informations­muster. Was bei den Quarkpaaren die unterschiedlichen Spannungsimpulse, sind im Morsecode Strich-Punkt-Kombinationen. Da die Quarks und Antiquarks in den Atomkernen die Temperatur des absoluten Nullpunktes haben, gibt es bei der „Aufzeichnung“ der Umweltsignale und Umweltinformationen auch kein Rauschen. Es bestehen also optimale Empfangs- und Sendebedingungen bei einem Minimum an Energieauf­wand. Die Atomkerne verhalten sich sozusagen wie wechselwarme Tiere. Sie werden erst entsprechend aktiv, wenn die Umgebungstemperatur, also die eigentliche Energie­quelle, entspre­chend stark ist.

Als Modell bietet sich die Biene an. Die als besonders arbeitsam bekannte Biene wird als wechselwarmes Tier erst aktiv, wenn es für sie ausreichend warm ist. Der Bienen­körper ist in diesem Denkmodell als Atomkern zu verstehen. Die Flügel würden den Elektro­nen entsprechen. Je wärmer es wird, je mehr Energie also dem Bienenkörper zugeführt wird, umso aktiver wird die Biene und umso frequenter, also energiereicher, der Flügelschlag. Der Bewegungs­ablauf der Flügel bleibt dabei gleich. Lediglich die Frequenz nimmt zu. So wie die Biene durch ihren Tanz wichtig Informationen an ihre Artgenossinnen weitergibt, die diese Informationen auch verstehen und entsprechend reagieren, so gibt der Atomkern über das oder die Elektronen seine von ihm gespeicherten Informationen über Photonen an andere Atome und Moleküle weiter, die dann ebenfalls entspre­chend reagieren und je nach energetischer Situation die Informationen untereinan­der austauschen und eventuell neue Informationen speichern. Zu welcher Intensität sich derartig Strahlungen aufschaukeln können, zeigen die Pheromone (Sexuallockstoffe weiblicher Insekten), die von den männlichen Geschlechtspartnern noch kilometerweit und unabhängig von der Wind­richtung wahrgenommen werden können, da es sich um elektromagnetische Wellen mit laserähnli­chen Infrarot­komponenten handelt (Popp, Fritz - A.: Neue Horizonte in der Medizin. Haug-Verlag, Heidelberg 1983). Diese laserähnlichen elektromagnetischen Wellen müssen also von dem Duftmolekül abgestrahlt werden. Derartige Duft­moleküle werden inzwischen synthe­tisch hergestellt und zur Bekämpfung von schädlichen Insekten eingesetzt. In den Weinanbauge­bieten findet man häufig kleine Kunststoffbehältnisse, die diese laserähnlichen Wellen ausstrahlen. Dies geschieht ohne Batterie oder sonstige künstliche Energiezufuhr. Das Molekül verbraucht aber nach­weis­lich Energie, wenn es elektromagnetische Wellen, noch dazu laserähnliche Wellen, abstrahlt. Je wärmer die Witterung, umso intensiver die Abstrahlung, umso aktiver die wechsel­warmen Insekten­männchen. So ist die Frage: Wo kommt die Energie her und warum erschöpft sich der „Sender“ nicht in kurzer Zeit, durchaus berechtigt. Hierfür gibt es folgende Erklärung: Wie bereits früher beschrie­ben, führt jede Temperatur­erhöhung zu einer Energiever­dichtung (Urstoffteilchen- bzw. Ätherver­dichtung) um die Atomkerne, so dass diese ver­mehrt laserähnliche Wellen abstrahlen können. Das Atom ist ein sich selbst in Dauerbetrieb erhal­tender Generator, der die Gravitations­­kräfte nutzt und in elektromagne­tische Kräfte umwandelt.

Die Farbtherapie und die Musiktherapie basieren, meinen Ausführungen zufolge, ebenfalls auf dem gleichen Wirkungsprinzip wie die Homöopathie, wirken jedoch nicht so spezifisch wie diese, sondern beeinflussen, der Bach­blütentherapie vergleichbar, mehr allgemeine (sog. archaische) Grund­stimmun­gen. Hier ist wichtig darauf hinzuweisen, dass die Schallwellen über das Ohr in elektro­magnetische Schwingungen umgesetzt werden, während Photonen direkt auf das Auge treffen und die elektro­magnetischen Impulse über den Sehnerv zum Gehirn weitergeleitet werden.

Auch an dieser Stelle ist wieder an das Alles oder Nichts Gesetz zu erinnern, das für die „tote Materie“ ebenso wie für alle biologischen Systeme gilt. Ob Hertz mit Photonen Elektronen aus Metallplatten „schlagen“ konnte oder nicht, hing ebenso von einem Schwellenwert ab, wie die Steigerung von Enzym­aktivitäten bei Bestrahlung mit Photonen (Popp, Fritz-A.: „Biologie des Lichts“, Parey Verlag, 1984, Photonen - Die Sprache der Zellen, S.38 ).

 

Die Materie erschafft das Leben, das Leben entwickelt den Geist und der Geist lässt uns das Universum verstehen. Nach meiner Überzeugung waren geniale Menschen schon in der vorgeschichtlichen Zeit zu richtigen Lösungsansetzen, offensichtlich allein durch Beobachtung ihrer Umwelt und logisches Denken, gekommen, die jetzt mit den gesicherten wissen­schaftlichen Erkenntnissen begründet und bewiesen werden können. Dieser Sach­verhalt wird in der chinesischen Philosophie mit dem Yin-Yang-Prinzip, der unlösbaren Verbundenheit von Gegensätzen zu einer Ganzheit, anschaulich, kurz und nachvollziehbar beschrieben, sowie bildlich in Form eines Piktogramms dargestellt. Das Zeichen steht für polar einander entgegen­gesetzte und dennoch aufeinander bezogene Kräfte oder Prinzipien. Diese erstaunliche Feinabstimmung innerhalb unseres Universums und das empfindliche Gleichgewicht erscheint nicht mehr so erstaunlich, wenn unser Universum mit kausalen Kontakten und physikalischen Gesetzen erklärt wird, die es erlauben oder verbieten durch Wechsel­­wirkungen kosmische Strukturen zu entwickeln, auszubilden, umzubauen oder wieder zu vernichten.

 

 

Eine Spruchweisheit aus der indischen Mythologie lautet:

Gott schläft in den Steinen,
atmet in den Pflanzen,
träumt in den Tieren
und erwacht im Menschen.

Die indische Mythologie beruht weitgehend auf den Vorstellungen des Hinduismus und lässt sich bis auf das 1200 Jahrhundert v.Chr. zurückführen. Der Hinduismus hat seinen Ursprung in Indien. Die Anhänger dieser Weltanschauung werden Hindus genannt. Der heutige Hinduismus ist allerdings das Ergebnis unter­schiedlicher Einflüsse, da er in seiner ursprünglich­en Form zu abstrakt und für die einfache Bevölkerung zu anspruchsvoll war, schuf man sich im Laufe der Zeit eine Vielzahl von Göttern, die für die unterschiedlich­sten Dinge und Erscheinungen verantwortlich waren. Entscheidend ist jedoch die Kernaussage, die durch die drei Gottheiten Brahma, Vishnu und Shiva symbolisiert werden: „Entstehen, Leben, Vergehen und Tod unterliegen einem ständigen Kreislauf.“

Im Sanskrit werden diese drei Götter als Trimurti „drei Formen“ bezeichnet. Die Vorstellung im Hinduismus ist, dass alles Werden und Vergehen im Kosmos, der weder einen Anfang noch ein Ende hat, durch drei elementare kosmische Funktionen, der Erschaffung, der Erhaltung und der Zerstörung bzw. Umformung alles Gegenständlichen, also der Materie, bewirkt wird. Um das abstrakte Verständnis dieses Geschehens zu verbildlichen, personifizierte man diese Vorgänge in Form der Götter Brahma als des Schöpfers, Vishnu als des Erhalters, Shiva als des Zerstörers. Die Trimurti symbolisiert den Ursprung aller göttlichen Wirkungen in einer Einheit, da die drei Aspekte sich gegenseitig bedingen und ergänzen; sie repräsentiert das formlose Brahman und drückt die schöpfenden, erhaltenden und zerstörenden Aspekte dieses höchsten Seienden aus. Der Dritte im Trimurti (Dreifaltigkeit-Bündnis), ist neben den beiden anderen Göttern, dem „Erschaffer“ Brahma und dem „Erhalter“ Vishnu der Gott Shiva – der wohl kraftvollste von allen – und für das Zerstören zuständig, auf dass sich Neues bilden kann. Aus diesem Verständnis entwickelte sich auch der Glaube an die Wiedergeburt, die Reinkarnation, des einzelnen Individuums und damit gleichzeitig eine höchst effektive Manipulation der Gläubigen durch die jeweiligen Religions­führer, ein Sachverhalt, den man auch im christlichen Glauben in Form der Wiederauferstehung ebenso wiederfindet, wie die Dreieinigkeitslehre. Die klassische Drei­einigkeits­lehre besagt, dass es nur einen Gott gibt: Vater, Sohn und Heiliger Geist sind gemeinsam dieser Gott. Der Vater ist nicht der Sohn, der Sohn ist nicht der Heilige Geist und der Heilige Geist ist nicht der Vater. Trotzdem sind alle drei derselbe Gott, nämlich Gottvater, Gottsohn und Gott­heiliger Geist. Die Hindus gehen davon aus, dass Seher und Heilige in Meditation diese Erkenntnisse gewonnen haben, die in einer jahrtausendalten Tradition überliefert wurden. Nach heutigem Wissensstand wird auf diese Weise der Phasenübergang eines Mediums, das das gesamte Universum erfüllt, in massive Quarks und Antiquarks beschrieben, die wiederum in den Atomkernen die elektromagnetischen Felder erzeugen und in Form von Atomkernen und Atomhüllen die Materie bilden, die sich schließlich zu den Supermassiven Schwarzen Löchern verdichten und ab einer kritischen Größe als Quasare die Quarks als Jets mit annähernder Lichtgeschwindigkeit in das All abblasen.

Die mächtige Wissen­schafts­lobby benutzt das sogenannte Peer-Review (engl. von Peer, Gleichrangiger und Review, Gutachten), ein Verfahren das eigentlich zur Qualitätssicherung einer wissenschaftlichen Arbeit durch unabhängige Gutachter aus dem gleichen Fachgebiet dienen soll dazu, die Veröffentlichung unerwünschter kritischer oder gar den Gegenbeweis von haltlosen Theorien antretender wissen­schaftlicher Arbeiten zu verhindern. Diese Gutachter kennen natürlich die Leute, deren Arbeiten sie bewerten sollen und bleiben aber selbst anonym. Sie können also nicht zur Rechenschaft gezogen werden. Unbequeme Wissenschaftler kann man auf diese Weise elegant und unauffällig „kalt stellen“ und Ihre Existenz ruinieren, ganz davon abgesehen, dass der Öffentlichkeit großer Schaden entstehen kann, weil Forschungs­gelder falsch eingesetzt werden. Peer-Review ist deshalb im Wissenschaftsbetrieb von entscheidender Bedeutung, um die Kontrolle über wissenschaftliche Texte zur Veröffentlichung zu behalten und die Vergabe von Forschungsmitteln zu steuern. Es geht also vordergründig gar nicht darum, die Qualität von wissenschaftlichen Publikationen zu gewährleisten, sondern die jeweiligen Fachgebiete zu kontrollieren.

Unter https://de.wikipedia.org/wiki/Irreführende_Werbung kann man folgendes nach­lesen: Die Irreführende Werbung — oder genauer: irreführende geschäftliche Handlung — ist ein lauterkeitsrechtlicher Tatbestand, der von den § 5 und § 5a sowie den Nr. 1 – 24 des Anhangs zum Gesetz gegen den unlauteren Wettbewerb erfasst wird.

Bei der Wissenschaftslobby gilt es durch falsche und irreführende Behauptungen die eigenen Pfründe und Positionen zu sichern und zu schützen. Diese Autokraten geben vor, dass sie die Einzigen sind, die die Übersicht und die richtigen Lösungen haben. Ihr autoritär-bestimmender Stil führt zu einsamen Entscheidungen und die breite Öffentlichkeit verhält sich passiv, angepasst und unselbständig. Meinungen, Haltungen und Lösungen werden von der Bevölkerung kritiklos übernommen und die Produktivität und Kreativität Einzelner bleibt auf der Strecke. Wenn dann wider Erwarten Kritik laut wird, werden diese Menschen, die nicht nur in der Lage sind, sich eine eigene Meinung zu bilden, sondern auch noch öffentlich dafür eintreten zu Nestbeschmutzern erklärt und geächtet. Siehe augenblickliche Medienschelte und Umgang mit unerwünschter Kritik.

In der westlichen Welt wird die Ansicht vertreten, dass das Universum vor etwa 13,7 Milliarden Jahren spontan aus einem Punkt durch einen explosionsartigen Vorgang entstanden ist und 10-42 Sekunden danach bereits so groß wie eine Apfelsine und 1032 Grad heiß war. Da eine derartige Behauptung lediglich das Ergebnis von Berechnungen mit entsprechenden Vorgaben ist und sowohl der Relativitätstheorie wie der Quantenphysik widerspricht, wird schlicht offiziell festgestellt, dass zu diesem Zeitpunkt die Gesetze der Physik noch nicht gültig waren, will heißen: „Am Anfang bestand Narrenfreiheit“ und aus diesem Tohuwabohu formten die Mathematiker ein Weltbild, das nichts mit der Realität zu tun hat, da willkürliche Vorgaben für die Berechnungen benutzt wurden. Mit einer derartigen Vorgehensweise kann man auf das jeweils gewünschte Ergebnis hinrechnen. Weitere Probleme bestehen sowohl bei der Relativitätstheorie wie der Quantenphysik dadurch, dass von den Vertretern der theoretischen Physik die mathematischen Operationen über ihren eigentlichen Gültigkeitsbereich hinaus Anwendung finden und die Ergebnisse auf Grund unzureichender naturwissenschaft­licher Fachkenntnisse auch noch falsch interpretiert werden.

Nach der Allgemeinen Relativitätstheorie ziehen sich Massen nicht mehr nur an, sie krümmen, dehnen und biegen angeblich sogar Raum und Zeit, sodass die Schwerkraft sich als logische Folge eines mit Löchern und Trichtern ausgefüllten Universums darstellt. Kein Wunder, dass unter diesen Vorgaben für die Astrophysiker von Newtons Gravitationsgesetz auf den ersten Blick nicht mehr viel übrig zu bleiben scheint.

Bezeichnender Weise blieb es einem Priester, dem belgischen Astro­physiker Abbé Georges Edouard Lemaître vorbehalten, als Erster die Idee von einem Urknall zu veröffent­lichen. Seine Arbeit wurde 1927 in den Annales de la Société scientifique de Bruxelles abgedruckt. Damit erschien seine Arbeit, die bereits wesentliche Grundzüge der Expansion des Univer­sums darlegte, zwei Jahre früher als die Arbeiten von Edwin Hubble, dem das Konzept von der Expansion des Universums heute zuge­schrieben wird. Allerdings soll bereits 1925 der russische Mathema­tiker Alexander Alexandrowitsch Friedmann, eine entspre­chen­de Lösung mittels der Einsteinschen Feldgleichungen gefunden haben. Aber erst der gebürtige russische Physiker George Gamow verhalf der Theorie des Urknalls und des sich ausdehnenden Weltalls zu breiter öffentli­cher Aner­kennung. Egal ob Lemaître, Hubbles, Friedmann, Gamow oder Hawking, sie alle wurden Opfer ihres kanalisierten Denkens und überprüften nicht, inwieweit ihre Theorien überhaupt mit den Er­kenntnissen der Wärmelehre und wesent­lichen Aussagen der allge­meinen Relativitäts­theorie in Einklang zu bringen sind, ja ihnen sogar widersprechen.

Unwillkürlich fragt man sich, wie weit derartig hochintelli­genten Menschen von der Realität entfernt sein müssen, um so etwas von sich zu geben, zumal eigentlich jedem klar sein musste, dass Modelle nicht mit Wirklichkeit gleichgesetzt werden dürfen.

  • erstens kann, wie bereits erwähnt, ein Schwarzes Loch nicht explodieren, da es über keine kinetische Energie verfügt und deshalb seine Kerntemperatur im Bereich des absoluten Nullpunktes liegt. Diese Ansicht vertritt auch Hawking in seinem Bestseller wenn er schreibt: „Ein Schwarzes Loch, dessen Masse das Mehrfache der Sonnenmasse aufwiese, hätte nur eine Temperatur von einem zehnmillionstel Grad über dem absoluten Nullpunkt.!“
  • zweitens ist es unmöglich, dass durch das Zurückrechnen von Millionen von Schwarzen Löchern und Galaxien auf ihre Entstehung ein Punkt übrigbleibt. Ein Punkt bezeichnet in der Mathematik eine eindeutige Position. Er hat keine Größe und ist eindimensional. Das bedeutet, dass er weder Breite noch Länge noch Höhe besitzt. Abgesehen davon, dass er einen Ort festlegt, existiert ein Punkt eigentlich nicht physisch, also körperlich. Man kann also mathematisch die Materie verschwinden lassen. Wie gesagt, mathematisch. Das hat aber nichts mehr mit Realität zu tun, denn Mathematik ist die Wissenschaft von den Zahlen und ihren in Formeln ausdrückbaren Beziehungen. Der Punkt entspricht also der der Zahl Null. Die Zahl Null ist die Anzahl der Elemente in einer leeren Ansammlung von Objekten, mathematisch gesprochen die Kardinalität der leeren Menge. Abgesehen davon, dass etwas Stoffliches unmöglich zu „Nichts“ komprimiert werden kann, besitzt  Nichts auch keine kinetische Energie, um zu explodieren.
  • drittens pflanzt sich Strahlung mit Lichtgeschwindigkeit fort. Die Photonen wären folglich nach einem Urknall schon längst in den Weiten des Universums verschwunden, da sich nach der Urknalltheorie das Universum wesentlich langsamer als mit Licht­ge­­­schwindigkeit ausdehnen soll.
  • viertens konnten R. V. Pound und G. A. Rebka im Jahre 1960 die gravitative Rotverschiebung von Gamma-Strahlung im Gravitations­feld der Erde nachweisen und damit gleichzeitig Einsteins Relativitätstheorie, die voraussagte, dass Photonen der Schwerkraft unterliegen und folglich Energie verbrauchen, wenn sie sich gegen die Schwerkraft bewegen, experimentell bestätigen.
  • fünftens wird von den Kosmologen behauptet, dass das Univer­sum nach besagtem Urknall aus Energie in Form einer Strahlung hervorgegangen sei. Nun ist aber unstrittig, dass nur Atome strahlen können, die es zum Zeitpunkt des fiktiven Urknalls selbst in dieser absurden Theorie noch gar nicht gab. Aus Strahlung können keine Atome entstehen.
  • sechstens ist die Hintergrundstrahlung kein Restsignal des fiktiven Urknalls, sondern die Betriebstemperatur des Universums, wie mittels der Wärmelehre, auch “Thermodynamik” genannt, nachgewiesen werden kann. Die Thermodynamik ist die Wissenschaft der Zustandsänderungen von Körpern durch Zufuhr oder Abgabe von Wärme, sowie der Energieumwandlungen, bei denen Wärme beteiligt ist. Da die Himmelskörper im großen Maßstab gleichmäßig verteilt sind, lassen sich durch spezielle Instrumenten der Satelliten, Wärmebildkameras vergleichbar, die Temperatur­ver­teilungen im Kosmos messen. Sie bilden ein aktuelles Strahlungsmuster aller strahlenden Himmelsobjekte ab.

Die Urknalltheorie ist ein klassischer Beweis, wie man durch entsprechende Vorgaben die wildesten Theorien aufstellen und mathematisch beweisen kann, wenn man auf Naturgesetze keine Rücksicht nimmt und die Erkenntnisse anderer Fachgebiete nicht kennt bzw. ignoriert.

Auf Grund heutiger Erkenntnisse sind Raum und Zeit abstrakte Ordnungsprinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen und zu berechnen. Raum und Zeit sind nichts, was für sich allein besteht. Sie sind nichts Stoffliches, sondern ein Modell oder eine Anschauungsform des Gehirns des jeweiligen Lebewesens, um das Objekt oder Subjekt seiner Wahrnehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrung erst ermöglicht.

Den Gedanken, dass man so nicht seriös wissenschaftlich arbeiten und argumentieren kann und darf, wird noch heute jedem Kritiker zum Verhängnis, da man diese „Lehre“ zum Dogma erklärt hat, wird Skeptikern keine Möglichkeit gegeben diesen Unsinn durch gesicherte wissenschaftliche Erkenntnisse zu widerlegen. Die Medien weigern sich schlicht entsprechende Arbeiten zu veröffentlichen. Professor Gerhard Fröhlich vom Institut für Philosophie und Wissen­schafts­theorie der Universität Linz (Öster­reich) schreibt:  „Viele Journale schmücken sich mit einem großen Pool an Gutachtern, de facto wird oft nachweislich nur ein winziger Bruchteil überhaupt einge­setzt: Einige wenige „old boys“ bekom­men fast alle Gutachten zuge­schanzt und beherrschen so, da oft bei einer Vielzahl von Journalen gleich­zeitig tätig, die ganze Disziplin.“ Ende des Zitates.

 Aus diesem Grunde können sich aus den gasförmigen Elementarteilchen des Mediums, das auch unter der Bezeichnung „Äther“ Eingang in die Literatur gefunden hat, Verdichtungen bilden, die als „Schwarze Löcher“ im Weltall vagabundieren und aus denen sich schließlich supermassereiche Schwarze Löcher bilden können, deren Masse um viele Zehnerpotenzen schwerer als die stellarer Schwarzen Löchern sind. Supermassereiche Schwarze Löcher sind keine völlig isolierten Objekte, sondern mit dem Zentrum von Galaxien assoziiert und sind als Quasare in Form von aktive Galaktische Kerne (AGN) der Entstehungsort der Quarks, die an den jeweiligen Polen als Quarks und Antiquarks in Form von Jets mit annähernder Lichtgeschwindigkeit „abgeblasen“ werden und sich dadurch voneinander unterscheiden, dass sie einen gegensätzlichen Spin erhalten, vereinen sich in der äquatorialebene der aktiven galaktischen Kerne zu Protonen und Antiprotonen, den Atomkernen des Wasserstoffs. Bei diesem Vorgang werden derart extreme Energiemengen freigesetzt, dass sich in der äquatorialebene des AGN eine hell leuchtende, rotierende Scheibe bildet, die allerdings nicht, wie die Astrophysiker fälschlicher Weise behaupten Materie in Richtung des Zentrums transportiert (akkretiert), sondern im Gegenteil die so entstandene Materie in Form von überwiegend aus Wasserstoff-  und Heliumatomen in das All befördert, wo sich die Atome in Form der interstellaren Materie zu Sternen der ersten Generation verdichten und die ersten schwereren Atome bis hin zum Eisen „erbrüten“. Bei diesem Vorgang werden schließlich derart starke Kräfte freigesetzt, dass dieser Stern in Form einer Supernova explodiert und während dieses Vorganges alle anderen uns bekannten Atome bildet, die wir kennen. Wenn die aktiven galaktischen Kerne ausgebrannt sind, erlöschen die Jets und die Galaxien flachen zu Scheiben ab und werden von dem nun wieder zum supermassereichen Schwarzen Loch im Zentrum, „degradiert“ behalten aber ihre Aufgabe durch ihre Schwerkraft alle Sterne in Form einer Galaxie zusammen­zuhalten und zu verhindern, in das All abzudriften. Somit ist jede Galaxie eine Welt für sich. Der Entstehungsmechanismus ist aber für alle Galaxien im Universum gleich. Diese Galaxien bilden Galaxienhaufen, in deren Zentrum sich ein gemeinsamer Attraktor befindet. Auf diesen Attraktor bewegen sich alle Galaxien mit zunehmender Geschwindigkeit hin, bis sie im Bereich der Lichtgeschwindigkeit in ihre Elementarteilchen wieder zerfallen, aus denen sie aufgebaut wurden. In ferner Zukunft werden diese Teilchen wieder neue Galaxien aufbauen. Auf diese Weise befindet sich das Universum in einem Fließgleichgewicht und erneuert sich stetig. Da Energie, ein anderes Wort für diese Elementarteilchen, weder erzeugt noch vernichtet werden kann, bildet die Weltraumtemperatur den Motor für ein dauerhaftes Universum ohne Anfang und ohne Ende.

Werner Heisenberg schreibt in „Physik und Philosophie“, 7. Aufl. Stuttgart: Hirzel, 2006, S. 92 - ISBN 3777610240 :

„Die Energie ist tatsächlich der Stoff aus dem alle Elementarteilchen, alle Atome  und daher überhaupt alle Dinge gemacht sind, und gleichzeitig ist die Energie auch das - Bewegende -  ". Ende des Zitates.

Auch die von den Physikern beschworene „Antimaterie“, die sich beim Zusammen­treffen mit der „Materie“ nihilieren soll, gibt es nicht. Paul Dirac, ein britischer Physiker, Nobelpreisträger und Mitbegründer der Quantenphysik, ging bei seinen Berechnungen unter Einbeziehung der speziellen Relativitätstheorie mit ihrer Aussage, dass sich Materie und Energie äquivalent verhalten davon aus, dass Teilchen, sobald sie auf ihre Antiteilchen treffen, sich sofort gegenseitig vernichten. In der Physik heißt dieser Vorgang Paarver­nichtung oder Annihilation. Aus der Vernichtung der Teilchen sollen elektromagnetische Vernichtungs­strahlung (Annihilationsstrahlung) hervorgehen. Auch der umgekehrte Vorgang ist nach dieser Theorie möglich: die Paarerzeugung. Dabei soll sich Strahlungsenergie in Materie umwandeln. Das Erstaunliche an diesem Phänomen ist, dass aus Photonen mit Ruhemasse null massebehaftete Teilchen, also Teilchen endlicher Ruhemasse, hervorgehen sollen. So eine Unmöglichkeit schaffen lediglich Vertreter der theoretischen Physik unter missbrauch der Mathematik. Es gilt dabei immer die strenge Einhaltung der Energieerhaltung. Begründet wird dies mit dem Masse-Energie-Äquivalent, E = mc2, das Albert Einstein 1905 in seiner Speziellen Relativitätstheorie (SRT) abgeleitet hatte. Dass die Teilchen angeblich vollständig zerstrahlen und ihre gesamte Masse in Strahlungsenergie übergeht, ist schlicht eine unhaltbare Behauptung, denn neben der Energieerhaltung muss auch die Drehimpulserhaltung beachtet werden und schon entsteht bei diesem Vorgang auch ein Rückstoßkern oder Rückstoßteilchen und keine Rückstoßstrahlung.

Aber nicht genug, dass behauptet wird, dass aus Strahlung Materie entsteht, die Anhänger der theoretischen Physik behaupten allen Ernstes, dass es einen Wellen-Teilchen-Dualismus gibt. Der Welle-Teilchen-Dualismus besagt, dass Materie je nach den Versuchsbe­dingungen als Welle (Feld) oder Teilchen (Korpuskel) in Erscheinung tritt. Der Dualismus des Lichtes wurde 1905 von A. Einstein mit seiner Erklärung des Photoeffekts durch korpuskulare Materie konstatiert, nachdem über hundert Jahre die Welleninterpretation des Lichtes dominierte. Sie war seit dem Existenznachweis der elektromagnetischen Wellen von H. Hertz unantastbar.

Auch die Quantenphysik ist eine sehr erfolg­reiche speziel­le Theorie, die man allerdings nicht willkürlich verallgemeinern bzw. interpre­tieren darf.

In diesem Zusammenhang möchte ich auch auf das Doppel­spaltexperiment von Thomas Young hinweisen. Die klassische Physik legte das Doppelspalt-Experiment als Schlüssel­experi­ment (experimentum crucis) zur Beantwortung der Frage „Welle oder Korpuskel“ fest. Durch einen scheinbar eindeutigen Versuchs­­aufbau sollte die Frage klar im Sinne der einen oder der anderen Richtung entschieden werden. Das Ergebnis dieses Versuches wurde aber, wie weiter oben beschrieben fehlinterpretiert.

Die einzigen massiven Teilchen der Materie sind die Quarks und Antiquarks, aus denen die Atomkerne bestehen. Das Volumen der Atomkerne, die die Atomhülle bilden, ist um ein zehntausendstel (1/10.000) kleiner als seine Atomhülle. Wenn man einen Atomkern in der Größe eines ein Ein-Centstück in den Mittelpunkt eines Fußballfeldes legen würde, so würde das ganze Fußballfeld in seine Atomhülle hineinpassen. Kein Wunder, dass bei derartigen Größenunterschieden in einem Doppelspalt-Experiment kein Unterschied im Verhalten von elastischen elektromagnetischen Feldern der Photonen und Elektronen einerseits und den elastischen elektromagnetischen Feldern der Atomhüllen andererseits unterschieden werden kann. Ferner möchte ich darauf hinweisen, dass z. B. ein Wassertropfen, wenn er auf einer Wasseroberfläche die gleichen Transversalwellen Wellen erzeugt, wie eine entsprechen große Metallkugel. Im Gegensatz zur Metallkugel löst sich der Wassertropfen aber im Wasser auf, weil Wasser und Wassertropfen den gleichen Aggregatzustand besitzen. Sie sind Flüssig, obwohl sich der Wassertropfen beim Aufprall auf das Wasser wie ein Teilchen verhält.

Trotz einer derartigen Situation werden es immer wieder Vertreter ande­rer Fach­rich­tun­gen wagen, die „unfehlbaren Vertre­ter“ der Theore­tischen Physik auf fachlich unhaltbare Schluss­folge­rungen hinzuweisen. Allerdings kann das unter heutigen Bedingungen dauern. Schließlich blieb unser Planet trotz aller Widerstände auch nicht für alle Zeiten eine flache Scheibe und das Zentrum des Universums. Allerdings dauerte es fast 2500 Jahre, bis die Erkenntnisse des griechischen Astronomen und Mathematikers Aristarchos von Samos (310 v. Chr. bis  230 v.Chr.) allgemein akzeptiert wurden, dass die Erde um die Sonne kreist, unser Planet eine kugelförmige Gestalt besitzt und die Jahreszeiten nur durch die Neigung der Erd­achse zur Sonne erklärt werden können. Da diese Erdachse nicht stabil ist, weil sich die Schwerkraftverhältnisse zwischen der Erde und den anderen Planeten dauernd unterschiedlich stark und schnell verändern, kommt es zu den unterschiedlichen Klimasituationen, die man im Laufe der Erdgeschichte nachweisen konnte. CO2 führt jedoch nicht zu einer Erderwärmung, wie interessierte Kreise glaubhaft machen wollen. Professor Litt kommt auf Grund seiner Erdkernbohrungen zu dem Schluss.: „Die Ergebnisse zeigen, dass das Klima in den vergangenen Hunderttausenden Jahren auf der Nordhalbkugel Achterbahn gefahren ist. Innerhalb weniger Jahrzehnte konnte es kippen und von Eiszeit auf Warmzeit und umgekehrt  umschalten.“  Ende des Zitates. 

Der lückenlose Kalender umfasst insgesamt sechs Zyklen aus warmen und kalten Perioden und erzählt eine Geschichte der natürlichen Klimaschwankungen, die zeitlich synchron zu den periodischen Schwankungen der Erdbahn um die Sonne verlaufen. Es ist weitgehend unstrittig, dass die CO2-Werte um 122 Moleküle bei 1 000 000 Luftteilchen in den letzten Jahrzehnten angestiegen sind. Es ist auch unbestritten, dass dieser Anstieg weitgehend von den Menschen verursacht wurde. Es ist aber keineswegs bewiesen, dass der geringe CO2-Anstieg eine Erderwärmung zwischen 1 und 2 Grad Celsius verursacht hat. Hier handelt es sich vielmehr um ein zufälliges Zusammentreffen zweier Vorgänge, die nichts miteinander zu tun haben, nämlich den vermehrten Verbrauch von fossilen Brennstoffen und der unabhängig davon ansteigenden Klimaerwärmung. Schließlich wird niemand ernsthaft behaupten, dass der Geburtenrückgang in Deutschland auf den Rückgang der Storchenpopulation zurückzuführen sei. Man schreckt auch bei der angeblichen Beweis­führung der Klimaerwärmung durch CO2  nicht vor psychologischen Methoden zurück, da die Sachargumente fehlen.

Die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grön­land bezeugen, dass Temperatur­erhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg der CO2-Konzentrationen in der Luft. (Dr. Davis Evans, Klimawissenschaftler, im „The Australian“ 18. Juli 2008). Dieser Sach­verhalt zeigt, dass der CO2-Anstieg als Folge einer Erderwärmung anzusehen ist, wie gerade dargelegt, und nicht umgekehrt. Diese Fakten besagen eigentlich alles über Ursache und Wirkung. Fakten sind aus wissenschaftlicher Sicht aber das Todesurteil selbst der schönsten Theorie. Hinzu kommt, dass diese Ergebnisse unumstritten sind, wie Dr. Evans ausdrücklich versichert. Die Klima­alar­misten sollen ihnen sogar zustimmen, bezweifeln aber ihre Bedeutung. Unwill­kürlich fragt man sich nach der Logik, die hinter einer derartigen Ablehnung steckt. Die Argumente, dass Berechnungen die Klimaer­wär­mung durch CO2 ergeben, sind keine Beweise, weil die Ergebnisse von den jeweiligen Vorgaben abhängen und wenig über die damaligen Umweltverhältnisse aussagen. Die unterschiedlichsten Wechselwirkungen waren und sind derart komplex, dass sie zu keinem Zeitpunkt erfasst und seriös dargestellt werden können. Die Bohrkerne zeigen Ergebnisse, sagen aber nichts über die Ursachen aus. Sind aber die Vorgaben falsch, kann das Ergebnis nicht richtig sein.

Die Intoleranz und Arroganz der Wissenschaftslobby verhindert die kritische Hinterfragung der von den heutigen einflussreichen Kosmologen aufgestellten dogmen­haften Behauptun­gen. Das hat zur Folge, dass viele Fach­gebiete von den verkündeten Lehren besagter Phantas­ten ab­hän­gig sind und so in ihrer wissenschaftlichen Arbeit massiv behin­dert werden, da jede Diskus­sion abgeblockt wird, sobald sich zeigt, dass die jeweiligen Er­kennt­nisse bzw. Befunde nicht mit der offiziellen Lehre der Physik in Einklang stehen. Dies ist z. B. ein großes Problem der sogenannten Außen­seiter- oder Alter­nativ­medizin und der Biologen.

Auch die sogenannte Antimaterie ist das Ergebnis einer Fehlinterpretation mathematischer Berechnungs­ergebnisse. Antimaterie besteht aus Antiteilchen, die sich von normalen Teilchen nur im Vorzeichen unterscheiden, also + „plus“ und - „minus“, die Eigenschaften, wie Masse und Spin sind identisch.

Berechnungen, die von Dirac erstellt wurden ergaben, dass sich elektromagnetische Felder und massive Teilchen gleichsetzte. Unter Einbeziehung der speziellen Relativitätstheorie mit ihrer Aussage, dass sich Materie und Energie äquivalent verhalten, in eine Bewegungsgleichung, glaubte er das Verhalten von Elektronen nahe der Lichtge­schwindigkeit erklären zu können. Er und viele andere waren nun davon überzeugt, dass die Entstehung und Vernichtung von Teilchen ebenso zum Quantenverhalten gehört, wie die Umwandlung von Energie in Materie und umgekehrt.

In der Realität sind Materie und Antimaterie spiegelbildlich aufgebaute Atome und Molekül­verbindungen, die für die Wechselwirkungen und damit für die Existenz des Universums unverzichtbar sind. Sie erscheinen uns im täglichen Leben auf Schritt und Tritt in Form von Racematen. Allerdings vernichten sie sich nicht gegenseitig, sondern lösen sich nur bei Erreichen der Lichtgeschwindigkeit auf, da dann keine Kräfte mehr wirken können.

 

      ©

***************************************************************************************

                                                                              ENDE

***************************************************************************************

 

In Spiegel online, vom 25.05.2014 schreibt Jana Hauschild: Das Internet hat das Lesen verändert, viele hüpfen durch die Texte - neue Gewohnheiten haben sich etabliert.

Sie zitiert aus einem Essay für die Harvard University: Das Springen von Abschnitt zu Zwischenüberschriften weiter zu Links oder gefetteten Wörtern beunruhigt die US-amerikanische Neurowissenschaftlerin Maryanne Wolf vom Center for Reading and Language Research an der Tufts University. Sie befürchtet, durch das verbreitete Schnelllesen im Internet würde das vertiefte Lesen verlernt. Ihre größte Sorge ist, dass viele neue und auch einige ältere Leser angesichts der digitalen Fülle an unmittelbaren Informationen, die immer weniger intellektuelle Anstrengung erfordern und enthalten, weder die Zeit noch die Motivation haben, die möglichen Bedeutungen von dem, was sie lesen, zu durchdenken".

Meine Erfahrungen bestätigen die Beobachtungen von Frau Wolf. Deshalb versuche ich die zeitlosen Fragen der Menschheit: „Woher komme ich“ und „Wer bin ich“ in Kurzfassung zu formulieren, um einer möglichst breiten Öffentlichkeit den Zugang zu neuen Erkenntnissen zu ermöglichen, da die Medien durch einseitige Berichte und Unterdrücken aktueller gesicherter wissenschaftlicher Erkenntnisse die öffentliche Meinung manipulieren.

 

Das Universum auf einen Blick.

„Der Verstand schafft nicht die Wahrheit, er findet sie vor.“

Augustinus Aurelius  (354 430), Bischof von Hippo, Philosoph, Kirchenvater und Heiliger

Am 11.02.2016 wurde offiziell verkündet, dass es gelungen ist, Gravitationswellen entfernter Himmelsobjekte zu messen. Da Gravitationswellen ein Ausbreitungsmedium benötigen, wurde auch gleichzeitig bewiesen, dass es den geleugneten Äther doch gibt. Eine Tatsache, die viele Eliten zum Schwitzen bringen wird, denn damit ist auch die Urknalltheorie widerlegt.

Quarks und Anti­quarks bauen zusammen mit der Dunklen Materie sowie den drei verschiedenen Feldern, dem Gravitationsfeld, dem elektrischen Feld und dem Magnetfeld die Materie des gesamten Kosmos auf. Aus welchem Blickwinkel man auch immer die Dinge betrach­tet: Immer ist das Große im Kleinen und das Kleine im Großen wieder zu erkennen. Entscheidend für das Verständnis all dieser geschilderten Ereignisse ist das sogenannte Selbstähnlichkeits­prinzip, das die Chaosforschung entdeckte. Es besagt, dass alle Funktions­mechanismen im Universum sich letztlich durch dauerndes Wiederholen einfachster Grund­vorgänge und Grundmuster aufbauen und die Welt im Innersten zusammenhalten. Die Chaosforschung macht es uns Menschen nachvollziehbar, warum die Welt so bunt und vielfältig ist und warum universelle Gesetzmäßigkeiten gelten.

Unabhängig von den Vorstellungen unserer Eliten, organisiert, funktioniert und reagiert das Universum nach altbewährten Gesetzen seit ewigen Zeiten und kein Sterblicher, möge er noch so viele Titel und Macht haben, wird je etwas daran ändern. Aus diesen unum­stößlichen Gründen kann man mit dem heutigen gesicherten Wissen das Universum erklären und verstehen, sofern nicht zusätzlich Emotionen und religiöse Überzeugungen das behindern. Man denke in diesem Zusammenhang nur an die Kreationisten in den USA.

Der Mensch ist ein Doppelwesen

Albert Einstein kam auf Grund des Wissensstandes seiner Zeit zu der Überzeugung, dass sich in dem für ihn unbegreiflichen Weltall eine grenzenlose Vernunft offenbart und schloss sich so den Mythen der Menschheitsgeschichte an. Derartige Vorstellungen über den Kosmos werden auch heute noch immer von dem wissenschaftlichen Establishment vertreten, das die aktuellen und gesicherten wissen­schaftlichen Erkenntnisse zu unter­drücken, zu kontrollieren und zu verschweigen bemüht ist. Die offiziell angeblich unab­hängigen Medien im angeblich freien und aufgeklärten Westen, werden durch die Gesetze des Marktes, Lobbygruppen, dem wissenschaftlichem Establishment und massiver Polit-PR kontrolliert, denn statt um Information, Aufklärung und Meinungsbildung geht es um Quoten, Auflagen, Inkompetenz und Arroganz einzelner einflussreicher Personen in Schlüssel­positionen sowie Klick-Zahlen im Internet, von denen wiederum die Einnahmen von Werbeauf­trägen und die Werbungskosten abhängig sind. Kurz, die Funktionen der Inquisition des Mittelalters, auf die man heute voller Abscheu und Unverständnis verweist, werden in unserem „aufgeklärten Zeitalter“ von der Öffentlichkeit stillschweigend durch die Medien übernommen und von diesen erfolgreich durchgeführt. Derartige uner­trägliche Missstände werden gerade aktuell, allerdings von einer nicht unproble­matischen Seite, zu Recht öffentlich angeprangert und die gelenkte Information der Bevölkerung durch die Medien als Lügenpresse ange­sprochen. Unwillkürlich stellt sich die Frage, was eigentlich für ein Unterschied zu der Zensur in autoritären Staaten besteht und ob die Selbst­verpflichtungserklärung des Deutschen Presserates in Zusammen­arbeit mit den Presse­verbänden nicht mehr als nur eine irreführende und unverbindliche Absichtserklärung ist.

 

 Woraus besteht das Universum, wie funktioniert es und wie entstand der  Mensch?

Wie der Nachweis von Gravitationswellen zeigt, besteht das Universum aus einem gasförmigen, stofflichen Medium, da sich Wellen nur in einem gasförmigen, flüssigen oder festen Medium fortpflanzen können. Der dritte Hauptsatz der Thermodynamik besagt, dass die Entropie eines Körpers am absoluten Temperatur-Nullpunkt (-273.15 °C) Null wird. Das heißt, dass sich nichts bewegen kann und die Zeit stillsteht. Dieser absolute Nullpunkt ist aber unstrittig prinzipiell nicht erreichbar. Wäre es anders, würde es den Kosmos nicht geben. Das bedeutet, dass Teilchen, die das Medium (Äther) bilden vorhanden und stets in Bewegung sind. Einige mutige Astrophysiker sprechen von sogenannten WIMPs. (engl. weakly interacting massive particles „schwach wechselwirkende massereiche Teilchen“ oder auch von „Dunkler Materie“.

Aus heutiger Sicht sind Zeit und Raum abstrakte Ordnungsprinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen und zu berechnen. Zeit und Raum sind nichts, was für sich selbst besteht. Sie sind nichts Stoffliches, sondern ein Modell oder eine Anschauungsform des Gehirns des jeweiligen Lebewesens, um das Objekt oder Subjekt seiner Wahrnehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrung erst ermmöglicht. Ein Spontispruch lautet deshalb sehr treffend: "Die Natur hat die Zeit geschaffen, damit nicht alles auf einmal passiert."

Vor etwa 2500 Jahren traf bereits Aristoteles (*384 v. Chr. † 322 v. Chr.) eine viel weitergehende Aussage, die bis heute von der Fachwelt nicht akzeptiert wird, die aber den wahren Sachverhalt in wenigen Worten beschreibt. Er führte den Begriff  „hyle prote“ ein, der, in Latein übersetz, als  materia prima in die Literatur Eingang gefunden hat und zwar in einem doppelten Sinne. In seiner Abhandlung über die Physik stellt er fest, dass die materia prima das elementare Substrat aller Naturkörper ist, das die Umwandlung in andere Körper durch Phasenübergänge ermöglicht. Da nicht alle Elementarteilchen im Kosmos gleichzeitig symmetrisch schwingen können, bilden sich, vergleich­bar mit den Erkennt­nissen aus der Wetterkunde, Verdichtungen, Verdünnungen und Verwirbelungen in der Atmosphäre wie in den Weiten des Universums. Das hat wiederum zur Folge, dass sich die unterschiedlichen Himmelskörper in diesem Medium gegenseitig „beschatten“ können, wenn sich diese Körper entsprechend nahe kommen, so dass zwischen ihnen ein Unterdruckgebiet entsteht. Damit dieses Unterdruckgebiet wieder ausgeglichen wird, werden diese Objekte durch den sie umgebenden Außendruck so lange aufeinander zugeschoben, bis der Druckausgleich erfolgt ist oder sie kollidieren. Die Gravitationskraft ist also gar keine Anziehungskraft, sondern die Konsequenz eines Druckausgleiches.

Verständlich wird dieser Sachverhalt durch die Erkenntnisse der Chaos­forschung. Quasare und Galaxien folgen den jeweiligen Unterdruckregionen (Gravitations­feldern) und bilden immer größere Galaxienhaufen. Dies lässt sich auch durch statistische Analysen und gesicherte Beobachtungen beweisen, die besagen, dass im Kosmos grund­sätz­lich die Tendenz zur Haufen­bildung von Galaxien besteht, in deren gemeinsamen Zentrum der Unterdruck als Mangel an Elementarteilchen durch die gegenseitige Abschirmung am größten ist. In der Chaos­forschung spricht man von einem zentralen Attraktor, ohne ihn jedoch näher zu definieren. Nach meiner Überzeugung sind diese Attraktoren jeweils der gemeinsame Schwerpunkt, das Gebiet maximalen Unterdrucks, das Zentrum aller dieser, die Galaxienhaufen bildenden Himmelskörper. Je näher sich die einzelnen Galaxien kommen, umso stärker werden sie auf den gemeinsamen Attraktor hin beschleunigt, bis sie schließlich irgendwann in ferner Zukunft beinahe Lichtgeschwindig­keit erreichen. Da sich bei Licht­geschwindigkeit kein noch so kleines kräftetragen­des Teilchen zusätzlich zur Licht­geschwindig­keit bewegen kann, ist eine Wechsel­wir­kung zwischen den einzelnen Elementarteilchen in der Materie nicht mehr möglich und die Materie, aus denen die Himmelskörper bestehen, löst sich in ihre Grundbausteine, die Elementarteilchen, auf, werden wieder zu dem das Universum ausfüllenden Ätherteilchen, um sich irgendwann wieder zu verdichten, Schwarze Löcher und schließlich als Quasare wieder Quarks und Antiquarks zu bilden, die Bausteine der Materie. Da Energie, sprich diese Elementar­teilchen, weder erzeugt noch vernichtet werden können, sondern nur durch Phasen­übergänge den Energiehaushalt und die damit verbundenen Aktivitäten des Universums regulieren, erneuert sich der Kosmos stetig, indem sich Entstehen und Vergehen von Materie in einem Fließgleichgewicht befinden. Das Universum funktioniert folglich wie ein unsterblicher primitiver Organismus und jede Galaxie verhält sich im Kosmos wie eine Zelle in einem Organismus. Deshalb sieht das Universum im ganz großen Maßstab ebenso schwammartig aus, wie in den Knochen von Lebewesen. Dieses „Gewebe“, auch Spongiosa genannt, benötigt wenig Material, stützt, ist elastisch und passt sich durch entsprechenden Umbau den jeweiligen Zug- und Druckkräften an, weshalb sich das Universum sehr plastisch verhalten kann und sich auch optisch dauernd verändert. Es ist also nicht statisch, sondern dynamisch in steter Veränderung.

Das Komplementaritätsprinzip in der Chemie und der Biologie.

Das Komplementaritätsprinzip beschreibt die Wechselwirkung von zueinander wie Schlüssel und Schloß passenden Teilchen, Atomen und Molekülen. Nach diesem Prinzip erfolgt z.B. die Ausbildung der Desoxyribonukleinsäure, die der Speicherort für das genetischen Material  des in allen Lebewesen vorkommenden Biomoleküls und Träger der Erbinformation, also der Gene ist.

In allen Lebewesen haben wir es entweder mit links- oder rechtsdrehenden Molekülen zu tun, während in der anorganischen Natur Racemate, also ein Gemisch aus rechts- und linksdrehenden Molekülen üblich ist. Meinem Atommodell zufolge sind bereits die Protonen, also die Atomkerne des Wasserstoffs, komple­mentär aufgebaut: 50% der Protonen bestehen aus einem d-Quark / Antiquarkpaar, dessen Urstoffteilchen parallel und 50% aus einem d-Quarkpaar, dessen Urstoffteilchen antiparallel zu ihrer Rotationsachse ausgerichtet sind. Ebenso haben 50% der d-Quark/ Antiquarkpaare einen spiegel­bildlichen Spin (Drehrichtung). Wie sonst sollten sich zwei Protonen, die sich ja auf Grund gleicher Ladung abstoßen müssten, zu dem Wasserstoffmolekül H2 verbinden, wenn nicht die beiden Elektronen einen entgegengesetzten Spin hätten, der sich wiederum nur durch den komplementären Aufbau der Protonen erklären lässt, sofern man nicht an das Märchen vom Urknall glaubt. Aber auch der Aufbau aller Atome beruht auf diesem Komplemen­taritätsprinip. Nach Pauli darf keine „Quantenbahn“ innerhalb einer Schale des Atoms von mehr als zwei Elektronen besetzt sein. Diese Elektronen müssen außerdem einen entgegengesetzten Spin, d.h. sie dürfen nicht die gleiche Drehrichtung haben. Dieses Gesetz wird deshalb auch als „Pauli Prinzip“ oder auch „Ausschließungsprinzip“ bezeichnet. Da die „Ordnungszahlen“ der chemischen Elemente durch die Zahl der Protonen bzw. deren Elektronen bestimmt wird, müssen sich die Atomkerne grundsätzlich aus komplementär aufgebauten Protonen zusammensetzen. Dieser Sachverhalt erklärt auch, warum sich grundsätzlich alle Racemate aus 50% linksdrehenden und 50% rechts­drehenden Molekülen zusammensetzen. Dieser Tat­bestand ist für das Verständnis der nachfolgen­den Aus­führungen von entscheidender Bedeutung. Nichts Anderes macht ja z.B. die Doppelhelix des Gen­codes, wenn sie durch die Basen­folge des einen DNS-Stranges die Basenfolge des komplementären DNS-Stranges bereits voll­ständig determiniert.

Auch bei der Zellteilung findet eine Reduplikation der beiden Helix-Stränge nach dem gleichen Schema statt. Bei der Transkription wird von einer DNS-Sequenz ausgehend die Messenger-RNA aufgebaut, welche ihrerseits wiederum die Eiweißmoleküle synthetisiert usw. . Wichtig ist darauf hinzuweisen, dass die beiden Stränge selbstähnlich, aber nicht spiegelbildlich sind und das hat zur Folge, dass jeder Strang einen halben, komplementären Menschen entwickeln hilft. Deshalb haben wir eine linke und eine rechte Hand, einen linken und einen rechten Fuß, eine linke und eine rechte Gesichtshälfte, sowie eine linke und rechte Gehirnhälfte.

Der Mensch ist ein Doppelwesen, das durch animalische Verhaltensmuster geprägt ist und als einziges Lebewesen geistige und Vernunft bezogene Leistungen erbringen kann. Wir leben in einer komplementären Welt.

 

+V<< Neues Bild mit Text >>

Der Neokortex ist der stammesgeschichtlich jüngste Teil der Großhirnrinde und hat sich erst bei den Säugetieren entwickelt und beim Menschen vorläufig sein derzeitiges Leistungs­vermögen erreicht. Er beherbergt alle Erinnerungen, Ziele, Träume, Vor­stellungen, Hoffnungen und Befürchtungen. Mit dem Entstehen dieses Teils unseres Gehirns entwickel­te sich der entscheidende Unterschied zum Tier und die individuelle Persönlichkeit, das   Ich-Bewusstsein.

Das Großhirn besteht aus zwei Hälften, den Hemisphären. Die beiden Gehirnhälften sind durch den Corpus callosum – die Brücke oder den Balken – verbunden: Er sorgt dafür, dass alle Informationen, die von der einen Gehirnhälfte behandelt und bearbeitet werden, auch die andere Gehirnhälfte erreichen. Unzählige Verbindungen gewähren einen perfekt funktionierenden Informationsaustausch. Jede der beiden Gehirnhälften hat unterschied­liche Aufgaben. So steuert die linke Gehirnhälfte motorisch die rechte Körperseite und die rechte Gehirnhälfte die linke Körperseite. Wenn beide Gehirnhälften zusammenarbeiten, ergeben sie ein perfektes Team. Auch fürs Lernen ist dieses „Teamwork“ unverzichtbar.

Der Schlüssel zum Verständnis derartiger morphologischer Anpassungsvorgänge liegt in den Tripels, die den Gencode aufbauen. Diese Tripels sind gleichzeitig für die dreidimensionale Orien­tierung der Moleküle notwendig und werden durch die stehenden Wellen der beiden u-Quark/ Antiquarkpaare und eines der beiden d-Quark/Antiquarkpaare aufgebaut. Das ist der Grund, warum der Gencode der DNS aus den Basen Adenin, Thymin und Cytosin besteht. Interessanterweise kann Cytosin gegen Guanin ausgetauscht werden. Dies entspricht auch dem Sachverhalt, dass es vier verschiedene Quark/Antiquarkpaare gibt, von denen aber immer nur drei ein Proton aufbauen können. Das bedingt wiederum, dass Adenin (eine Purinbase) und Thymin (eine Pyrimidin­base) von den stehenden Wellen der beiden u-Quark/ Antiquarkpaaren aufgebaut werden, während Guanin (eine Purin­base) und Cytosin (eine Pyrimidinbase) von den stehenden Wellen der beiden d-Quark/ Antiquark­paaren entsprechend ihrem spiegelbildlichen Spin gebildet werden. Das erklärt auch, warum der Gencode grundsätzlich aus Tripels besteht. Wie im Proton die drei Quark/Anti­quarkpaare zunächst die drei Dimensionen bildeten, die zu einem viel späteren Zeitpunkt uns die Vorstellung eines Raumes ermöglichten, so wie die Struktur der Protonen und Neutronen (Antiprotonen, „Antimaterie“) unter entsprechenden Rahmenbe­dingun­gen die Entstehung aller uns bekannten Elemente ermöglichte, so sind die Quarks und Antiquarks über die Atomhülle, die sie ja aufgebaut und strukturiert haben und die sie dauerhaft aufrecht erhalten, für die Ausrichtung der jeweiligen Atome beim Aufbau der Moleküle verant­wortlich. Die Quarks und Antiquarks sind also auch für die Struktur der Tripels in den Genen ursächlich. Diese Tripels bilden ihrerseits im nächsten Schritt und auf einer höheren Ordnungsebene die dreidimensionalen Moleküle, die einen lebenden Organismus in Form von Zellen und Organen ausmachen. Die Tat­sache, dass im Gencode Cytosin durch Guanin ausgetauscht werden kann, hat weittragende Konsequenzen. So wie sich die beiden d-Quark/Antiquarkpaare spiegelbildlich zueinander ver­hal­ten, so wird jeder Organismus, bei dem der Gencode der DNS aus den vier Basen Adenin, Thymin, Cytosin und Guanin aufgebaut ist, auch aus zwei Hälften bestehen, die sich spiegelbildlich zueinander verhalten, entsprechend der komplementär angelegten Stränge in der Doppelhelix. Ganz allgemein bekannt ist, dass z.B. die Gesichtshälften eines jeden Menschen sehr ähnlich, aber nicht spiegelbildlich gleich sind. Dies ist die Auswirkung des Austau­sches von Cytosin und Guanin im Gencode.

Die Abweichungen im Aussehen der Gesichtshälften sind dadurch zu erklären, dass der Austausch der Moleküle auf chemischer Ebene nicht spiegelbildlich sondern komplementär erfolgt, also nur näherungsweise, eben ähnlich. Die vollkommene Symmetrie wird zwar überall in der Natur angestrebt, aber nie erreicht. Dieser Sachverhalt ist die Triebfeder die verhindert, dass es im Kosmos zu einem Stillstand kommt. Und weil das so ist, bleibt alles für alle Zeiten in Bewegung. Da sich jedes Quarkpaar aus einem Quark und seinem entsprechenden Antiquark zusammensetzt, erzeugt jedes Quarkpaar zwei verschiedene Impulse mit unterschiedlicher Spannung. Ein Vorgang, der in der Computertechnik zur Anwendung des Binärcodes führte.

Nach dem Selbstähnlich­keitsprinzip finden wir im Morsealphabet das gleiche Informations­muster. Was bei den Quarkpaaren die unterschiedlichen Spannungsimpulse, sind im Morsecode Strich-Punkt-Kombinationen. Da die Quarks und Antiquarks in den Atomkernen die Temperatur des absoluten Nullpunktes haben, gibt es bei der „Aufzeichnung“ der Umweltsignale und Umweltinformationen auch kein Rauschen. Es bestehen also optimale Empfangs- und Sendebedingungen bei einem Minimum an Energieauf­wand. Die Atomkerne verhalten sich sozusagen wie wechselwarme Tiere. Sie werden erst entsprechend aktiv, wenn die Umgebungstemperatur, also die eigentliche Energie­quelle, entspre­chend stark ist.

Als Modell bietet sich die Biene an. Die als besonders arbeitsam bekannte Biene wird als wechselwarmes Tier erst aktiv, wenn es für sie ausreichend warm ist. Der Bienen­körper ist in diesem Denkmodell als Atomkern zu verstehen. Die Flügel würden den Elektro­nen entsprechen. Je wärmer es wird, je mehr Energie also dem Bienenkörper zugeführt wird, umso aktiver wird die Biene und umso frequenter, also energiereicher, der Flügelschlag. Der Bewegungs­ablauf der Flügel bleibt dabei gleich. Lediglich die Frequenz nimmt zu. So wie die Biene durch ihren Tanz wichtig Informationen an ihre Artgenossinnen weitergibt, die diese Informationen auch verstehen und entsprechend reagieren, so gibt der Atomkern über das oder die Elektronen seine von ihm gespeicherten Informationen über Photonen an andere Atome und Moleküle weiter, die dann ebenfalls entspre­chend reagieren und je nach energetischer Situation die Informationen untereinan­der austauschen und eventuell neue Informationen speichern. Zu welcher Intensität sich derartig Strahlungen aufschaukeln können, zeigen die Pheromone (Sexuallockstoffe weiblicher Insekten), die von den männlichen Geschlechtspartnern noch kilometerweit und unabhängig von der Wind­richtung wahrgenommen werden können, da es sich um elektromagnetische Wellen mit laserähnli­chen Infrarotkomponenten handelt (Popp, Fritz - A.: Neue Horizonte in der Medizin. Haug-Verlag, Heidelberg 1983). Diese laserähnlichen elektromagnetischen Wellen müssen also von dem Duftmolekül abgestrahlt werden. Derartige Duftmoleküle werden inzwischen synthe­tisch hergestellt und zur Bekämpfung von schädlichen Insekten eingesetzt. In den Weinanbauge­bieten findet man häufig kleine Kunststoffbehältnisse, die diese laserähnlichen Wellen ausstrahlen. Dies geschieht ohne Batterie oder sonstige künstliche Energiezufuhr. Das Molekül verbraucht aber nach­weis­lich Energie, wenn es elektromagnetische Wellen, noch dazu laserähnliche Wellen, abstrahlt. Je wärmer die Witterung, umso intensiver die Abstrahlung, umso aktiver die wechsel­warmen Insekten­männchen. So ist die Frage: Wo kommt die Energie her und warum erschöpft sich der „Sender“ nicht in kurzer Zeit, durchaus berechtigt. Hierfür gibt es folgende Erklärung: Wie bereits früher beschrie­ben, führt jede Temperaturerhöhung zu einer Energiever­dichtung (Urstoffteilchen- bzw. Ätherverdichtung) um die Atomkerne, so dass diese ver­mehrt laserähnliche Wellen abstrahlen können. Das Atom ist ein sich selbst in Dauerbetrieb erhal­tender Generator, der die Gravitations­­kräfte nutzt und in elektromagne­tische Kräfte umwandelt.

Die Farbtherapie und die Musiktherapie basieren, meinen Ausführungen zufolge, ebenfalls auf dem gleichen Wirkungsprinzip wie die Homöopathie, wirken jedoch nicht so spezifisch wie diese, sondern beeinflussen, der Bachblütentherapie vergleichbar, mehr allgemeine (sog. archaische) Grund­stimmun­gen. Hier ist wichtig darauf hinzuweisen, dass die Schallwellen über das Ohr in elektro­magnetische Schwingungen umgesetzt werden, während Photonen direkt auf das Auge treffen und die elektro­magnetischen Impulse über den Sehnerv zum Gehirn weitergeleitet werden.

Auch an dieser Stelle ist wieder an das Alles oder Nichts Gesetz zu erinnern, das für die „tote Materie“ ebenso wie für alle biologischen Systeme gilt. Ob Hertz mit Photonen Elektronen aus Metallplatten „schlagen“ konnte oder nicht, hing ebenso von einem Schwellenwert ab, wie die Steigerung von Enzymaktivitäten bei Bestrahlung mit Photonen (Popp, Fritz-A.: „Biologie des Lichts“, Parey Verlag, 1984, Photonen - Die Sprache der Zellen, S.38 ).

                                                                        Konsequenzen

Eine Callosotomie zieht deutliche Veränderungen der kognitiven Fähigkeiten nach sich. Die Auswirkungen lassen sich mit Hilfe so genannter Split-Brain-Experimente nachweisen. Ein Beispiel: Man lässt einen Patienten mit Callosotomie einen Punkt fixieren. Links daneben steht Tee, rechts eine Tasse. Der Patient muss beantworten, welches Wort er gesehen hat. Er erwähnt nur die Tasse. Muss er jedoch auf das Wort zeigen, welches er gesehen hat, zeigt er nur auf das Wort "Tee" - nicht auf das Wort "Teetasse".

Informationsaustausch und Koordination zwischen beiden Gehirnhälften, die jede für sich zum Teil unterschiedliche Aufgaben bei der Informa­tions­­verarbeitung haben.

                                                      Die Aufgaben der einzelnen Gehirnhälften

Die rechte Gehirnhälfte ist für künstlerische und intuitive Tätigkeiten sowie für die Raumorientierung zuständig. Sie verarbeitet die Informationen ohne Bewertung und ohne Begrenzung. Folgende Begriffe lassen sich ihr zuordnen: kreativ, räumlich, ganzheitlich, unbeschränkte Wahrnehmung, keine Zeitgrenzen, unparteiisch. Ihre Sprache sind die Bilder, die Farben und die Symbole. Zu ihr gehört der Rhythmus, die Musik.

Die linke Gehirnhälfte ist hauptsächlich für unser analytisches Denken und für die verbale Aktivität verantwortlich. Sie verarbeitet Informationen nacheinander und zerlegt sie in kleinste Teilchen. Ihre Begriffe: analytisch, linear, Einzelheiten, überleben, zeitorientiert, Selbstbild, parteiisch, Glaubenssystem. Ihre Sprache ist das gesprochene und geschriebene Wort.

Wenn beide Gehirnhälften harmonisch aufeinander abgestimmt sind, können wir nicht nur kreativ sein, sondern wir meistern gleichzeitig unsere täglichen Routineaufgaben und nehmen darüber hinaus noch andere Möglichkeiten wahr. In dem Moment, in dem beide Gehirnhälften perfekt zusammenarbeiten, ist man sich seiner selbst voll bewusst. Manchmal erlebt man diesen Glücksmoment, aber leider viel zu selten. Da einem in einem Zustand des vollen Bewusstseins ganz andere Gehirnkapazitäten zur Verfügung stehen, als wenn man nur einen Teil unseres Gehirns nutzt, empfiehlt es sich zu überlegen, wie die Zusammenarbeit der beiden Gehirnhälften unterstützt und gefördert werden kann.

Diese unterschiedlichen Erkenntnis- und Vorgehensweisen schließen sich nicht gegen­seitig aus, sondern ergänzen sich. Wer bereit ist, etwas für die gute Zusammenarbeit seiner beiden Gehirnhälften zu tun, dem stehen für das Lernen zusätzliche Kapazitäten zur Verfügung. Die Tätigkeit und die Koordination der beiden Gehirn­hälften muss ständig angeregt werden, denn ähnlich wie unsere Muskulatur werden sie vom Nichtstun schlapp.

 

Schon Mark Twain wusste: "Es ist leichter die Menschen zu täuschen, als davon zu überzeugen, dass sie getäuscht worden sind.

 

Postmathematische Trugschlüsse mit weittragenden Konsequenzen.

 

Die Erforschung des Universums ist nicht nur eine Angelegenheit der Astronomen, der Astrophysiker und der Mathematiker, sondern auch der Chemiker, Biologen und Mediziner. Die Modelle der Kosmo­logen sind aber mathematischer Natur und das Ergebnis linearen Denkens. So eine Denkweise kann nicht gut gehen. Wer das Universum verstehen will, muss sich nicht nur guter astronomischer Beobachtungs­daten bedienen, er muss auch die Eigenschaften der Gleichungen kennen und hinterfragen, mit denen man den Kosmos zu beschreiben versucht.

Die physikalische Theorie, die unser Universum beschreibt, geht von Annahmen und nicht von Fakten aus. Auf diese Weise wurde durch die Gleichungen der Allgemeinen Relativitätstheorie und der Quantenmechanik dem Kosmos Eigenschaften zugeschrieben, denen das Universum nach Auffassung des heutigen wissenschaftlichen Establishments, das Universum zu gehorchen hat. But it ain't necessarily so / The tings that you're liable to read in the bible / It ain't necessarily so! (Porgy and Bess)

Man kann erkennen, was die Welt zusammenhält, wenn man die gesicherten wissenschaftlichen Erkennt­nisse objektiv zusammenführt. Schon die alten griechischen Philosophen sprachen von dem Kosmos ( κόσμος kósmos  = Weltordnung) und gingen ganz selbstverständlich davon aus, dass aus einer Leere nichts entstehen kann und wenn etwas wie das Universum existiert und funktioniert, muss nicht nur etwas Stoffliches vorhanden sein, es müssen auch funktionierende Steuermechanismen von elemen­tarer Bedeu­tung bestehen, die für die besagte Ordnung sorgen und diese Ordnung auch garantieren.

Das postmathematische Weltbild, das Ende des 19. Jahrhunderts entworfen wurde, beherrscht seit Max Planck, Albert Einstein und Co. unsere heutige Vorstellung vom Universum. Mathematischen Formeln und ihren spekulativen Interpretationen wird mehr geglaubt, als den wissenschaftlich gesicherten Fakten und Erkenntnissen. Alles was zählt, sind die unreflektierten Behauptungen im Internet, die die Vorurteile der Menschen verstärken sollen. Google und Facebook haben Algorithmen entwickelt, die sich nach den bisherigen Suchanfragen und Klicks der Menschen richten. Für viele sind die sozialen Netzwerke bereits die wich­tig­ste Nachrichtenquelle und bestärken den Club der Gleichgesinnten, in denen nur Dinge disku­tiert werden, die die jeweilige Sicht der Dinge bestätigen, egal ob sie wahr oder falsch sind.

In der postfaktischen Welt der Mathematiker geht es um die Vermischung von Tatsachen, Schönheit der Formeln und Spekulationen. Wie gefährlich das ist und was dabei herauskommt, zeigen einflussreiche Vertreter der theoretischen Physik. Die Theorien der Vertreter dieser Theoretischen Physik über unser Weltbild beruhen auf willkür­lichen Annahmen, der Verliebtheit von Mathematikern in die Eleganz und Symme­trie ihrer Formeln, der Fehlinterpretation von Experi­men­ten und dem Ignorie­ren von Fakten, Wechselwirkungen und Naturgesetzen.

Zum Beispiel sollten die Experimente, die Michelson 1881 durchführte, dem Nachweis eines ruhenden Äthers dienen, in dem sich die Erde bewegt. Die Versuchsanordnung, die vielfältig überprüft wurde, führte stets zu dem gleichen Ergebnis und der Behauptung, dass es keinen ruhenden Äther gibt, der als Trägermedium für elektromagnetische Wellen dient und kein ausgezeichnetes Bezugssystem für die Lichtaus­breitung gibt. Man hat aber nicht bedacht, dass es ein wie auch immer zu benennendes Medium geben muss, das die Geschwindigkeit von Photonen begrenzt, zumal die Lichtgeschwindigkeit in unterschied­lichen Medien anders als im Weltraum ist, vergleichbar mit der Schallgeschwindigkeit, deren Ausbrei­tungs­­geschwindigkeit auch von dem jeweiligen Medium und dessen Dichte abhängt. Die kürzlich nachge­wiesenen Gravitationswellen bestätigen die Fehlinterpretation des Michelson-Experimentes, denn Wellen können sich nur in einem Medium ausbreiten. Der Äther konnte gar nicht ruhend sein, denn wo Ruhe ist, kann sich nichts bewegen und damit auch nichts verändern. Das Bedeutet, der Kosmos, so wie wir ihn erleben, könnte gar nicht existieren. Wenn aber etwas in Bewegung ist, muss es eine gewisse Temperatur haben, denn die Temperatur ist das Maß für die Bewegungsintensität der einzelnen Teilchen. Das erfordert für das Universum eine Mindest- und eine Höchsttemperatur. Die Mindesttemperatur, also die Betriebstemperatur des Universums, berechnete bereits 1926 der englische Astronom Sir Arthur Stanley Eddington mittels des Stefan-Boltzmann-Gesetzes, nach dem jeder Körper, dessen Temperatur über dem absoluten Nullpunkt liegt, Wärmestrahlung an seine Umgebung abgibt, mit 3 Kelvin als die Wärme­energie des gleich­mäßig verteilten Lichtes aller Sterne im Kosmos. Die Formulierung: „Gleich­mäßig verteiltes Licht aller Sterne im Kosmos“ besagt eindeutig, dass es sich um einen aktuellen Wärme­austausch zwischen allen Sternen handelt. Eddington soll gesagt haben, dass alle Himmelskörper im Sternenlicht bei 3 Kelvin, also bei etwa -270°C baden. Auf die unsinnige Idee, dass es sich bei dieser Hintergrund­strahlung um das Echo eines fiktiven Urknalls handeln könnte, kam zunächst niemand.

Auch Albert Einstein und Co. liegen mit ihrer Behauptung, dass es eine Raum-Zeit gibt, die als Folge einer Masseeinwirkung den Raum krümmen solle und so die Gravitation erklärt, falsch. Die Raum-Zeit ist eindeutig eine mathematische Konstruktion. Auf diesen Sachverhalt hatte bereits Leibnitz (1646 bis 1716) hingewiesen. Bei der Zeit handelt es sich um ein abstraktes Ordnungsprinzip, das dem Menschen dazu dient, die Aufeinanderfolge von Ereignissen zu bestimmen. Er widersprach damit der Definition der Zeit durch Newton. Die Definition der Zeit durch Newton setzte sich aber durch, nicht, weil er Recht hatte, sondern weil er zu seiner Zeit die einflussreichen Eliten auf seiner Seite hatte. Heute sind sich Mediziner wie Biologen einig, dass Leibniz genau wusste, wovon er sprach.

Raum und Zeit

Das, was die Allge­meinheit unter Raum versteht, ist die Illusion, die dem jeweiligen Betrachter vermittelt, dass es getrennte Objekte bzw. Abgrenzun­gen gibt, zwischen denen er vor seinem „geistigen Auge“ Verbindungen herstellen und die man mathematisch beschrei­ben kann. 

Deshalb spielt uns unsere Wahr­nehmung (siehe Abbildung) so manchen Streich. Sogenannte Vexierbilder führen zu optischen Täuschungen. Obwohl die Zeichnungen zweidimensional sind, entgleiten die Bilder beim nächsten Wim­pern­­schlag schon dem Auge, sobald ein optischer Eindruck erfasst ist dem Verstand und ergibt einen ganz neuen dreidimensionalen Eindruck. Die Wahrnehmung ist eben nicht immer „wahr“. Diese unterschiedlichen Eindrücke zeigen keine Fehlleistung unseres Gehirns, sondern im Gegenteil dessen Genialität.

 

Bei längerem Hinschauen kippen die Bilder

Das visuelle System, also das Auge, ist kein physikalisches Lichtmessgerät. Seine Aufgabe besteht darin, das Gesehene in informative Teile zu zerlegen, um dadurch die Objekte in der betreffenden Situation zu erkennen. Die Wahrnehmung ist näm­lich das Ergebnis eines Vergleiches mit einer internen Abspei­che­rung, also unserem Gedächtnis. Diese Wahrnehmung der Welt ändert sich mit gemachten Erfahrungen. Aus diesem Grunde sehen Kinder die Welt mit „anderen Augen“ als die Erwachsenen. Wenn Sie als Kind an einem Ort waren, den sie nach vielen Jahren als Erwachsener wieder­sehen, so werden Sie feststellen, dass die Gebäude kleiner und die Weg­strecken viel kürzer sind, als Sie diese in Ihrer Erinnerung haben.

Aus heutiger Sicht sind Zeit und Raum abstrakte Ordnungsprinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen. Zeit und Raum sind nichts, was für sich selbst besteht. Sie sind nichts Stoff­liches, sondern ein Modell oder eine An­schauungs­form des Gehirns des jeweili­gen Lebewesens, um das Objekt oder Subjekt seiner Wahrnehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrungen erst ermöglicht. Ein Sponti Spruch lautet deshalb sehr treffend: „Die Natur hat die Zeit geschaffen, damit nicht alles auf einmal passiert!“

Der Mathematiker und Theoretische Physiker Henri Poincaré vertrat die Ansicht: „Das Ästhetische ist mehr als das Logische die domi­nieren­de Kompo­nente in der mathema­tischen Kreativität." Paul Dirac, britischer Physiker, Nobelpreisträger und Mitbe­gründer der Quantenphysik, wurde noch deutlicher: „Es ist wichtiger, dass eine Gleichung schön ist, als dass sie mit dem Experiment übereinstimmt." (12. Heft aus der Reihe: Gegenworte, Hefte für den Disput über Wissen - Martin Aigner: „Die pure Eleganz der Mathematik“). Das Schlimme an der Geschichte ist, dass durch die unüberlegte Behauptung von Dirac nicht nur der Begriff einer Antimaterie entwickelt wurde, sondern auch die Behauptung aufgestellt wurde, dass sich Materie und Antimaterie gegenseitig vernichten. Aber das ist alles noch nicht genug. Dirac errechnete auch, dass die Entstehung und Vernichtung von sogenannten Teilchen ebenso zum Quanten­verhalten gehören, wie die Umwandlung von Energie in Materie und umge­kehrt. Auf diese Weise konnte er mathematisch den Quantensprung eines Elektrons auf einen niedrigeren Energiezustand unter gleichzeitiger Emission eines Photons auch als Vernichtung eines Elektrons beschreiben, indem es durch ein neu entstandenes Photon und ein anderes Elektron mit einem geringerem Energie­zustand ersetzt wurde. In Wirklichkeit wurde aber kein Teilchen ver­nichtet, sondern ein elektromagnetisches Feld durch zwei neue unterschiedlich starke Energiefelder ersetzt.

Auch wundert es den interessierten Leser, wie man aus der mathe­matischen Erkenntnis von Dirac herleiten kann, dass Elektronen durch sogenannte Quanten­sprünge von einer Bahn auf eine andere gelangen sollen, ohne dabei den Raum zwischen den beiden Bahnen zu durchqueren. Schließlich entsteht ein energie­ärmeres Elektron auf einer niedrigeren Bahn und ein Photon wird abgestrahlt. Wenn aber etwas neu entsteht, wie Dirac errechnet hatte, dann braucht es auch keinen Raum zwischen einer höheren und einer niedrigeren Elektro­nenbahn zu durchqueren. Das wird auch exakt durch die Kernaussage der Quanten­physik bestätigt, die besagt, dass Energie­verschiebungen in genau definierten Schritten, also gequantelt erfolgen.

Diracs Gleichungen gelten folglich nur für Felder mit gegensätzlichen Ladungen und nicht für die Materie. Wie der Stern-Gerlach-Versuch bestätigt, besteht bei allen Atomen eine „Richtungs­quantelung“. Der Grund ist, dass sich nach dem Pauli-Prinzip nur zwei entgegengesetzt rotierende Elektronen auf der gleichen Bahn bewegen können. Die Rotation der jeweiligen Elektronen ist aber von dem atomaren Gefüge abhängig und dieser Aufbau muss zwangsläufig gegensätzlich strukturiert sein. So haben 50% aller Atome einen rechtsläufigen und 50% einen linksläufigen Spin. Insofern kann man also 50% der Atome als Antimaterie bezeichnen und trotzdem existieren wir, allen Physikern zum Trotz. Auch das ist ein Beweis, dass Antiteilchen in Diracs Gleichung Felder sind. Weil das so ist, haben wir in der Chemie Racemate, also spiegelbildlich aufgebaute Moleküle.

Aber der gesunde Menschenverstand wird geleugnet, da man behauptet, dass evolutionsbedingt der menschliche Geist überfordert ist. Das mag bei den tonangebenden Eliten durchaus sein, das ändert aber nichts an der Tatsache, dass nur Fakten und nicht Phantasien unsere Welt erklären können. Nur so lässt sich erklären was die Welt zusammenhält und so funktionieren lässt, wie sie nun einmal funktioniert.

 

Bleibt bis auf weiteres festzuhalten:

Postmathematik und Wahrheit sind ein Problem in einer postfaktischen Welt.

 

*************************************************************************************************************************************************

*************************************************************************************************************************************************

Homöopathie: Irrlehre oder Heilkunst.

Viele Menschen fragen sich nach den Heilungserfolgen durch Homöopathie immer wieder: „Warum?“ Hahnemann hat mit seinem epochalen Werk, dem „Organon der Heilkunst“ die Erklärung mit: „Weil!“ gegeben, aber er wird auch nach über 200 Jahren immer noch nicht verstanden, da man an völlig überholten „wissenschaftlichen“ Erkenntnissen festhält.

Nachdem ich mich über 30 Jahre mit den Ausführungen von Hahnemann und den Argumenten der Gegner der Homöopathie beschäftigt habe, möchte ich mit diesem kleinen Buch beweisen: „Indem!“

Aus der Thermodynamik ist bekannt, dass alle Körper, auch sogenannte schwarze Körper, elektromagnetische Strahlung emittieren und absorbieren. Befindet sich der Körper im thermischen Gleichgewicht mit seiner Umgebung, so vollziehen sich Emission und Absorption mit gleicher Geschwindigkeit. Elektromagnetische Strahlung entsteht bei allen Umwandlungsprozessen sowie mechanischen Ein­wirkungen wie Schütteln und Reiben, sowohl im anorganischen wie im organischen Bereich. Diese dabei abgestrahlten Photonen dienen auch als Informationsträger, man denke nur an die Selbstorganisation der Materie oder an Rundfunk- bzw. Fernseh­sendungen, bzw. 3 D - Drucker.

Die Zellen des menschlichen Körpers strahlen Biophotonen aus. Man spricht auch von ultra­schwachen Photonen-Emissionen (UPE) mit einer Sichtbarkeit, die 1000mal empfindlicher ist, als die Empfindlichkeit unseres nackten Auges. Obwohl diese Photonen für uns optisch nicht erkennbar sind, gehören diese Lichtteilchen zu dem Bereich des sichtbaren elektro­magnetischen Spektrums (380-780 nm) und sind über moderne Instrumentierung nachweisbar. Es sind also Biophotonen, die wir ausstrahlen, mit denen unsere Zellen kommunizieren und die uns so aussehen und funktionieren lassen, wie wir es erleben! Unsere Zellen und unsere Erbsubstanz, die DNA, verwenden diese Biophotonen zum Speichern, zum Kommunizieren, zum Strukturieren und zum Funktionieren, denn, wenn man zum molekularen Niveau unseres Genoms geht, kann die DNA als Quelle der Biophotonen-Emission identifiziert werden. Technisch gesehen ist ein Biophoton, in einem biologischen System ein Lichtquant nicht-thermischen Ursprungs.

In Wirklichkeit steht also in der Hierarchie der Regulation das elektromagnetische Signal an erster Stelle und bestimmt, wie sich Atome zu Molekülen verbinden und ausrichten. Rückkoppelnd setzt die Biomaterie unter anderem biochemische Boten ein. Die sogenannte Allopathie (Biochemie) und die Homöopathie versuchen folglich Heilungs­prozesse lediglich über unterschiedliche Phasenzustände zu beeinflussen und so in das Krankheits­geschehen eines Patienten einzugreifen.

Eine chinesische Erfahrung besagt zwar: „Wer sich schlafend stellt, den kann man nicht wecken!“ das schließt jedoch nicht aus, dass sich eines Tages jemand weigern wird, sich schlafend zu stellen, denn das wissenschaftliche Establishment wird die Ausführungen eines Nobodys ignorieren. Die Bevölkerung weiß aber, dass Nobody perfekt ist. Also wird man irgendwann öffentlich zur Kenntnis nehmen müssen, dass meine Ausführungen richtig sind. Schließlich blieb ja unser Planet auch nicht dauerhaft eine Scheibe, die Erde stand auch nicht für alle Zeiten im Mittelpunkt des Universums und letztlich weigerte sich auch die Sonne für alle Zeiten um die Erde zu kreisen. Warum also sollten Hahnemanns „geistartigen Kräfte“ nicht unser Universum so funktionieren und aussehen lassen, wie wir es kennen, wenn man mittels derartiger „geistartiger Kräfte“ eine ent­sprechenden Software schreiben und über einen 3-D-Drucker unsere Welt nachbauen kann. Diese „geistartigen Kräfte" werden auch die Eliten über meine Ausführungen aufregen, obwohl sie lediglich eine Information in Form von Zeichen enthalten, die auf Materie, in Form von Papier, geschrieben sind, also als Buchstaben auf Papier, die Alphabeten nicht nur lesen und verstehen können, sondern auch entsprechend reagieren lassen. Es ist also nicht das Papier, sondern es sind die Zeichen auf dem Papier, die eine Information nicht materieller Art, welche die Reaktionen auslösen. Natürlich ließe sich auch der Text meines Buches mit der gleichen Wirkung elektronisch übermitteln, bearbeiten und auch löschen, denn bei den „geistartigen Kräften“ Hahnemanns handelt es sich um elektromagnetische Felder, also keine Materie. Materie ist lediglich Mittel zum Zweck, sie hat über die Quarks elektromagnetische Felder zu erzeugen und Informationen zu speichern, zu senden, zu funktionieren und zu tun, was die „geistartigen Kräfte“ Hahnemanns erlauben bzw. vorgeben. Wie sonst könnte die ganze digitale Technik funktionieren? Aktuell könnte man die „geistartigen Kräften“, von denen Hahnemann spricht, auch mit der Software vergleichen und die Therapie der Allopathen bzw. die Schulmediziner als Reparatur an der Hardware verstehen, die nur durch entsprechende Schaltungen, die wiederum nur die „geistartigen Kräfte“ ermöglichen, Einfluss nehmen kann.

So lange aber Gegner wie Befürworter der Homöopathie schon über zweihundert Jahre die gleichen Argumente gebetsmühlenhaft wiederholen, anstatt im Original nachzu­lesen, was Hahnemann wirklich geschrieben hat und das mit den aktuellen abge­sicherten wissenschaftlichen Erkenntnissen abgleichen, sondern weiterhin mit religiö­sem Eifer die Konservierung überholten Wissens propagieren, so lange wird die Homöopathie keine wissenschaftliche Anerkennung erfahren, obwohl die Praxis erfolgreich ist, hinkt die Theorie hinterher.

Hahnemann forderte seine Anhänger auf: „Macht’s nach! Aber macht es genau nach!“ Aber die offiziellen Vertreter der Homöopathie haben immer noch nicht begriffen, dass wir das Jahr 2016 schreiben.

 

 

 

Der Sturz unseres Weltbildes.

 

"Ich denke an manchen Tagen, dass es besser wäre, wenn wir gar keine Religionen mehr hätten.

Alle Religionen und alle Heiligen Schriften bergen ein Gewaltpotential in sich. deshalb brauchen wir
eine sekulare Ethik jenseits aller Religionen.

DALAI LAMA

 

Seit Jahrtausenden machen sich Menschen Gedanken über den Kosmos sowie die Fragen, wer wir sind, woher wir kommen und was künftig geschehen wird. Die unterschiedlichsten Kulturen auf unserem Planeten entwickelten die verschiedensten Theorien auf Grund von Beobachtungen, Vermutungen und den sich nach ihrer Ansicht daraus ergebenden Konsequenzen.

 

Heute sind wir in der Lage, wegen der wissenschaftlich gesicherten Erkenntnisse mittels modernster Forschungs­einrichtungen und phantastischer Hochleistungsgeräte zu erklären, wie der Kosmos funktioniert und woher wir kommen. Leider verhindert das moderne Establishment die Veröffentlichung der Erkenntnisse, damit das von ihm proklamierte Weltbild nicht als Irrlehre entlarvt wird. Was im Mittelalter die Inquisition versuchte, das erreicht heute die Kontrolle aller Medien in einer heimlichen und fast perfekten Vorgehensweise über die Kontrolle der Medien, doch dazu mehr im Anhang.

 

„Vor 400 Jahren hat Galileo ein Teleskop auf den Himmel gerichtet. Ich glaube, wir tun heute etwas ähnlich Wichtiges. Wir eröffnen eine neue Ära", sagte Ligo-Direktor David Reitze vor Journalisten, als er am 11.02.2016 den gelungenen Nachweis von Gravitationswellen verkün­de­te.

 

Wir befinden uns heute vergleichsweise in der gleichen Situation wie Galilei. Das betrifft sowohl die Umstände, wie die Konsequenzen, die sich aus einer richtigen Inter­pretation der Gravitationswellen für die gesamte Kosmologie ergeben. Auch im Vatikan war man sich damals schon im Klaren, dass Galilei mit seinen Erkenntnissen richtig lag. Man fürchtete aber unabsehbare Konse­quenzen für den Glauben, wenn man Galilei nicht zum Schweigen bringen würde. Die Rolle des Vatikans übernimmt heute ungleich perfekter das wissenschaftliche Establishment, das um seine Pfründe und sein Ansehen fürchten muss.

 

Zur Erläuterung: Wellen sind ein zeitlich und räumlicher periodischer Vorgang, bei dem Energie transportiert wird, ohne dass gleichzeitig ein Massetransport stattfindet. Was sich fort­pflanzt, ist allein der Schwingungszustand und damit die Energie, die, periodisch oder wechselnd, als kinetische und potentielle Energie vorliegt. Zur Entstehung einer Welle ist  also eine Anzahl schwingungsfähiger Gebilde, (im Kosmos folglich ein Medium) erforder­lich, die irgendwie miteinander gekoppelt sind. Ein solches System wird in der Physik als Ausbreitungs­­­medium einer Welle bezeichnet. Die Gravitationswellen breiten sich in alle Richtungen wie bei einem ins Wasser geworfenen Stein aus. Jede Bewegung eines Objektes oder von Himmelskörpern verursacht Wellen im Medium Äther, was man anschaulich z. B. auch bei Schiffen beobachten kann, wenn sie sich im Wasser vorwärts bewegen. Mit dem Nachweis der Gravitationswellen wurde zweifelsfrei bewiesen, dass das Universum von einem Medium erfüllt ist, das unsere Altvorderen als Äther bezeichneten und der von der sogenannten modernen Physik vehement geleugnet wird. Das ist nicht verwunderlich, denn nach diesem Nachweis des Äther­s, muss die Geschichte des Weltalls neu geschrieben werden. Diese ungeheure Frechheit habe ich in dem oben angeführten Buch unternommen, weil zu befürchten ist, dass der Nachweis von Gravitationswellen in Vergessenheit geraten wird, sobald die „Eliten“ in den Schlüsselpositionen erklärt bekommen und verstanden haben, welcher Sprengsatz mit dem Nachweis der Gravitationswellen gezündet wurde. Es ist jedenfalls auffallend, wie schnell es still nach der sensationellen Verkündigung um den Nachweis der Gravitationswellen geworden ist. Die „unabhängigen Medien“ haben über­zeugend funktioniert und damit gleichzeitig nachgewiesen, wie man die Bevölkerung erfolgreich manipulieren kann.

 

Bis heute vertritt das wissenschaftliche Establishment die Auffassung, dass das Universum durch einen sogenannten Urknall entstand ist. Ursache dieser nachweislich falschen Behauptung ist die Tatsache, dass Einstein wie alle späteren einflussreichen Kosmologen die geniale und mathematisch elegante Beschreibung seiner Theorie falsch interpretiert haben, da sie sich stritten, ob das Universum statisch ist oder expandiert, anstatt zu überlegen, worin der Trugschluss in der Interpretation der Berechnungen liegt, denn ein Mathematiker rechnet <Wenn> = <Dann>. Wenn aber die Vorgaben falsch sind, kann das Ergebnis nicht richtig sein. Geht man nämlich bei der Expansionstheorie des Universums in der Zeit zurück, so ist das Volumen des Universums zum Zeitpunkt Null, der sogenannten Singularität, unendlich klein und die Energiemenge unendlich groß. Beides kann aber unmöglich gleichzeitig bestehen. Entsprechende Paradoxa stellte bereits Zenon von Elea vor 2500 Jahren auf. Er war ein Freund und Schüler des Philosophen Parmenides von Elea, der die Einheit, Ewigkeit und Unveränderlichkeit des Seins lehrte. Für ihn waren Denken und Sein identisch. Die Vielheit und das Werden der Dinge beruhten nach seiner Überzeugung auf Sinnestäu­schung. Zenon von Elea versuchte die Ansichten seines Lehr­meisters und Freundes mathematisch zu beweisen, obwohl sie der täglichen Erfahrung widersprechen und somit die Vielheit des Seienden ebenso wie die Möglichkeit von Bewegung zu wider­legen. Die Vorgehens­weise ist sehr einfach. Man stellt eine Behauptung auf und versucht sie durch geeignete Vorgaben mathematisch zu beweisen. So ent­wickel­te Zenon von Elea eine überaus scharfsinnige und überzeu­gende Kunst der Beweisführung. Aristoteles bezeichnete Zenon von Elea sogar als Erfinder der Kunst des Argumentierens.

„Zenons Paradoxien“, die eine logische Begründung der Lehre des Parmenides versuchen, wurden berühmt und so mancher Gelehrte befasste sich ernsthaft mit der Lösung dieser Paradoxien. Die bekanntesten sind der Trugschluss von Achilles und der Schildkröte, demzu­folge selbst Achilles nicht einmal eine Schildkröte überholen kann, sofern er dieser einen kleinen Vorsprung gibt. Weitere Trugschlüsse sind „das Nicht-ans-Ziel-kommen-Könnens“ (Teilungsparadoxon) und des „Nicht-Weg­laufen-Können“ sowie „das Pfeil-Paradoxon“.

 

Fazit: Das Universum ist weder statisch noch expandiert es. Das Universum ist in dauernder dynamischer Veränderung, wie schon die alten Inder zu berichten wussten. Alles ist ein stetes Werden, Vergehen und neu Entstehen, das durch permanente Phasenübergänge, eine Art dauerndes Recycling, gewährleistet ist. So wie sich gasförmige Wassermoleküle unter entsprechenden Rahmenbedingungen zu Wolken, Regen und Hagel verdichten, so wandelt sich das gasförmige Medium Äther in „viskose“ Felder sowie massive Quarks und Antiquarks um. Diese Felder und Quarks sublimieren unter entsprechenden Rahmenbedingungen wieder zu Äther. Materie und Antimaterie vernichten sich nicht. Diese Interpretation ist eine weitere Folge des falsch verstandenen Doppelspalt-Experimentes, das angeblich einen Wellen-Teilchen-Dualismus beweist, weil das auf einer Projektionsfläche erscheinende Bild als Interferen­zmuster interpretiert wird und der Fehlinterpretation von Diracs Berechnungen. Auf der Grundlage seiner Gleichungen sagte Dirac die Existenz des Positron als Antiteilchen zum Elektron voraus. Die Experten schlossen daraus, dass es Antimaterie geben muss, die sich gegenseitig vernichte. Sie übersahen aber, dass Elektronen und Positronen visköse Felder sind, die sich gegenseitig vernichten können, aber keine massiven Quarks und Antiquarks, die sich gegenseitig anziehen und die Atomkerne aufbauen.  Felder können sich gegenseitig verstärken, schwächen oder auch löschen. Das ist aber nur dann möglich, wenn Überlagerungserscheinungen von zwei oder mehreren Wellenzügen dieselben Raumpunkte gleichzeitig durchlaufen. Man hat aber zwischenzeitlich nachweisen können, dass das gleiche scheinbare „Interferenzmuster“ auf der Projektionswand entsteht, wenn man entsprechend viele Photonen einzeln und nacheinander durch die Doppelspalten der Trennwand auf eine Fotoplatte sendet. Dieser Sachverhalt schließt Interferenz als Ursache dieses „Interferenzmusters“ aus.

 

Das Entstehen und Vergehen aller Dinge durch Phasenübergänge erkannte man in Indien bereits vor über 4000 Jahren. Es ist das Grundprinzip des Kosmos. Im  Hinduismus ist das Göttliche, die alles umfassende Macht und die allen Dingen und Lebewesen innewohnende  Seele. Leider gelangte die ursprüngliche Vermutung im Laufe der Jahrhunderte in Vergessenheit bzw. wurde nicht mehr verstanden und in die Lehre von der Wiedergeburt des Einzelnen umformiert. Auch wurden ganze Heerscharen verschiedenster Göttinnen und Götter kreiert,die für das einfache Volk nicht so abstrakt waren und unter denen sie sich etwas vorstellen konnten, denen man auch opfern kann, um sie bei Laune zu behalten und die man auch um Hilfe anflehen durfte.

 

Was man im christlichen Abendland unter dem Begriff Gott versteht, ist im Hinduismus Brahman. Aus Brahman entstammen die drei Urgötter. Brahman, Shiva und Vishnu, vergleichbar dem Trinitätsglauben der christlichen Kirchen von Gott-Vater, Gott-Sohn und Gott-Heiliger Geist. Diese in sich widersprüchliche Aussage werden verständlich, wenn man die drei Phasenzustände des Äthers als Allegorien versteht. So gesehen,  besteht die Materie und der gesamte Kosmos aus gasförmigen Ätherteilchen, also Brahman, aus den durch Phasenübergang veränderlichen morphogenen Feldern, die eine bestimmte Viskosität besitzen, in Form von Gravitation, elektrischen Feldern und magnetischen Feldern, denen Gott Shiva entsprechen würde.

 

Brahma ist der Schöpfer des Lebens. Shiva zerstört  und  erschafft alles. Er ist das Sinnbild für den Kreislauf von Geburt, Tod und Wiedergeburt. Vishnu ist der Gott der Weltordnung. Er bewahrt das Gleichgewicht aller Gegensätze wie Gut und Böse. Gewinnt das Böse auf der Erde Oberhand, steigt er, wie Jesus, als Sohn Gottes, nach dem christlichen Glauben, als Mensch auf die Erde herab und stellt das Gleichgewicht wieder her. Diese Allegorie ist verblüffend und erstaunlich zugleich und bedarf eingehender Studien, denn auch Jesus sprach von Gott-Vater, betrachtete sich selbst als Gott-Sohn und berichtet von Gott-Heiliger Geist. Nach der christlichen Lehre empfängt Maria Jesus durch den Heiligen Geist und das Nicäno-Konstantinopolitanum, stellt fest: „Der Heilige Geist ist Gott, also keine eigenständige Substanz oder Gottheit.“

 

Die katholische Kirche erklärte die Trinität zum Dogma. „Dogmen im engeren Sinn sind die von der Kirche feierlich (auf Synoden) zur Norm erhobenen Glaubenslehren, ohne deren Anerkennung der Einzelne des ewigen Heils verlustig geht. Die katholische Kirche erklärte die überlieferten Vorstellungen über die Dreieinigkeit zum Dogma. Sie beruft sich dabei auf die göttliche Offenbarung. Darunter wird die Enthüllung von absoluten Wahrheiten durch Gott selbst verstanden, die als der Weisheit letzter Schluss nicht zu hinterfragen sind und von uns Menschen nicht achvollzogen werden können.

 

Die Formulierung des Dogmas basiert auf dem Athanasianischen Glaubensbekenntnis, benannt nach dem Kirchenvater Athanasius (295-381). Eine noch präzisere Formulierung wurde im 7. Jahrhundert vorgenommen. Dieses athanasianische Glaubensbekenntnis ist bis heute bindend, nicht nur für Katholiken, sondern für alle Protestanten, die der ökumenischen Bewegung zugehörig sein wollen. Es lautet:

"Wer da selig werden will, der muss vor allem den katholischen Glauben festhalten. Jeder, der diesen nicht unversehrt und unverletzt bewahrt, wird ohne Zweifel ewig verloren gehen. Dies aber ist der katholische Glaube:

Wir verehren den einen Gott in der Dreifaltigkeit und die Dreifaltigkeit in der Einheit, ohne Vermischung der Personen und ohne Trennung der Wesenheit.“

 

Der ursprüngliche Hinduismus hat sich, wie der christliche Glaube, im Laufe der Jahrhunderte in mehrere Glaubens­richtungen gespaltet und so gibt es heute unzählige Götter und Göttinnen. Auf Abbildungen und als Figuren erscheinen die Gottheiten der Hindus als bunte Figuren und Gestalten. Auch hier ist ein Vergleich mit den Heiligen in der katholischen Kirche durchaus naheliegend. Die Reformation lehnte die Heiligenkulte ab, da sie sich nicht von der Bibel her begründen lassen und auch im Widerspruch zu den 10 Geboten stehen. Das Konzil von Trient 1545 - 1563 stellte jedoch fest, dass es gut und nützlich sei, die Heiligen anzurufen, um durch ihre Fürbitte Gottes Wohltaten zu erlangen.

 

Kommentar zur öffentlichen Diskussion über den Begriff: „Lügenpresse“.

Es gibt keine Pressefreiheit. Der entscheidenden Unterschied in der Berichterstattung zwischen totalitären Staaten und den sogenannten Demokratien ist, dass totalitäre Staaten eine Zensur offiziell zugeben, während in den Demokratien eine geheime und gelenkte Zensur durch mächtige Interessengruppen z. B. aus Politik, Wirtschaft und Wissenschaft durchgeführt, aber bestritten wird. Die öffentlich rechtlichen  Rundfunk- und Fernsehanstalten wie ARD und ZDF werden deshalb von den Bürgern finanziert, damit sie unabhängig, objektiv und neutral berichten sollen. Wenn es aber in den Aufsichtsgremien nur so von Politikern wimmelt, entscheiden sich die Journalisten nach dem Motto: „Wessen Brot ich ess‘, dessen Lied ich sing!“. Selbst das Bundesverfassungsgericht hat den ZDF-Fernsehrat Ende 2014 wegen zu vieler politischer Einflussnahme für verfassungswidrig erklärt. Davon hat aber die breite Öffentlichkeit nichts erfahren.

ZDF-Staatsvertrag: Urteil des Bundesverfassungsgerichts am 25.03.2014.

„Der öffentlich-rechtliche Rundfunk soll die im Gemeinwesen vertretenen Meinungen facettenreich widerspiegeln; er darf aber nicht zum Staatsfunk werden, der lediglich die Auffassung von Regierung und Exekutive verbreitet.“ Der mit Zwangsgebühren finanzierte öffentlich-rechtliche Rundfunk bleibt aber weiter fest in der Hand etablierter Politkader und einflussreicher Interessengruppen, die ihn benutzen, um Meinung zu machen, die Bürger zu manipulieren und die eigene Macht zu sichern.

Update 21.5.2014: Spiegel Online berichtet, dass der ZDF-Fernsehrat seine Mitglieder nicht selbst wählt. Sie werden aus Regierungen, Parteien und Verbänden entsandt. Die Arroganz, Ignoranz und Intoleranz liegt also nicht nur zum Teil bei den Entsandten, sondern maßgeblich auch bei den Entsendern. Unwillkürlich fragt man sich unter diesen Umständen, welchen Wert das Grundgesetz noch hat.

 

An zwei aktuellen Beispielen möchte ich die skandalösen Zustände zeigen. Seit Jahren werden zweistellige Milliardenbeträge zur Bekämpfung der angeblich durch CO2 verursachten  Erderwärmung sinnlos ausgegeben. Es ist wissenschaftlich nachgewiesen und völlig unstrittig, dass ein CO2-Anstieg auf unserem Planeten erst etwa 800 Jahre nach einem Temperaturanstieg nachzuweisen ist. Die Ursache ist, dass bei einer Erderwärmung sich die Weltmeere erst langsam erwärmen und dabei vermehrt im Wasser gelöstes CO2 freisetzen. Bei einer späteren Abkühlung der Erdtemperatur kühlt das Meerwasser entsprechend langsamer ab und die CO2-Werte sinken, weil wieder mehr CO2 im Meerwasser gelöst wird. Ein eindeutiger Beweis, dass die Erderwärmung andere Ursachen haben muss, die Behauptung, dass CO2 für die Klimaerwärmung verantwortlich ist, stellt sich als bewusste Desinformation der Bevölkerung dar. Die derzeitige Erderwärmung auf den zunehmenden Verbrauch von fossilen Energieträgern damit zu begründen, dass die CO2-Werte ansteigen, ist genauso unsinnig, wie die Behauptung, dass der Geburtenrückgang in Deutschland auf die sinkende Anzahl der Störche zurückzuführen ist. Von entscheidender Bedeutung für die Umwelt und den Menschen ist dagegen der völlig unnnötig hohe Aussroß von Schwefel- und Stickstoffverbindungen sowie die Reduzierung von Feinstaub. Aber das wird durch eine entsprechende Aufklärun der Bürger durch die Medien verhindert, weil das einflussreichen Interessenten Ihre Einnahmen verringern würde.

 

Eine andere Vorgehensweise ist bei der jetzigen Diskussion um Glyophosat zu beobachten. In den Medien wird durchweg darüber diskutiert, ob Glyphosat krebserregend ist oder nicht. Die Gefahr für die biologische Vielfalt und insbesondere für die Bienen, wird überhaupt nicht in den Medien angesprochen. Breitbandherbizide wie Glyphosat töten jedoch auf den behandelten Kulturflächen nicht nur diejenigen Pflanzen ab, die Insekten wie Schmetterlingen und Bienen Nahrung bieten, sie beeinträchtigen auch massiv die für die Erhaltung der Bodenqualität wichtigen Kleinstlebewesen. Darüber hinaus können  schon sehr kleine Mengen Glyphosat das Erbgut von Menschen und Tieren schädigen. Das angeblich bienenfreundliche Glyphosat lässt Bienen in Massen sterben.

 

Die Bundesregierung gibt zu (Drucksache 17/4902), dass die Risiken für die biologische Vielfalt immer deutlicher werden: weniger Blühpflanzen, weniger Samen, weniger Bestäuber, weniger Insekten. (Quelle: NABU), trotzdem will die CDU den Einsatz von Glyphosphat bei der EU befürworten. Von der Bundesregierung fordern deshalb Mellifera, der Deutsche Imkerbund und der Deutsche Berufs- und Erwerbsimkerbund, sich für ein EU-Weites Glyphosphatverbot einzusetzen. Man wird abwarten müssen, ob die Massenproteste gegen Glyphosat etwas bewirken werden, oder ob wir der Willkür von finanzstarken und einflussreichen Konzernen hilflos ausgeliefert sind.

 

Zusammenfassend lässt sich feststellen: Die Medien lügen nicht. Sie passen die Bericht­er­stattung den jeweiligen gewünschten Erfordernissen an, um die Bevölkerung zu manipulieren.

 

Copyright ©