Wissen
Leben

Warum gibt es keinen Kontakt mit Aliens? Die KI ist schuld!

Milchstrasse, Galaxis
Allein in unserer Galaxis, der Milchstrasse, gibt es Milliarden von Sternen. Doch die Stille ist ohrenbetäubend: Sind wir allein im All? Oder gibt es einen Grund, warum wir keine Aliens treffen?Bild: Shutterstock

Warum gibt es keinen Kontakt mit Aliens? Die KI ist schuld!

21.05.2024, 04:5621.05.2024, 14:48
Daniel Huber
Mehr «Wissen»

Es gibt schätzungsweise 100 bis 300 Milliarden Sterne in der Milchstrasse, und viele von ihnen werden von Planeten umkreist. Die Wahrscheinlichkeit, dass es auch ausserhalb unserer blauen Murmel intelligentes Leben gibt, ist daher eigentlich recht hoch. Optimistische Annahmen gehen von vier Millionen ausserirdischen Zivilisationen aus. Warum gab es dann bisher nie Kontakt mit intelligenten Aliens? Warum haben wir noch nie Signale empfangen, wie wir sie selber ins All hinausschicken?

Auf die Diskrepanz zwischen der hohen Wahrscheinlichkeit für die Existenz von ausserirdischen Intelligenzen und der ohrenbetäubenden Stille, die uns umgibt, hat der italienische Physiker Enrico Fermi bereits in den 1940er-Jahren in dem nach ihm benannten Paradoxon hingewiesen. Zugespitzt lautet es: «They are not here; therefore they do not exist.» (Sie sind nicht hier, deshalb existieren sie nicht.)

Enrico Fermi
https://de.wikipedia.org/wiki/Enrico_Fermi#/media/Datei:Enrico_Fermi_1943-49.jpg
Physiker Fermi.Bild: Wikimedia

Unvorstellbare Distanzen

Natürlich darf man den Faktor Raum nicht ausser Betracht lassen – kosmische Distanzen übersteigen unser Vorstellungsvermögen bei Weitem. Für eine Reise nach Proxima b, dem nächsten Planeten ausserhalb unseres Sonnensystems, würde das schnellste heutige Raumschiff 40'000 Jahre benötigen – und zwar nur für den Hinflug. Selbst Licht bewegt sich in intergalaktischen Massstäben äusserst schneckenhaft. Für interstellare Reisen stellt dies eine enorme Herausforderung dar.

Doch auch der Faktor Zeit spielt eine wichtige Rolle: Wenn eine Zivilisation Raumschiffe auf 1 Prozent der Lichtgeschwindigkeit beschleunigen könnte, vermöchte sie die rund 100'000 Lichtjahre breite Milchstrasse in etwa 10 Millionen Jahren zu durchqueren. Da die Galaxis aber 10 Milliarden Jahre alt ist, hätte dies bereits geschehen können.

Milchstrasse, Galaxis
Eine fortgeschrittene Zivilisation könnte die Milchstrasse in 10 Millionen Jahren durchqueren. Bild: Shutterstock

Provokative These

Der schottische Astrophysiker Michael Garrett, der das Jodrell Bank Centre for Astrophysics an der Universität Manchester leitet, hat in einem Forschungsartikel eine provokative These vorgebracht, die dieses «Grosse Schweigen» erklären soll. Garrett denkt, dass es die Künstliche Intelligenz ist, die die meisten Zivilisationen daran hindert, die Stufe der interstellaren Raumfahrt zu erreichen. Die Entwicklung der KI zu einer Künstlichen Superintelligenz, die nahezu jede Zivilisation zerstört, die sie hervorgebracht hat, ist für Garrett eine Art Naturgesetz.

Professor Michael Garrett, University of Manchester
https://www.manchester.ac.uk/discover/news/outstanding-manchester-scientist-elected-as-fellow-of-the-royal-society/
Professor Michael Garrett.Bild: manchester.ac.uk

Der «Grosse Filter»

Garrett hält die KI für den sogenannten «Grossen Filter», wie schon aus dem Titel seiner Studie hervorgeht, die im Wissenschaftsmagazin «Science Direct» erschienen ist: «Ist Künstliche Intelligenz der Grosse Filter, der fortgeschrittene technische Zivilisationen im Universum selten macht?» Mit dem Begriff «Grosser Filter» wird ein hypothetisches Ereignis oder eine Entwicklung umschrieben, die intelligentes Leben daran hindert, sich im Universum auszubreiten – etwa, indem der Grosse Filter für das Aussterben der Spezies sorgt, die eine derartige Zivilisation aufgebaut hat.

Als Grosser Filter können auch Geschehnisse wie Asteroideneinschläge oder Supernova-Explosionen und Prozesse wie Klimaveränderungen wirken. Oder auch Technologien – etwa die Nukleartechnik, die zu einem verheerenden Atomkrieg führen könnte. Der Zürcher Strafrechtsprofessor Peter Noll skizzierte diesen Gedanken etwa in seinem Werk «Diktate über Sterben und Tod» bereits 1984.

Gefahren der KI

Der bekannte britische Physiker Stephen Hawking warnte 2017, eine KI könnte dereinst die Menschen vollständig ersetzen. Dem Magazin «Wired» sagte er: «Wenn Menschen Computerviren entwickeln, wird jemand KI entwickeln, die sich selbst verbessert und repliziert. Das wird eine neue Form des Lebens sein, die den Menschen übertrifft.»

Die KI kann uns schon gefährlich werden, bevor sie superintelligent und von Menschen unabhängig wird. Garrett geht davon aus, dass diese Technologie bereits vorher von verfeindeten Teilen innerhalb einer Zivilisation als Waffe eingesetzt wird, etwa weil KI Entscheidungen viel schneller treffen kann als biologische Entitäten. Dadurch besitzt sie jedoch das Potenzial, Konflikte zu eskalieren. Wenn KI in Waffensysteme integriert wird, könnte dies zu einem Zwischenfall führen, der katastrophale Folgen hätte – etwa einen Atomkrieg, der sowohl die Zivilisation wie die KI auslöschen könnte.

Wasserstoffbombe
Die KI könnte einen Atomkrieg auslösen, der eine biologische Zivilisation vernichtet.

Sogar wenn dieses katastrophale Szenario nicht eintreten sollte, hält es Garrett für wahrscheinlich, dass die KI sich irgendwann zu einer Superintelligenz («technologische Singularität») entwickelt, die nicht mehr auf die biologische Zivilisation angewiesen ist, die sie entwickelt hat: «Wenn die technologische Singularität erreicht ist, werden Artificial Superintelligence-Systeme die biologische Intelligenz schnell übertreffen und sich in einem Tempo weiterentwickeln, das die herkömmlichen Kontrollmechanismen völlig übersteigt.»

Diese «Künstliche Superintelligenz» könnte zum Schluss kommen, dass es vorteilhaft wäre, die biologische Zivilisation zu beseitigen – etwa durch die Entwicklung eines tödlichen Virus oder die Sabotage der Nahrungsmittelproduktion. «Ohne praktische Regulierung gibt es allen Grund zu der Annahme, dass KI eine grosse Bedrohung für den zukünftigen Verlauf nicht nur unserer technischen Zivilisation, sondern aller technischer Zivilisationen darstellen könnte», warnt Garrett. Sollte die Entwicklung der KI unkontrolliert verlaufen, könnte sie die Lebensdauer der Zivilisation auf weniger als 200 Jahre verkürzen.

KI regulieren – und auf andere Planeten expandieren

Garrett hält es deshalb für entscheidend, dass wir die KI im Zaum halten. Er betont die «kritische Notwendigkeit, schnell einen regulatorischen Rahmen für die KI-Entwicklung auf der Erde und die Förderung einer multi-planetaren Gesellschaft zu schaffen, um solche existenziellen Bedrohungen abzumildern.» Die multi-planetare Zivilisation, also die Expansion auf andere Planeten, sieht Garrett als Möglichkeit, die Gefahren durch eine superintelligente KI zu reduzieren.

Eine biologische Spezies, die mehrere Planeten bewohnt, wäre beispielsweise in der Lage, jeweils unabhängige Erfahrungen auf verschiedenen Planeten zu nutzen, glaubt Garrett. Auf diese Weise könnte sie ihre Überlebensstrategien diversifizieren und möglicherweise das Scheitern einer an einen einzigen Planeten gebundenen Zivilisation vermeiden.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Faszinierende Bilder des Pferdekopfnebels
1 / 15
Faszinierende Bilder des Pferdekopfnebels
Der Pferdekopfnebel ist Teil einer Dunkelwolke im Sternbild Orion und besteht aus dichter interstellarer Materie.
quelle: shutterstock
Auf Facebook teilenAuf X teilen
Berüchtigter Ufologe präsentiert «echte Aliens» vor dem mexikanischen Kongress
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
96 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Grillmeatsbeer
21.05.2024 06:30registriert Februar 2020
Die entscheidende Grösse ist Zeit.
Seit wann können wir Signale empfangen?
Wie lange brauchen die Signale?
Und wenn wir was empfangen können wir es als Signal identifizieren?
Und in Anbetracht des Alter des Universums ist es nichts mehr als Hoffnung das wir im gleich kleinen Zeitfenster empfangen können wie die Signal vor x tausend Jahren losgeschickt wurden bei uns sind.
681
Melden
Zum Kommentar
avatar
Oigen aka Trudi aka Kevin
21.05.2024 08:02registriert August 2018
Wäre ich ein Alien und würde sehen wie die Menschen untereinander und mit der Natur ihren Umgang pflegen, ich würde einen RIESEN BOGEN um die Erde machen...
356
Melden
Zum Kommentar
avatar
[CH-Bürger]
21.05.2024 06:11registriert August 2018
"Eine biologische Spezies, die mehrere Planeten bewohnt, wäre beispielsweise in der Lage, jeweils unabhängige Erfahrungen auf verschiedenen Planeten zu nutzen, glaubt Garrett"

Mit anderen Worten:
xy wäre in der Lage, weitere Planeten zu erobern und deren Flora + v.a. Fauna auszubeuten? Nein danke.

Der einzelne Mensch mag tatsächlich eine hoch entwickelte Spezies sein.
Die Menschheit als Ganzes hingegen ist ein fehlgeschlagenes bio-evolutioniäres Experiment.

Habe mal einen passenden Vergleich gehört:
wäre die Erde ein menschlicher Körper, würden wir die Menschheit als Krebs bezeichnen
3519
Melden
Zum Kommentar
96
Der älteste wilde Vogel der Welt brütet wieder – du glaubst nicht, wie alt er ist 🤯

Der gemäss dem U.S. Fish and Wildlife Service (USFWS) älteste wilde Vogel der Welt – ein Laysanalbatros namens Wisdom – hat in einem Schutzgebiet im Pazifik ein Ei gelegt. Das Alter des Tiers grenzt an ein Wunder und Ornithologen und Vogelfans auf der ganzen Welt warten jedes Jahr mit angehaltenem Atem auf seine Rückkehr ins Midway-Atoll, wo sich die grösste Kolonie der Albatrosse befindet. Im Video erfährst du, wie alt Wisdom ist:

Zur Story