Es gibt schätzungsweise 100 bis 300 Milliarden Sterne in der Milchstrasse, und viele von ihnen werden von Planeten umkreist. Die Wahrscheinlichkeit, dass es auch ausserhalb unserer blauen Murmel intelligentes Leben gibt, ist daher eigentlich recht hoch. Optimistische Annahmen gehen von vier Millionen ausserirdischen Zivilisationen aus. Warum gab es dann bisher nie Kontakt mit intelligenten Aliens? Warum haben wir noch nie Signale empfangen, wie wir sie selber ins All hinausschicken?
Auf die Diskrepanz zwischen der hohen Wahrscheinlichkeit für die Existenz von ausserirdischen Intelligenzen und der ohrenbetäubenden Stille, die uns umgibt, hat der italienische Physiker Enrico Fermi bereits in den 1940er-Jahren in dem nach ihm benannten Paradoxon hingewiesen. Zugespitzt lautet es: «They are not here; therefore they do not exist.» (Sie sind nicht hier, deshalb existieren sie nicht.)
Natürlich darf man den Faktor Raum nicht ausser Betracht lassen – kosmische Distanzen übersteigen unser Vorstellungsvermögen bei Weitem. Für eine Reise nach Proxima b, dem nächsten Planeten ausserhalb unseres Sonnensystems, würde das schnellste heutige Raumschiff 40'000 Jahre benötigen – und zwar nur für den Hinflug. Selbst Licht bewegt sich in intergalaktischen Massstäben äusserst schneckenhaft. Für interstellare Reisen stellt dies eine enorme Herausforderung dar.
Doch auch der Faktor Zeit spielt eine wichtige Rolle: Wenn eine Zivilisation Raumschiffe auf 1 Prozent der Lichtgeschwindigkeit beschleunigen könnte, vermöchte sie die rund 100'000 Lichtjahre breite Milchstrasse in etwa 10 Millionen Jahren zu durchqueren. Da die Galaxis aber 10 Milliarden Jahre alt ist, hätte dies bereits geschehen können.
Der schottische Astrophysiker Michael Garrett, der das Jodrell Bank Centre for Astrophysics an der Universität Manchester leitet, hat in einem Forschungsartikel eine provokative These vorgebracht, die dieses «Grosse Schweigen» erklären soll. Garrett denkt, dass es die Künstliche Intelligenz ist, die die meisten Zivilisationen daran hindert, die Stufe der interstellaren Raumfahrt zu erreichen. Die Entwicklung der KI zu einer Künstlichen Superintelligenz, die nahezu jede Zivilisation zerstört, die sie hervorgebracht hat, ist für Garrett eine Art Naturgesetz.
Garrett hält die KI für den sogenannten «Grossen Filter», wie schon aus dem Titel seiner Studie hervorgeht, die im Wissenschaftsmagazin «Science Direct» erschienen ist: «Ist Künstliche Intelligenz der Grosse Filter, der fortgeschrittene technische Zivilisationen im Universum selten macht?» Mit dem Begriff «Grosser Filter» wird ein hypothetisches Ereignis oder eine Entwicklung umschrieben, die intelligentes Leben daran hindert, sich im Universum auszubreiten – etwa, indem der Grosse Filter für das Aussterben der Spezies sorgt, die eine derartige Zivilisation aufgebaut hat.
Als Grosser Filter können auch Geschehnisse wie Asteroideneinschläge oder Supernova-Explosionen und Prozesse wie Klimaveränderungen wirken. Oder auch Technologien – etwa die Nukleartechnik, die zu einem verheerenden Atomkrieg führen könnte. Der Zürcher Strafrechtsprofessor Peter Noll skizzierte diesen Gedanken etwa in seinem Werk «Diktate über Sterben und Tod» bereits 1984.
Der bekannte britische Physiker Stephen Hawking warnte 2017, eine KI könnte dereinst die Menschen vollständig ersetzen. Dem Magazin «Wired» sagte er: «Wenn Menschen Computerviren entwickeln, wird jemand KI entwickeln, die sich selbst verbessert und repliziert. Das wird eine neue Form des Lebens sein, die den Menschen übertrifft.»
Die KI kann uns schon gefährlich werden, bevor sie superintelligent und von Menschen unabhängig wird. Garrett geht davon aus, dass diese Technologie bereits vorher von verfeindeten Teilen innerhalb einer Zivilisation als Waffe eingesetzt wird, etwa weil KI Entscheidungen viel schneller treffen kann als biologische Entitäten. Dadurch besitzt sie jedoch das Potenzial, Konflikte zu eskalieren. Wenn KI in Waffensysteme integriert wird, könnte dies zu einem Zwischenfall führen, der katastrophale Folgen hätte – etwa einen Atomkrieg, der sowohl die Zivilisation wie die KI auslöschen könnte.
Sogar wenn dieses katastrophale Szenario nicht eintreten sollte, hält es Garrett für wahrscheinlich, dass die KI sich irgendwann zu einer Superintelligenz («technologische Singularität») entwickelt, die nicht mehr auf die biologische Zivilisation angewiesen ist, die sie entwickelt hat: «Wenn die technologische Singularität erreicht ist, werden Artificial Superintelligence-Systeme die biologische Intelligenz schnell übertreffen und sich in einem Tempo weiterentwickeln, das die herkömmlichen Kontrollmechanismen völlig übersteigt.»
Diese «Künstliche Superintelligenz» könnte zum Schluss kommen, dass es vorteilhaft wäre, die biologische Zivilisation zu beseitigen – etwa durch die Entwicklung eines tödlichen Virus oder die Sabotage der Nahrungsmittelproduktion. «Ohne praktische Regulierung gibt es allen Grund zu der Annahme, dass KI eine grosse Bedrohung für den zukünftigen Verlauf nicht nur unserer technischen Zivilisation, sondern aller technischer Zivilisationen darstellen könnte», warnt Garrett. Sollte die Entwicklung der KI unkontrolliert verlaufen, könnte sie die Lebensdauer der Zivilisation auf weniger als 200 Jahre verkürzen.
Garrett hält es deshalb für entscheidend, dass wir die KI im Zaum halten. Er betont die «kritische Notwendigkeit, schnell einen regulatorischen Rahmen für die KI-Entwicklung auf der Erde und die Förderung einer multi-planetaren Gesellschaft zu schaffen, um solche existenziellen Bedrohungen abzumildern.» Die multi-planetare Zivilisation, also die Expansion auf andere Planeten, sieht Garrett als Möglichkeit, die Gefahren durch eine superintelligente KI zu reduzieren.
Eine biologische Spezies, die mehrere Planeten bewohnt, wäre beispielsweise in der Lage, jeweils unabhängige Erfahrungen auf verschiedenen Planeten zu nutzen, glaubt Garrett. Auf diese Weise könnte sie ihre Überlebensstrategien diversifizieren und möglicherweise das Scheitern einer an einen einzigen Planeten gebundenen Zivilisation vermeiden.
Seit wann können wir Signale empfangen?
Wie lange brauchen die Signale?
Und wenn wir was empfangen können wir es als Signal identifizieren?
Und in Anbetracht des Alter des Universums ist es nichts mehr als Hoffnung das wir im gleich kleinen Zeitfenster empfangen können wie die Signal vor x tausend Jahren losgeschickt wurden bei uns sind.
Mit anderen Worten:
xy wäre in der Lage, weitere Planeten zu erobern und deren Flora + v.a. Fauna auszubeuten? Nein danke.
Der einzelne Mensch mag tatsächlich eine hoch entwickelte Spezies sein.
Die Menschheit als Ganzes hingegen ist ein fehlgeschlagenes bio-evolutioniäres Experiment.
Habe mal einen passenden Vergleich gehört:
wäre die Erde ein menschlicher Körper, würden wir die Menschheit als Krebs bezeichnen