Die Zukunft der Menschheit

(Ghostwriter.nu) Philosophen, Informatiker, Neuropsychiater und Mathematiker erforschen am Future of Humanity Institute Oxford (FHI) der Universität Oxford in Großbritannien die Chancen und Risiken für das Fortbestehen der Menschheit. Die Aussichten sind etwas gruselig.

Die Wahrscheinlichkeit, dass die Menschheit in diesem Jahrhundert ausstirbt, beträgt 10-12 %. Das zumindest ist die Auffassung des Future of Humanity Institute Oxford (FHI) in Großbritannien. Hierbei ist immer noch ein Nuklearkrieg angeblich das aktuell größte Risiko. Aber die Fortschritte in der synthetischen Biologie und der künstlichen Intelligenz würden einen Nuklearkrieg als bisher größtes Risiko bis Fortbestand der Menschheit ablösen – wenn es dumm läuft. Im öffentlichen Bewusstsein bzw. Nachdenken sind es indes noch die Gefahren des Klimawandels, die aktuell als größtes Zukunftsrisiko wahrgenommen werden. Die Autoren und Ghostwriter von Ghostwriter.nu unterstützen auch in allen diesen Bereichen, seien sie wissenschaftlicher oder fiktionaler Natur.

Die größte Gefahr für Menschen, so glauben zumindest die Oxforder Zukunftsforscher, geht weniger von den Naturgewalten als vom Einfallsreichtum unseres eigenen Geistes aus. Zu den Naturgewalten, die tatsächlich ein geringeres Fortbestandsrisiko für die Menschheit darstellen, gehört auch ein Asteroideneinschlag, der zum Beispiel vor 65 Million Jahren dem Leben der Dinosaurier ein Ende machte. Theoretisch könnte dem Menschen dasselbe passieren, nach den Oxforder Zukunftsforschern sind wir bzw. die möglichen zerstörerischen Elemente unseres Geistes hier aller Voraussicht nach jedoch schneller. Als Beispiel für die Schnelligkeit unseres Geistes dient die Sequenzierung des menschlichen Erbguts und der heute konkret mögliche Eingriff hierin. Kaum jemand hätte vor 50 Jahren eine solche Entwicklung für möglich gehalten.

Die Forscher des FHI versuchen ein Spagat zwischen Spekulation und Wissenschaft. Sie versuchen strikt entscheidungstheoretisch zu argumentieren und das Wissen verschiedener wissenschaftlicher Disziplinen anzuzapfen und zusammenzubringen. So halten sie es aufgrund physikalischer Erkenntnisse zur Dichte des intergalaktischen Raums und der Analyse bestehender Technologien, zum Beispiel zur Raketentechnik, durchaus möglich, dass die Menschheit in naher Zukunft erdähnliche Planeten in unserer relativ jungen Galaxien erreichen könnte.

In diesem Rahmen und in dieser Stoßrichtung hat der Gründer und Direktor des FHI-Instituts, Nick Bostrom, ein Buch geschrieben mit dem Titel „Superintelligenz“. Hier stellt er unterschiedliche Szenarien über die Entwicklung eines artifiziellen, übermenschlichen Verstandes auf. Wir Menschen könnten eine solche Intelligenz kaum kontrollieren. Der Physiker Stephen Hawkins war erst kürzlich derselben Meinung; solche intelligente Maschinen, intelligentere als der Mensch es ist, könnten das Ende der Menschheit bedeuten; Hawkins empfahl für diesen Fall ins Weltall zu flüchten.

Bostrom definiert Intelligenz in seinem Buch technisch. Ein Akteur ist intelligent, wenn er in der Lage ist, ihm gesteckte Ziele zu erreichen. Danach sind Maschinen schon heute in diversen Bereichen intelligenter als Menschen. So besiegte der Computer Deep Blue bereits 1996 den damaligen Schach-Weltmeister Gary Kasparow. 2011 besiegte der Supercomputer Watson den besten Kandidaten in der Quizshow „Jeopardy!“. In mittelintelligenten Tätigkeitsbereichen werden Computer zunehmend eingesetzt. So wurden praktisch alle Juristen in den USA, die sich mit dem Auffinden von Präzedenzfällen beschäftigten, durch Computer ersetzt; das Erkennen von Krankheiten übernehmen zunehmend riesige, miteinander weltweit vernetzte Rechenzentren. Oder viele Tätigkeiten des mittleren Managements innerhalb der Betriebswirtschaftslehre gelten als akut bedroht, weil sie durch Hardware und Software zunehmend besser, automatisiert und billiger bewerkstelligt werden können.

Wäre eine Superintelligenz dem Menschen in jeder Hinsicht überlegen, und eine solche Superintelligenz hat voraussichtlich kein eigenes Bewusstsein, ist dies nach Bostrom für den Menschen nicht weniger gefährlich, sondern eher gefährlicher. Diverse Science-Fiction-Filme hatten diesen Umstand bereits zum Thema.

Der Gründer der US-Firma „Deep Mind“, die vor einem Jahr von Google aufgekauft wurde, der Informatiker Demis Hassabis, führte schon vor einem Jahr, im April 2014, vor, was Computerprogramme als selbstlernende Software bereits in der Lage sind zu tun.“ Tiefes Lernen“ nennen Informatiker dieses Prinzip selbstlernender Software. Hassabis zeigte in der damaligen „First Day of Tomorrow“-Konferenz in Paris eine Software, die sich Videospiele ganz ohne Hilfe beibringt und im großen Gegensatz zu Menschen nach bereits 4 Stunden übermenschliches Niveau erreicht und das Spiel überlistet, etwas, was in diesem Spiel gar nicht vorgesehen ist. „Breakout heißt dieses Videospiel, es ist eines der ersten und 40 Jahre alt. Der Gedanke ist natürlich nicht fern, dass Maschinen, die selbst lernen, sich in einem solchen beispielhaften Umfeld durchzusetzen, in naher Zukunft auch in Wirklichkeit eigenständige, weit komplexere Ziele verfolgen könnten. Fachleute gehen davon aus, dass künstliche Intelligenz auf Höhe der menschlichen Intelligenz zu 50-prozentiger Wahrscheinlichkeit bis zum Jahr 2050 hergestellt werden kann. Das wäre in 35 Jahren.

Nach Auffassung des FHI hat es der Mensch auch gerade einmal nur so weit gebracht, als dass er durch die Entwicklung von ein bisschen Kultur und Technologie fähig war, alle anderen Arten auf unserem Planeten zu unterwerfen. Viel weiter als das Gehirn eines Menschenaffen hat sich das Gehirn eines Menschen aber nicht entwickelt. Doch jetzt, so hoffen die Forscher am FHI, hat der Mensch die Möglichkeit, sein Gehirn mittels künstlicher Intelligenz womöglich deutlich „aufzumöbeln“ und damit letztlich die natürliche, biologische Evolution zu überspringen.

Auch das kosmische Potenzial der Menschheit, das den künftigen Entwicklungen der synthetischen Biologie oder der künstlichen Intelligenz nach Auffassung der Forscher des FHI innewohnt, könne womöglich bald gehoben werden. Die Menschheit könne sich durch künftige neue Kenntnisse und Erkenntnisse in unserer gesamten Galaxie ausbreiten und dort überall stark anwachsen. Konzentrationsfördernde Medikamente, Tiefenhirnstimulation, technische Implantate ins eigene Gehirn, mit diesen und anderen technologischen Neuerungen im Biologischen und hinsichtlich der Intelligenz würden den Menschen quasi intelligente Flügel verleihen können. Und auch das Altern und Alter könne künftig womöglich erheblich ausgetrickst werden.

Negative Auswirkungen könne es auch geben. Aber durch die Auswahl bester Keimzellen wäre ein dergestalt biologisch optimierter Mensch nach Bostrom angeblich in der Lage, sich vor künftigen möglichen Superintelligenzen zu schützen. Ein Klonen von biologisch optimierten Menschen im Reagenzglas statt Sex – auch diese Szenarien wurden schon in diversen Science-Fiction-Filmen thematisiert. Jetzt erscheinen diese Zukunftskonstruktionen in immer greifbarer Nähe.

Die Autoren und Ghostwriter von Ghostwriter.nu helfen, wo möglich, auch in diesem etwas unheimlich anmutenden Gesamtmetier, gerne.

Quellen:

Bostrom, Nick: Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp Verlag November 2014.

Future of Humanity Institute. University of Oxford [Großbritannien], http://www.fhi.ox.ac.uk/

Ghostwriter.nu: IT frisst Akademiker. Ghostwriter.nu-News vom 18.12.2014.