Die Zukunft der Menschheit

(Ghost­wri­ter.nu) Phi­lo­so­phen, Infor­ma­ti­ker, Neu­ro­psych­ia­ter und Mathe­ma­ti­ker erfor­schen am Future of Huma­ni­ty Insti­tu­te Oxford (FHI) der Uni­ver­si­tät Oxford in Groß­bri­tan­ni­en die Chan­cen und Risi­ken für das Fort­be­stehen der Mensch­heit. Die Aus­sich­ten sind etwas gru­se­lig.

Die Wahr­schein­lich­keit, dass die Mensch­heit in die­sem Jahr­hun­dert aus­stirbt, beträgt 10–12 %. Das zumin­dest ist die Auf­fas­sung des Future of Huma­ni­ty Insti­tu­te Oxford (FHI) in Groß­bri­tan­ni­en. Hier­bei ist immer noch ein Nukle­ar­krieg angeb­lich das aktu­ell größ­te Risi­ko. Aber die Fort­schrit­te in der syn­the­ti­schen Bio­lo­gie und der künst­li­chen Intel­li­genz wür­den einen Nukle­ar­krieg als bis­her größ­tes Risi­ko bis Fort­be­stand der Mensch­heit ablö­sen – wenn es dumm läuft. Im öffent­li­chen Bewusst­sein bzw. Nach­den­ken sind es indes noch die Gefah­ren des Kli­ma­wan­dels, die aktu­ell als größ­tes Zukunfts­ri­si­ko wahr­ge­nom­men wer­den. Die Auto­ren und Ghost­wri­ter von Ghostwriter.nu unter­stüt­zen auch in allen die­sen Berei­chen, sei­en sie wis­sen­schaft­li­cher oder fik­tio­na­ler Natur.

Die größ­te Gefahr für Men­schen, so glau­ben zumin­dest die Oxfor­der Zukunfts­for­scher, geht weni­ger von den Natur­ge­wal­ten als vom Ein­falls­reich­tum unse­res eige­nen Geis­tes aus. Zu den Natur­ge­wal­ten, die tat­säch­lich ein gerin­ge­res Fort­be­stands­ri­si­ko für die Mensch­heit dar­stel­len, gehört auch ein Aste­ro­iden­ein­schlag, der zum Bei­spiel vor 65 Mil­li­on Jah­ren dem Leben der Dino­sau­ri­er ein Ende mach­te. Theo­re­tisch könn­te dem Men­schen das­sel­be pas­sie­ren, nach den Oxfor­der Zukunfts­for­schern sind wir bzw. die mög­li­chen zer­stö­re­ri­schen Ele­men­te unse­res Geis­tes hier aller Vor­aus­sicht nach jedoch schnel­ler. Als Bei­spiel für die Schnel­lig­keit unse­res Geis­tes dient die Sequen­zie­rung des mensch­li­chen Erb­guts und der heu­te kon­kret mög­li­che Ein­griff hier­in. Kaum jemand hät­te vor 50 Jah­ren eine sol­che Ent­wick­lung für mög­lich gehal­ten.

Die For­scher des FHI ver­su­chen ein Spa­gat zwi­schen Spe­ku­la­ti­on und Wis­sen­schaft. Sie ver­su­chen strikt ent­schei­dungs­theo­re­tisch zu argu­men­tie­ren und das Wis­sen ver­schie­de­ner wis­sen­schaft­li­cher Dis­zi­pli­nen anzu­zap­fen und zusam­men­zu­brin­gen. So hal­ten sie es auf­grund phy­si­ka­li­scher Erkennt­nis­se zur Dich­te des inter­ga­lak­ti­schen Raums und der Ana­ly­se bestehen­der Tech­no­lo­gi­en, zum Bei­spiel zur Rake­ten­tech­nik, durch­aus mög­lich, dass die Mensch­heit in naher Zukunft erd­ähn­li­che Pla­ne­ten in unse­rer rela­tiv jun­gen Gala­xi­en errei­chen könn­te.

In die­sem Rah­men und in die­ser Stoß­rich­tung hat der Grün­der und Direk­tor des FHI-Insti­tuts, Nick Bostrom, ein Buch geschrie­ben mit dem Titel „Super­in­tel­li­genz“. Hier stellt er unter­schied­li­che Sze­na­ri­en über die Ent­wick­lung eines arti­fi­zi­el­len, über­mensch­li­chen Ver­stan­des auf. Wir Men­schen könn­ten eine sol­che Intel­li­genz kaum kon­trol­lie­ren. Der Phy­si­ker Ste­phen Haw­kins war erst kürz­lich der­sel­ben Mei­nung; sol­che intel­li­gen­te Maschi­nen, intel­li­gen­te­re als der Mensch es ist, könn­ten das Ende der Mensch­heit bedeu­ten; Haw­kins emp­fahl für die­sen Fall ins Welt­all zu flüch­ten.

Bostrom defi­niert Intel­li­genz in sei­nem Buch tech­nisch. Ein Akteur ist intel­li­gent, wenn er in der Lage ist, ihm gesteck­te Zie­le zu errei­chen. Danach sind Maschi­nen schon heu­te in diver­sen Berei­chen intel­li­gen­ter als Men­schen. So besieg­te der Com­pu­ter Deep Blue bereits 1996 den dama­li­gen Schach-Welt­meis­ter Gary Kas­parow. 2011 besieg­te der Super­com­pu­ter Wat­s­on den bes­ten Kan­di­da­ten in der Quiz­show „Jeo­par­dy!“. In mit­tel­in­tel­li­gen­ten Tätig­keits­be­rei­chen wer­den Com­pu­ter zuneh­mend ein­ge­setzt. So wur­den prak­tisch alle Juris­ten in den USA, die sich mit dem Auf­fin­den von Prä­ze­denz­fäl­len beschäf­tig­ten, durch Com­pu­ter ersetzt; das Erken­nen von Krank­hei­ten über­neh­men zuneh­mend rie­si­ge, mit­ein­an­der welt­weit ver­netz­te Rechen­zen­tren. Oder vie­le Tätig­kei­ten des mitt­le­ren Manage­ments inner­halb der Betriebs­wirt­schafts­leh­re gel­ten als akut bedroht, weil sie durch Hard­ware und Soft­ware zuneh­mend bes­ser, auto­ma­ti­siert und bil­li­ger bewerk­stel­ligt wer­den kön­nen.

Wäre eine Super­in­tel­li­genz dem Men­schen in jeder Hin­sicht über­le­gen, und eine sol­che Super­in­tel­li­genz hat vor­aus­sicht­lich kein eige­nes Bewusst­sein, ist dies nach Bostrom für den Men­schen nicht weni­ger gefähr­lich, son­dern eher gefähr­li­cher. Diver­se Sci­ence-Fic­tion-Fil­me hat­ten die­sen Umstand bereits zum The­ma.

Der Grün­der der US-Fir­ma „Deep Mind“, die vor einem Jahr von Goog­le auf­ge­kauft wur­de, der Infor­ma­ti­ker Demis Hass­a­bis, führ­te schon vor einem Jahr, im April 2014, vor, was Com­pu­ter­pro­gram­me als selbst­ler­nen­de Soft­ware bereits in der Lage sind zu tun.“ Tie­fes Ler­nen“ nen­nen Infor­ma­ti­ker die­ses Prin­zip selbst­ler­nen­der Soft­ware. Hass­a­bis zeig­te in der dama­li­gen „First Day of Tomorrow“-Konferenz in Paris eine Soft­ware, die sich Video­spie­le ganz ohne Hil­fe bei­bringt und im gro­ßen Gegen­satz zu Men­schen nach bereits 4 Stun­den über­mensch­li­ches Niveau erreicht und das Spiel über­lis­tet, etwas, was in die­sem Spiel gar nicht vor­ge­se­hen ist. „Brea­k­out heißt die­ses Video­spiel, es ist eines der ers­ten und 40 Jah­re alt. Der Gedan­ke ist natür­lich nicht fern, dass Maschi­nen, die selbst ler­nen, sich in einem sol­chen bei­spiel­haf­ten Umfeld durch­zu­set­zen, in naher Zukunft auch in Wirk­lich­keit eigen­stän­di­ge, weit kom­ple­xe­re Zie­le ver­fol­gen könn­ten. Fach­leu­te gehen davon aus, dass künst­li­che Intel­li­genz auf Höhe der mensch­li­chen Intel­li­genz zu 50-pro­zen­ti­ger Wahr­schein­lich­keit bis zum Jahr 2050 her­ge­stellt wer­den kann. Das wäre in 35 Jah­ren.

Nach Auf­fas­sung des FHI hat es der Mensch auch gera­de ein­mal nur so weit gebracht, als dass er durch die Ent­wick­lung von ein biss­chen Kul­tur und Tech­no­lo­gie fähig war, alle ande­ren Arten auf unse­rem Pla­ne­ten zu unter­wer­fen. Viel wei­ter als das Gehirn eines Men­schen­af­fen hat sich das Gehirn eines Men­schen aber nicht ent­wi­ckelt. Doch jetzt, so hof­fen die For­scher am FHI, hat der Mensch die Mög­lich­keit, sein Gehirn mit­tels künst­li­cher Intel­li­genz womög­lich deut­lich „auf­zu­mö­beln“ und damit letzt­lich die natür­li­che, bio­lo­gi­sche Evo­lu­ti­on zu über­sprin­gen.

Auch das kos­mi­sche Poten­zi­al der Mensch­heit, das den künf­ti­gen Ent­wick­lun­gen der syn­the­ti­schen Bio­lo­gie oder der künst­li­chen Intel­li­genz nach Auf­fas­sung der For­scher des FHI inne­wohnt, kön­ne womög­lich bald geho­ben wer­den. Die Mensch­heit kön­ne sich durch künf­ti­ge neue Kennt­nis­se und Erkennt­nis­se in unse­rer gesam­ten Gala­xie aus­brei­ten und dort über­all stark anwach­sen. Kon­zen­tra­ti­ons­för­dern­de Medi­ka­men­te, Tie­fen­hirn­sti­mu­la­ti­on, tech­ni­sche Implan­ta­te ins eige­ne Gehirn, mit die­sen und ande­ren tech­no­lo­gi­schen Neue­run­gen im Bio­lo­gi­schen und hin­sicht­lich der Intel­li­genz wür­den den Men­schen qua­si intel­li­gen­te Flü­gel ver­lei­hen kön­nen. Und auch das Altern und Alter kön­ne künf­tig womög­lich erheb­lich aus­ge­trickst wer­den.

Nega­ti­ve Aus­wir­kun­gen kön­ne es auch geben. Aber durch die Aus­wahl bes­ter Keim­zel­len wäre ein der­ge­stalt bio­lo­gisch opti­mier­ter Mensch nach Bostrom angeb­lich in der Lage, sich vor künf­ti­gen mög­li­chen Super­in­tel­li­gen­zen zu schüt­zen. Ein Klo­nen von bio­lo­gisch opti­mier­ten Men­schen im Reagenz­glas statt Sex – auch die­se Sze­na­ri­en wur­den schon in diver­sen Sci­ence-Fic­tion-Fil­men the­ma­ti­siert. Jetzt erschei­nen die­se Zukunfts­kon­struk­tio­nen in immer greif­ba­rer Nähe.

Die Auto­ren und Ghost­wri­ter von Ghostwriter.nu hel­fen, wo mög­lich, auch in die­sem etwas unheim­lich anmu­ten­den Gesamt­me­tier, ger­ne.

Quel­len:

Bostrom, Nick: Super­in­tel­li­genz. Sze­na­ri­en einer kom­men­den Revo­lu­ti­on. Suhr­kamp Ver­lag Novem­ber 2014.

Future of Huma­ni­ty Insti­tu­te. Uni­ver­si­ty of Oxford [Groß­bri­tan­ni­en], http://www.fhi.ox.ac.uk/

Ghostwriter.nu: IT frisst Aka­de­mi­ker. Ghostwriter.nu-News vom 18.12.2014.