Des Menschen letzte Erfindung?

FacebookTwitterGoogle+

Selbstfahrende Autos und Handys, die mit uns sprechen: Des Menschen Werkzeuge werden immer schlauer und eigenständiger. Eine Gruppe von Forschern und Unternehmern warnt nun vor einer neuen Art von Roboter, die dem Homo sapiens in allen Belangen überlegen ist. «Wir werden fast sicher bei einer solchen Maschine landen», sagt der US-Philosoph Sam Harris. Und die Folgen dieser Erfindung seien kaum absehbar.


Zugegeben, das Phänomen ist nicht neu: Spätestens seit den Weltkriegen, als nicht mehr Menschen, sondern zunehmend Maschinen Schlachten gewannen, fürchten sich Menschen vor schlauen Maschinen. Im Kalten Krieg ging die Angst um, dass Roboter eigenhändig Atomkriege auslösen könnten. Heute warnen Intellektuelle vor ähnlichen Szenarien. Und sie begründen ihre Furcht ganz rational.

US-Neuropsychologe und Philosoph Sam Harris sagt, die Entwicklung hin zu hochintelligenten Maschinen sei unaufhaltbar – es sei denn, «eine grosse Katastrophe wirft unsere Technologien um Jahrzehnte zurück». Und wenn Harris etwas sagt, hat das meistens Gewicht: Der US-Amerikaner, der vor allem zu Fragen der Ethik und Religion forscht, gilt weltweit als wohlüberlegter Skeptiker und Debattenredner.

Das Gehirn im Computer

Für Harris ist klar, dass so genannte Superintelligenz bald künstlich im Computer erzeugt werden kann – dank neuronalen Netzwerken. Dabei handelt es sich um Software-Modelle, die aus künstlichen Neuronen bestehen, also Programmen, die agieren wie echte Nervenzellen.

Durch spezielle Algorithmen, so genanntes Deep Learning, gelingt es diesen Netzwerken zunehmend, Information so zu prozessieren wie das menschliche Gehirn. «Da Intelligenz primär dadurch bestimmt wird, wie Informationen verarbeitet werden, und wir unsere Datenverarbeitungsmaschinen, sprich Computer, stets verbessern, werden wir unweigerlich bei einer Maschine landen, die so intelligent ist wie wir», sagt Harris.

Zwei Arten von Robotern

Experten unterscheiden zwischen echter künstlicher Intelligenz (KI) und angewandter künstlicher Intelligenz. Angewandte KI umgibt uns täglich, Siri auf dem iPhone oder Google Translate sind Beispiele dafür. Wirkliche KI-Computerwesen, also Computer, die wie Menschen denken und planen können, sind momentan noch Fiktion. Gemäss einer Umfrage von Forschern der britischen Oxford-Universität von 2016 schätzen jedoch KI-Experten weltweit, dass bis 2040 oder 2075 wirkliche KI Realität sein könnte.

Die Fortschritte sind alle paar Wochen in den Zeitungen zu lesen. Im Frühjahr beispielsweise vermeldeten US-Forscher, dass erstmals ein Computer ein Pokerturnier gegen menschliche Gegner gewinnen konnte. Das Besondere an Poker ist, dass der Spieler die Gegner lesen muss, etwa wenn sie «bluffen». Dieser Umgang mit unvollständiger Information, der schon fast in Richtung Intuition geht, ist etwas, dass man Maschinen vorher nicht beibringen konnte.

Die Entwicklung hin zur Superintelligenz wird zum einen von Universitäten weltweit vorangetrieben, zum anderen aber auch von Hightech-Firmen wie Google und Facebook, die mit Robotern neue Märkte erschliessen wollen. Hinzu kommen staatlich finanzierte Grossprojekte wie das Human Brain Project (HBP) im schweizerischen Lausanne. Das HBP entschlüsselt die grundlegenden Mechanismen des menschlichen Gehirns – was wiederum bei der Entwicklung von noch menschlicheren neuronalen Netzwerken helfen wird. Zudem tüfteln die Hirnforscher dort an neuen Speichermedien, also noch leistungsfähigeren Computern, welche nötig sind, um menschgleiche Gehirne am Computer zum Laufen zu bringen.

Wäre eine solche Maschine einmal vorhanden, so befürchtet Philosoph Sam Harris eine «Intelligenzexplosion». Er denkt, dass sich ein superintellienter Roboter innert kurzer Zeit selbständig weiter verbessern könnte. «Künstliche elektrische Leiter feuern rund eine Million Mal schneller als die biologischen in unserem Hirn, was bedeutet, dass ein solcher Roboter von Beginn weg eine Million Mal schneller denkt als ein Mensch. Wir können uns kaum ausmalen, was er denken und tun würde», sagt Harris.

Angst vor Google

Harris ist nicht der einzige Intellektuelle, der mit ungutem Gefühl an die Fortschritte in der Robotik denkt.

Der englische Astrophysiker Stephen Hawking sagte 2014, dass intelligente Roboter das «Ende der Menschheit» einläuten könnten. Für Tesla- und SpaceX-Gründer Elon Musk ist die Gefahr, dass «KI Amok laufen könnte» eine der grossen Herausforderungen der kommenden Jahre.

2016 sagte der US-Unternehmer, dass ihm vor allem die Forschungen von Google in diesem Bereich «Sorge bereiten». Dies zum einen wegen der starken Ausrichtung des Suchmaschinen-Giganten auf die Entwicklung immer schlauerer Systeme, zum anderen wegen des dort vorherrschenden, «fast schon naiven» Vertrauens in High-Tech.

Google-Manager Eric Schmid antwortete damals auf die Kritik wie folgt: «Denken Sie nicht, dass Menschen merken würden, wenn das geschehe? Und denken Sie nicht, dass die Menschen dann einfach den Computer abschalten würden?» Vielleicht könnte der Mensch eingreifen, sagte Sam Harris zu dieser Aussage. «Vielleicht aber auch nicht.» Computer würden wohl in dieser vernetzten Welt, in der wir leben, Wege finden, den Menschen zu überlisten.

Würde sie uns verstehen?

Auch Nick Bostrom von der Universität Oxford schätzt die Chance auf hochintelligente Maschinen als sehr hoch ein. Für den Philosophen und Zukunftsforscher, der das Future of Humanity Institute leitet, ist klar, dass sie kommen werden. Und er sieht die Entwicklung auch positiv: Solche Roboter könnten uns helfen, Lösungen zu den grossen Problemen zu finden, zum Beispiel, wie wir Krebs besiegen oder die Verschmutzung unserer Umwelt in den Griff bekommen könnten. Doch Bostrom sinniert auch über die potentiellen Schattenseiten.

Er fragt sich, wie wir solch einer Maschine Werte beibringen könnten. Es stellt sich die Frage, ob solche Maschinen bloss unglaublich intelligent wären oder zudem auch ein Bewusstsein hätten. «Würde der Roboter uns verstehen?» Bostrom macht ein simples Beispiel: «Nehmen wir an, wir hätten eine solche Maschine und wir würden ihr unser Anliegen unterbreiten: Sorge dafür, dass die Menschen weltweit glücklich sind. Wie würde sie wohl reagieren? Vielleicht würde sie es in unserem Sinn verstehen und uns Wege aufzeigen, wie wir Heilmittel zu Krankheiten finden und Konflikte auf friedlichem Wege lösen könnten. Vielleicht aber würde sie auch alle Menschen in Labors stecken und sie mit Glücksdrogen vollpumpen.»

«Sie finden das bestimmt cool!»

Für Sam Harris und Bostrom ist es Zeit, breit in der Gesellschaft über das Thema zu sprechen und Vorbereitungen zu treffen, dass die «Entwicklung solcher Maschinen in sicherer Umgebung stattfinden kann», wie es Harris jüngst an einem Vortrag der TED-Talk-Reihe formulierte. Denn viele Menschen würden schlaue Maschinen nicht als Bedrohung wahrnehmen. Für die meisten Menschen klinge das alles zu sehr nach Science Fiction, sagte Harris. Über Hungersnöte und Kriege oder den Klimawandel denke der Mensch anders als über die Gefahr durch Roboter. Für viele sei diese nicht fassbar. «Einige denken eher: Cool, schlaue Roboter, die uns alle auslöschen wollen.»

«Warum sollten sie uns vernichten?»

So herrscht unter KI-Forschern denn auch kein Konsens. Einige erachten die Bedrohungsszenarien, welche Harris und Bostrom entwerfen, als übertrieben. Zum Beispiel Jürgen Schmidhuber, der das KI-Forschungsfeld massgeblich geprägt hat. Der Deutsche ist wissenschaftlicher Direktor des Schweizer Forschungsinstituts für KI IDSIA in der Gemeinde Manno im Tessin. Die neuronalen Netzwerke seiner Forschungsgruppen revolutionierten die KI und sind durch Google, Apple und Microsoft Milliarden von Nutzern zugänglich.

Er stimmt in der Grundannahme mit KI-Warnern wie Harris überein: «Der Mensch wird KIs, die ihre eigenen Ziele verfolgen, langfristig kaum kontrollieren können.» Doch Schmidhuber bezweifelt, dass diese Roboter uns Menschen vernichten würden. «Warum sollten KIs denn ein Interesse daran haben, uns zu vernichten? Lebewesen interessieren sich vor allem für die, mit denen sie zusammenarbeiten oder in Wettbewerb treten können. Superkluge KIs werden sich vor allem für andere superkluge KIs interessieren.»

Doch Bostrom, Harris und Musk sorgen sich auch nicht in erster Linie um Roboter, die uns böse gesinnt sind. Sie befürchten eher, dass es die Maschinen schlicht nicht kümmern würde, ob die Menschen leben oder nicht – «ungefähr so wie es die meisten Menschen nicht kümmert, wenn sie auf dem Weg zur Arbeit ein paar Ameisen zertrampeln», sagt Bostrom. «Der Mensch wäre für die hochintelligenten Maschinen eher ein Kollateralschaden.»

__________

Quellenangabe:

Die meisten Informationen für den Artikel stammen von den TED-Auftritten von Sam Harris und Nick Bostrom. Weitere Zitate wurden einem Interview der FAZ mit Jürgen Schmidhuber sowie einer Reddit-Seite zu Schmidhuber entnommen.

Bildnachweise:

– Das Foto in der Artikelvorschau stammt von A Health Blog via Flickr.
– Das Foto von Sam Harris stammt von TED Conference via Flickr.
– Auch das Foto von Nick Bostrom entstammt der Flickr-Seite von TED Conference.

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.