Skip to main content
Die alte Angst vor künstlichen Wesen

Ein Spark von Dr. Claudia Kleimann-Balke / 13.11.2019

Es ist nicht immer einfach mit mir! Es reicht meist ein kleiner Anlass und schon krame ich – vielleicht gerade nicht unbedingt benötigtes – Wissen, jahrhundertealte Zitate und historische Fakten aus den hintersten Regionen meiner Gehirnwindungen ... und lasse meine Mitmenschen daran teilhaben.

In diesem Jahr hat der deutsche Physiker, Mathematiker und Informatiker Bernhard Schölkopf den mit einer Million Euro dotierten Körber-Preis für die Europäische Wissenschaft erhalten. Schölkopf und sein Team erforschen Algorithmen, mit denen Computerprogramme flexibel auf Situationen reagieren können. Damit schafft er eine wesentliche Voraussetzung für die Weiterentwicklung Künstlicher Intelligenz (KI). Und die Anwendungsmöglichkeiten scheinen immer schneller zu wachsen: Exoskelette lassen Patienten mit Querschnittslähmung wieder gehen. Hochspezielle Prothesen ermöglichen das Zugreifen, wo die eigene Hand fehlt. Computer mit nie geahnter Rechenkapazität werten eine Flut digitaler Informationen unterschiedlichster Provenienzen aus. Sie geben algorithmusgestützte Empfehlungen für medizinische Behandlungen und landwirtschaftliche Prozesse oder prognostizieren das Wetter der nächsten Wochen.

So weit, so gut. So gut? Sicher, es gibt unzählige Optionen für den positiven Einsatz Künstlicher Intelligenz. Das ist die eine Seite der Medaille. Da ist aber auch noch eine andere, dunkle Seite. Sie ruft nicht nur Skeptiker und Verschwörungstheoretiker auf den Plan, sondern auch diejenigen, in deren Vorstellung sich ein dystrophisch geprägtes Bild der Zukunft manifestiert hat. Eine Zukunft, in der die Menschheit von Cyborgs und Robotern unterworfen wurde, alle Gedanken von Maschinen kontrolliert werden und Fähigkeiten, wie Empathie und Kreativität längst der Vergangenheit angehören.

Zugegeben das ist schon Schwarzmalerei in ihrer stärksten Ausprägung. Ob sie berechtigt ist – diese Frage kann ich nicht beantworten. Sicher ist allerdings, dass unsere Beweggründe für die Entwicklung von KI, die Erwartungen an sie und auch die Skepsis, mit der wir ihr begegnen, keine (so) neuen Phänomene sind. Vielmehr spiegeln sie ein altes Muster wider: Der Mensch war schon immer davon besessen, etwas zu erschaffen. Einige Beispiele aus Literatur und Mythologie sind uns geläufig, wie Pygmalion, der eine perfekte Marmorstatue erschuf, die von Göttin Venus zum Leben erweckt wurde. Oder wie Prometheus, der uns Menschen aus Lehm formte, wenn man der griechischen Mythologie Glauben schenkt.

Häufig war das Ziel dieser Schaffensprozesse ein Geschöpf zu kreieren, das für den Menschen schwere, unangenehme oder moralisch bedenkliche Arbeiten erfüllt. Ich denke dabei an den Golem in der jüdischen Tradition, der, ebenfalls aus Lehm geformt, die Prager Juden vor hinterhältigen Widersachern schützen sollte. Und natürlich sind da die unzähligen, unermüdlichen, nicht krankwerdenden Androiden und Cyborgs moderner Science-Fiction Literatur, wie Data, C-3PO, Roy Betty, Seven of Nine oder der Terminator. Vielleicht ist aber das bekannteste „künstlich“ erschaffene Wesen der Feder Mary Shelleys entsprungen. Sie machte Anfang des 19. Jahrhunderts den ehrgeizigen Arzt Victor Frankenstein und sein aus Leichenteilen zusammengenähtes Geschöpf unsterblich. In ihm zeigt sich dann auch deutlich die Tragik dieser menschlichen Schöpfungen: Denn leider entwickeln diese Geschöpfe irgendwann ein Bewusstsein, geraten außer Kontrolle und richten sich, meist ziemlich gewalttätig, gegen ihre Schöpfer. Diese und viele ähnliche Geschichten darüber, wie der Mensch sich gottgleich an der Schöpfung versucht und wie diese sich am Ende gegen ihn selbst richtet, sind in unserem kollektiven Gedächtnis fest verankert.

Heute sind wir das erste Mal tatsächlich in der Lage etwas Intelligentes zu erschaffen – und uns nicht nur Geschichten darüber auszudenken. Man sagt, alles was möglich ist, wird auch gemacht werden. Die Vision des Softwarenentwicklers Demis Hassabis', dem Vater des schon legendären AlphaGo, unterstreicht diese These, wenn er sagt: „Meine künstliche Intelligenz soll in der Lage sein, alles zu lernen und besser zu machen als Menschen.“ Es ist an uns, diese Entwicklung in die richtigen, ethisch vertretbare, Bahnen zu lenken – vielleicht so wie es der Biochemiker und  Science-Fiction Autor Isaac Asimov 1942 in seinen Robotergesetzen formulierte.

Wie auch immer wir das bewerkstelligen wollen – Wachsamkeit ist angesagt, denn: „Manchmal ist die Zukunft schon da, ehe wir ihr gewachsen sind.“ (John Steinbeck)

Verhaltenskodex für Roboter
Isaak Asimov, Runaround, 1942

  1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gesetz verstoßen.
  3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gesetz verstößt.