Habt keine Angst vor Künstlicher Intelligenz, Künstliche Dummheit ist die wahre Gefahr
Bild: imago

FYI.

This story is over 5 years old.

Tech

Habt keine Angst vor Künstlicher Intelligenz, Künstliche Dummheit ist die wahre Gefahr

Der KI-Forscher Alan Bundy glaubt nicht, dass superintelligente Maschinen bald die Welt erobern werden. Warum wir uns trotzdem um KI Sorgen machen sollten, erklärt er in seinem neuesten Paper.

In den letzten Jahren haben es KI-Forscher wahrlich nicht leicht gehabt. Die Vorbehalte gegen ihr Forschungsgebiet sind groß: Sowohl renommierte Tech-Experten als auch manche Wissenschaftsbehörden haben sich in den Kopf gesetzt, dass ausgerechnet das Feld der Künstlichen Intelligenz die größte Bedrohung für den Menschen darstellt. So müssen sich Forscher, die einfach nur ungestört den menschlichen Emoji-Einsatz mit Hilfe von KI-Textanalyse vorhersagen wollen, anhören, wie jemand wie Elon Musk ihr Forschungsgebiet als reinste Apokalypse darstellt.

Anzeige

Informatiker und Forscher lassen solche Unterstellungen ungern unkommentiert auf sich sitzen – auch wenn sie oft weniger mediale Aufmerksamkeit als die prominenten Schwarzmaler und Kulturpessimisten bekommen. Nun meldet sich der Professor für Künstliche Intelligenz Alan Bundy zu Wort, um ein paar Dinge klar zu stellen. In dem Fachblatt Communications of the ACM stellt er die These auf, dass KI tatsächlich eine echte Gefahr für den Menschen darstellt – allerdings geht diese Gefahr keineswegs von menschenähnlicher Intelligenz amoklaufender Maschinen aus, die so gerne von Kritikern heraufbeschworen wird. Ganz im Gegenteil: Für Bundy liegt die wahre Gefahr in der Dummheit der Maschinen.

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Bundy argumentiert, dass fast alle großen KI-Erfolge der letzten Jahre auf einen extrem begrenzten Anwendungsbereich ausgelegt waren. So wurden zwar sehr kostspielige Maschinen erschaffen, die wahre Meister in Spielen wie Schach oder Go sind — aber diese spezialisierten Fähigkeiten haben nichts mit allgemeiner Intelligenz zu tun.

„Singularität beruht auf einem linearen Intelligenzmodell, ähnlich wie die IQ-Werte, die man jedem Tier zuordnen kann und bei denen sich die KI langsam verbessert", schreibt Bundy. „Doch mit Intelligenz verhält es sich anders. Wie beispielsweise Aaron Sloman ausführte, muss man sich Intelligenz als multidimensionalen Raum vorstellen, mit verschiedenen Arten von Intelligenz und mit KI, die sich in viele verschiedene Richtungen weiterentwickeln."

Anzeige

Doch da sich niemand die Zeit nimmt, diesen Unterschied zu erklären, bekommt die Öffentlichkeit davon nichts mit. Wir Menschen schließen von uns auf andere und da wir selbst allgemeine Intelligenz besitzen, gehen wir davon aus, dass das auch auf den cleveren Schach-Computer zutrifft, den wir im Fernsehen bewundern. Dabei übersehen wir, dass diese Maschine nur für eine einzige Sache zu gebrauchen ist: Schach spielen. „Viele Menschen neigen dazu, eng fokussierten KI-Systemen zu viel Intelligenz zuzuschreiben."

Bundy hat für seinen Standpunkt gute Gründe: Er war einer der britischen Informatiker, die in den frühen 80er Jahren vehement vor der Strategischen Verteidigungsinitiative (SDI) von Ronald Reagan und Edward Teller warnten. Ursprünglich sollte das KI-System vollkommen ohne menschliches Zutun feindliche sowjetische Langstreckenraketen identifizieren und abschießen.

Da sich das vollautomatisierte System in der Theorie fantastisch anhörte, wollten die begeisterten Politiker erst nicht einsehen, dass die Künstliche Intelligenz für derartige Einsätze nicht weit genug entwickelt war. Ein Fehlalarm war bei Raketenfrühwarnsystemen keine Seltenheit und wurden beispielsweise durch Banalitäten wie Vogelschwärme oder den aufgehenden Mond ausgelöst. Doch schon ein falsch interpretiertes Ergebnis hätte fatale Folgen haben können und im schlimmsten Fall sogar einen Atomkrieg auslösen können.

Der Sonnensturm, der beinahe einen 3. Weltkrieg auslöste

„Glücklicherweise waren auch Menschen in diese Abläufe involviert, die unberechtigte Vergeltungsschläge gegen die vermeintlichen Angreifer rechtzeitig abbrechen konnten", schreibt Bundy. „Meine Forschungsgruppe traf sich mit Wissenschaftlern des britischen Verteidigungsministeriums, die an der Verteidigungsinitiative beteiligt waren, und sie teilten unsere Bedenken. Letztendlich wurde das SDI-Programm stillschweigend aufgegeben und in ein vernünftigeres Programm eingebunden. Das SDI-Programm ist ein Paradebeispiel dafür, dass Nicht-Informatiker die Fähigkeiten von dummen Maschinen überschätzt haben."

Damit diese Erkenntnisse auch in der öffentlichen Diskussion Gehör finden, müssen Forscher ihre Ergebnisse jedoch mit der Öffentlichkeit teilen. Sonst wird sich nach Bundys Ansicht nichts ändern: Künstliche Intelligenz wird weiterhin in isolierter Form entwickelt werden und die Kulturpessimisten werden weiterhin Angst vor den neuen, beeindruckenden Maschinen haben – auch wenn diese Maschinen weiterhin „unglaublich dumm" bleiben werden, bei allem, was über ihren kleinen Spezialbereich hinausgeht.

Bundys Fazit: Von KI geht heute noch immer die gleiche Gefahr aus wie in den 80ern. Da die Öffentlichkeit und die Politiker von den teilweise beeindruckenden Spezialfähigkeiten der KI geblendet sind, erkennen sie nicht, dass die künstlichen Fachidioten bei Aufgaben, die menschliche Kognition erfordern, kläglich versagen.