Tech

Killerroboter der Zukunft lesen deine Facebook-Timeline, bevor sie dich töten

Dokumente enthüllen: Das Pentagon plant doch die Entwicklung und den Einsatz autonomer Killer—und zwar mit einem ganz besonderen Feature.
09 Juni 2016, 4:00am
Der Boston Dynamics LS3 (Legged Squad Support System) versorgt die US-Marines derzeit noch mit Wasser. Foto: Screenshot YouTube

Während Justizminister Heiko Maas und seine Facebook-Task-Force bisher nur magere Erfolge im Kampf gegen Hasskommentare in sozialen Netzwerken verzeichnen, könnte eine andere Entwicklung dafür sorgen, dass du deine Aggro-Posts schon bald für dich behältst: Autonome Killerroboter, die Social-Media-Posts analysieren, um Terroristen und militärische Gegner besser zu identifizieren und auszuschalten.

Geleakte Dokumente aus dem Pentagon zeigen, dass der Einsatz intelligenter Kampfroboter—entgegen offizieller Verlautbarungen—nicht nur bereits in den nächsten Jahren Realität werden könnte, sondern auch, dass sich die Künstliche Intelligenz dieser Maschinen aus einer unerwarteten Quelle speisen soll, nämlich der Analyse sozialer Netzwerke. Eine Art social-media-affiner Killerroboter, der weiß, welche Zeitungsartikel du klickst und mit wem du befreundet bist.

Offiziell warnt die amerikanische Regierung vor einem globalen Wettrüsten mit intelligenten Kriegsrobotern und verzichtet auf die Entwicklung solcher Waffensysteme. Andererseits verweist der Pentagon-Vize Robert Work mit Blick auf China und Russland darauf, dass die militärische Konkurrenz weniger Bedenken hätte, die Entscheidung, im Krieg zu töten, an Maschinen abzugeben. Die Aussicht auf chinesische und russische Kampfroboter, etwa auf der Krim oder im südchinesischen Meer, erhöhe den Druck auf die USA, sich zu überlegen „wie wir im Wettbewerb am besten bestehen."

Die „Human Systems Roadmap Review" des US-Verteidigungsministeriums, eine 53-seitige Präsentation, die der Enthüllungsplattfotm Insurge Intelligence zugespielt wurde, belegt nun, dass die Obama-Regierung schon sehr genau weiß, wie sie im Wettlauf um die Superwaffen der Zukunft bestehen wird: Mit—wer hätte es gedacht—eigenen Kampfrobotern, nur eben mit dem Bonus-Feature ausgeprägter Social-Media-Skills.

Wie verhindert werden kann, dass Social-Media-Robos unschuldige Accounts zum Angriffsziel erklären, wird in den Dokumenten nicht erwähnt.

Doch was würde es einer Killer-KI bringen, wenn sie deine Facebook-Posts studiert und dir auf Instagram folgt? Wie lassen sich soziale Medien zur Kriegsführung nutzen? Auf einem Slide der geleakten Präsentation, das den Titel „Ausbeutung sozialer Daten" trägt, erklären die US-Strategen, wie die Analyse von Facebook & Co. auf dem Schlachtfeld nützlich sein kann: Die „effektive Auswertung sozialer Einflussgruppen im operativen Umfeld" lasse einerseits Rückschlüsse auf Unterstützer des Feindes zu, andererseits könnten so „Bedrohungen und Schwachstellen" erkannt und ausgenutzt werden. Eine „umfängliche Analyse sozialer Medien" spiele eine „sehr große Rolle" bei der Identifizierung möglicher Bedrohungen, so das Dokument. Die schiere Menge der Open-Source-Daten in den sozialen Medien könne in Verbindung mit der Rechenleistung eines Superroboters eine brauchbare Vorhersage darüber abgeben, wo der Feind als nächstes zuschlagen könnte, wo er sich befindet—oder hinter welcher bürgerlichen Facebook-Maske er sich überhaupt versteckt.

Zugleich hätte der Kampfrobotor einen enormen Wert im immer bedeutsamer werdenden Informationskrieg, wie eines der als „Roadmap" bezeichneten Dokumente erklärt: Einerseits indem er „feindliche Chats" aufspürt und stört, andererseits könne er durch sein hochaggregiertes Wissen über Meinungstrends im Social Web die „Kontrolle über strategische Narrative" erhalten.

Der Fall von Microsofts Nazi-KI zeigt, wie wichtig es ist, ethische Bots zu entwickeln

Die Nutzung umfassender sozialer Daten für die Kriegsführung ist im Pentagon nichts Neues. Im Irak- und Afghanistan-Krieg etwa wurden Soziologen und Kulturanthropologen damit beauftragt, die Anti-Terror-Operationen der US-Truppen durch sozialwissenschaftliche Feldforschung über die lokale Bevölkerung zu flankieren. 725 Millionen Dollar kostete das Experiment, das 2014 mangels messbarer Erfolge als gescheitert galt. Worin genau das Scheitern lag, wird erst jetzt anhand des Pentagon-Papiers deutlich: Die menschlichen Wissenschaftler waren mit der vorhandenen Datenfülle schlichtweg überfordert, ihre Ergebnisse zu ungenau. Die KI-Systeme könnten, so das Papier, die Fehlerquote signifikant reduzieren, indem sie riesige Datenreservoirs durchkämmen, Personen studieren, politische Einstellungen interpretieren und Ereignisse voraussagen.

Ein Ausschnitt aus den veröffentlichten Dokumenten. Bild via Insurge Intelligence

Wie jedoch verhindert werden kann, dass die Social-Media-Robos keine unschuldigen Accounts zum Angriffsziel erklären, bleibt eine offene Frage, die laut Insurge Intelligence an keiner Stelle des Dokuments erwähnt wird. Stattdessen werde der Entwicklungsstand der Such- und Filteralgorithmen gepriesen, die sich bei einem gemeinsamen Testlauf mit der NATO letztes Jahr bewährt hätte. Bei der Übungsoperation mit dem Namen Trident Juncture „kuratierte" eine KI über 2 Millionen relevante Tweets und analysierte über einen Zeitraum von sechs Monaten in Echtzeit 20.000 Tweets und 700 Intagram-Accounts.

Ergebnis der vielleicht ersten Feldstudie eines Kampf-Roboters: Sieben verdächtige Blogs, die Antikriegs-Kampagnen organisierten und die unter anderem aufgrund ihrer „Anti-US und Anti-NATO-Propaganda" ins Visier der KI gerieten. Der Bot analysierte den kompletten Datenfluss der Blogs via Netzwerkanalyse und „cyber-forensischer Techniken" und konnte so die sozialen und kommunikativen Muster der Kriegsfeinde sowie ihrer Freunde entschlüsseln—und damit militärisch nutzbar machen. Unter den als feindlich eingestuften Netzwerken befanden sich Webseiten des War Resisters International (WRI), das sich für Gewaltfreiheit und nicht-militärische Konfliktlösung einsetzt, und der ägyptische Bürgerrechtler Maikel Nabil Sanad, der gegen die Militärregierung in Kairo kämpft und bereits für den Friedensnobelpreis nominiert war.

Der Boston Dynamics LS3 (Legged Squad Support System) versorgt die US-Marines derzeit noch mit Wasser. In Zukunft könnte er den Soldaten aber auch extremere Aufgaben abnehmen.

Paul Scharre vom Washingtoner Thinktank Center for New American Security (CNAS) hält die in Militärkreisen populäre Vorstellung darüber, was autonome Waffensysteme in Zukunft alles besser machen sollen—menschliche Verlust minimieren, exaktere Bedrohungsanalysen, optimierte Datenauswertung—für naiv. In der Software-Industrie enthielten 1.000 Zeilen Code im Schnitt 15 bis 20 Fehler, so Scharre. In KI-Waffensystemen könnten sich solche Fehler unbemerkt multiplizieren und so unerwünschte Konsequenzen haben, erklärt Scharre in seiner neuen Studie. „In Extremfällen könnte ein autonomes System ein ungeeignetes Ziel angreifen, bis das Magazin leer ist. Wenn der Fehler von anderen autonomen Einheiten zeitgleich wiederholt wird, könnte das katastrophale Folgen haben und zu Massentötungen führen."

15 Jahre soll es maximal noch dauern, bis der erste Killerroboter mit Facebook-Account das Licht der virtuellen Welt erblickt. Vielleicht ist es ratsam, bis dahin sämtliche Profile in sozialen Medien zu löschen und die Spuren zu verwischen, aber möglicherweise verwalten dann ohnehin längst Bots unsere Social-Accounts und die können ja dann gerne zum Abschuss freigegeben werden.

Alle veröffentlichten Dokumente könnt ihr auf der Spenden-finanzierten Seite von Insurge Intelligence lesen.

Anzeige