FYI.

This story is over 5 years old.

Tech

Wie die CIA in den 80ern ihren Agenten mit einem Chatbot-Verhör traktierte

Neue Dokumente zeigen, dass die CIA wiederholt einen eigenen Mitarbeiter mit Hilfe einer künstlichen Intelligenz vernommen hat, die bei dem Opfer vor allem quälende Langeweile ausgelöst haben dürfte.
Bild: Autpilot/ Wikimedia CommonsCC BY-SA 3.0

Auch wenn die Behörde vielleicht eher Assoziationen an Akten und beanzugte Bürohengste assoziiert, hat sich die CIA über die Jahre hinweg einige Originalität in der Entwicklung „innovativer" neuer Verhörmethoden bewahrt. Vorausgesetzt man bezeichnet zivlisatorische Errungenschaften wie Waterboarding als innovativ. Die Experimentierfreude bei Verhörmethoden des US-Geheimdienstes wartet bereits mit einer eigenen, kleinen Historie auf, wie neu zugängliche Dokumente jetzt enthüllen.

Anzeige

Mit Hilfe einer künstlichen Intelligenz namens Analiza ließ die CIA Anfang der 1980er Jahre wiederholt einen ihrer eigenen Agenten vernehmen, der im Bericht als Joe Hardesty bezeichnet wird. Das 1983 verfasste Dokument beschreibt nun eine Reihe experimenteller Tests, die damals auf diese Art durchgeführt wurden.

Die Dokumente sind sowohl in ihrer retrofuturistischen Anmutung als auch in ihrer unheimlichen Vorahnung faszinierend—denn die US-Regierung ist mittlerweile tatsächlich imstande, inländische Sicherheitsverhöre durch virtuelle Robo-Ermittler vornehmen zu lassen. Außerdem ist die Akte mit dem geheimnisvollen Titel „Verhör eines mutmaßlichen CIA-Agenten" verdammt unterhaltsam, denn das Verhörprotokoll liest sich wie die Unterhaltung mit einem enorm frustrierenden Chatbot. Hier eine Kostprobe:

KI: Du überdenkst mal besser ganz schnell deine Einstellung, Joe, oder du wirst dieses Land sehr, sehr lange nicht verlassen.

Hardesty: Was soll das denn heißen?

KI: Du weißt, was ich meine.

Hardesty: Nein, weiß ich nicht.

KI: Denk mal drüber nach.

Hardesty: Warum?

KI: Warum willst du wissen, warum?

Hardesty: Du hast mir gedroht und ich will eine Erklärung.

KI: Ich denke, die Botschaft ist klar.

Hardesty: Welche Botschaft?

KI: Arbeitest du für die amerikanische CIA?

Hardesty: Nee, auf keinen Fall.

KI: Warum lügst du mich so hartnäckig an?

Hardesty: Ich lüge nicht. Du hast kein Recht, mich so zu behandeln.

Anzeige

Die KI scheint eher unterentwickelt zu sein. Ihr investigatives Repertoire besteht lediglich aus offenen Fragen und vorgefertigten Drohungen, die das verhörte Subjekt auf mysteriöse Weise dazu verleiten sollen, ihre Geheimnisse auszuplaudern.

Laut des Dokuments bestand Analiza hauptsächlich aus einem grobschlächtigen Algorithmus, welcher Hardestys Antworten in seinem Speicher verwaltete und sich gleichzeitig aus einer voreingestellten Fragedatenbank bediente.

„Andere Aspekte des Programms untersuchen Joes Schwachstellen", so der Bericht. „Die KI speichert sogenannte Fokusvariablen (Joes Tendenz, sich auf verschiedene Themen zu beschränken) und Profilvariablen (Indikatoren für Joe's Feindseligkeit, Wissbegierde, Geschwätzigkeit und Verständlichkeit in bestimmten Momenten). So soll es gelingen, ihn präziser dazu auszufragen."

Immerhin hatten die Autoren schon damals ein ausgeprägtes Verständnis davon, wie zukünftige Computer eigenständig lernen, sich anpassen und abstrakt denken könnten. So hat die CIA laut der Dokumente schon in den 80ern die Möglichkeit gesehen, dass Computer „Ziele verfolgen", „sich selbst oder andere Computer modifizieren" und „um die Ecke denken" könnten.

Ein Anwendungsbereich von Analiza hätte das Training von Rekruten sein können, bevor diese in Zielgebiete geschickt und dem Risiko eines Verhörs durch menschliche oder nicht-menschliche Gegner ausgesetzt würden.

Anzeige

Seit den 1980er Jahren hat sich die CIA, so wie der gesamte High-Tech-Bereich und die Advanced Neural Networks rapide weiterentwickelt. Algorithmen, die den Denkprozess imitieren sollen, wie sie zum Beispiel von Google entwickelt wurden, haben schon viele der Ziele erreicht, die sich die CIA vor Jahrzehnten gesteckt hatte. Inzwischen beschäftigt sich der US-Geheimdienst verstärkt mit der KI-Entwicklung durch ihre Venture-Firma In-Q-Tel. Diese spendierte erst kürzlich eine amtliche Finanzspritze für Narrative Science, eine Firma, die eine KI entwickelt, welche Informationen aktiv verarbeitet und in einen halbwegs lesbaren Nachrichtenartikel verwandelt.

Wenn der technologische Fiebertraum der CIA aus den 80ern jemals fruchten wird, könnte der Bereich „Enhanced Interrogation Methods" schon bald eine neue, beunruhigende Dimension annehmen. KI-Verhöre, obwohl wahrscheinlich viel weniger gewalttätig und abscheulich als beispielsweise Waterboarding, könnten zu völlig neuen, moralischen Grenzüberschreitungen führen.

Denn wenn dein Geiselnehmer eine Maschine ist, gibt es keine Menschlichkeit weit und breit, und niemanden, bei dem du um Gnade bitten kannst. Wenn sogar dieser kleine Korridor der Menschlichkeit im staatlich gesponserten Barbarismus abgeschafft wird, was bleibt dann noch übrig? Illegale Verhaftungen könnten einfach weiterlaufen, während Menschen darin nur minimal involviert sind.

Seit den ersten Versuchen der CIA mit KI-Verhörmethoden sind Jahrzehnte vergangen, doch trotz aller Entwicklungen sind wir von virtuellen Einheiten, die mühelos mit Menschen plaudern können, immer noch sehr weit entfernt.

Der jüngste Fall des Chatbots Eugene Goostman, der den Turing Test eher durch Trickserei als dank echter Intelligenz bestand, hat gezeigt, dass künstliche Intelligenz zwar schon weit fortgeschritten ist, aber gleichzeitig auch noch einige Entwicklungen für eine breitere Alltagstauglichkeit nötig sind. Wenn jedoch mächtige Regierungsorganisationen wie die CIA, die DARPA und ebenso omnipotente Unternehmen wie Google an der Sache dran sind, könnte diese Fiktion bereits näher sein, als wir denken.