Anzeige
technik

Dein Handy weiß, ob du psychisch krank bist

Aber sollte es das?

von Gray Chapman
16 September 2017, 5:30am

Foto: Mirøslav Hristøff | Flickr | CC BY 2.0

Ein Algorithmus kann Anzeichen der Depression akkurater erkennen als ein Arzt, indem er einfach nur den Instagram-Feed der Person analysiert. Das fanden Psychologieforscher von der Harvard University und der Arbeitsgruppe Computational Story Lab an der University of Vermont vor Kurzem in einer Studie heraus. Niemandem vertrauen wir so viel über uns an wie unserem Handy und unseren diversen Profilen. Aber wie viel so ein Gerät oder eine Online-Plattform wirklich über uns weiß, zeichnet sich gerade erst ab.

Die Forscher scannten fast 44.000 Posts von 166 Probanden. Um Depressionen vorherzusagen, nutzte das Programm Gesichtserkennung, Daten zur Plattformnutzung, Metadaten und Farbanalyse. Die Hinweise auf den psychischen Zustand der Teilnehmer waren dabei für alle Welt sichtbar: Wie viele Selfies postet die Person? Wie viele andere Personen sind mit ihr im Bild? Welche Filter legt sie über die Fotos? (Der bei Depressiven beliebteste Filter ist "Inkwell".)


Auch bei VICE: Fake-Beerdigungen in Südkorea


Digitales Phenotyping – so nennt sich das, wenn unsere Interaktionen mit Geräten wie Smartphones für diagnostische Zwecke ausgewertet werden. Der Forschungszweig geht davon aus, dass unsere Geräte einen großen Vorrat an messbaren medizinischen Daten über uns enthalten. Wie oft gehst du aus dem Haus? Das GPS weiß es. Wie oft hast du mit Freunden zu tun? Deine gesendeten und empfangenen Nachrichten verraten es. Bist du tagsüber aktiv, oder hängst du fast durchgehend auf der Couch und krümelst dich mit Chips voll? Der Beschleunigungssensor in deinem Handy lügt nicht. Und wenn sich diese Daten zu einem Patienten-Profil zusammenfügen lassen, weiß vielleicht auch eines Tages dein Arzt all diese Dinge.

"Diese Technologie ist wertvoll und zugleich problematisch, weil sie etwas kann, das kein Mensch kann", sagt Paul Root Wolpe, ein leitender Bioethiker der NASA und Bioethik-Professor an der Emory University im US-Staat Georgia. Vielleicht könnte die Technologie zum Beispiel eine Warnung auslösen, wenn die Metadaten zu deinen Posts und Hashtags bedenklich wirken. Oder sie könnte basierend auf deinen Tast- und Wischbewegungen erkennen, ob dir eine manische Episode bevorsteht. "Wenn wir den Leuten sagen würden: 'Wir haben eine Technik, die anhand eines Fotos erkennen kann, ob Sie wütend oder traurig sind', dann wären die meisten wenig beeindruckt, denn das wissen sie ja selbst", sagt Wolpe. "Aber wenn die Technik Dinge macht, zu denen wir nicht selbst fähig sind, wird es uns unangenehm."

Dass unsere digitalen Aktivitäten dermaßen viel über uns verraten, ist noch nicht lange bekannt, aber es gibt bereits massives Medieninteresse – und viele Investoren. Ginger.io ist eine kostenpflichtige App, die Nutzer durch "passives Tracking" mit einer maßgeschneiderten Gesundheitsberatung versorgt. In ihren ersten zwei Finanzierungsrunden hat die App fast 30 Millionen Dollar von Investoren erhalten. Mindstrong ist ein Start-up für digitales Phenotyping, gegründet von Tom Insel, dem ehemaligen Chef der US-Forschungsbehörde für psychische Gesundheit, NIMH. Laut Wired wird Mindstrong bald eine Studie durchführen, "bei der die Handynutzung von 600 Personen analysiert wird, wobei man versuchen wird, Tastaturnutzungsmuster mit Krankheitsbildern wie Depressionen, Psychose und Manie zu korrelieren". Mindstrong hat bereits mehrere Patente angemeldet, bei denen es darum geht, Hirnfunktionen zu messen, "aus passiv und kontinuierlich erfassten Interaktionsmustern mit Mensch-Maschine-Schnittstellen, wie sie sich in der mobilen Technik überall finden". Laut einem solchen Patent gehören zu den Daten, die erfasst werden sollen: Koordinaten aus GPS, Beschleunigungssensor und Gyroskop; ein- und ausgehende Anrufe, E-Mails und Textnachrichten; besuchte URLs, gelesene Bücher, gespielte Spiele ... und so weiter. In der ersten Finanzierungsrunde im Juni brachte Mindstrong es auf 14 Millionen Dollar.

Die Google-Forschungseinrichtung für Biowissenschaften Verily arbeitet in der Zwischenzeit an Baseline. Diese Studie zur öffentlichen Gesundheit sammelt über 4 Jahre Daten von 10.000 Probanden. Die spezielle Smartwatch, die alle Teilnehmer tragen, sammelt Daten zu "dem Blut, dem Genom, dem Urin, den Tränen, der Aktivität, dem Herzen, dem Schlaf und dem Gemütszustand", sagte ein Stanford-Forscher gegenüber Wired. Wenn die Studie abgeschlossen ist, dürfen Forscher an den Universitäten Stanford und Duke sie zuerst auswerten, nach zwei Jahren werden die Ergebnisse anderen Forschern zugänglich gemacht.

Die möglichen Auswirkungen auf unser Leben sind enorm. "Stellen Sie sich eine App vor, die von Ihrem Handy aus Ihren Arzt verständigt, wenn Ihr Verhalten sich zum Schlechten ändert – noch bevor Sie selbst ein Problem bemerken", schreibt Christopher Danforth, ein Mitautor der Instagram-Studie, in einer Pressemitteilung. Das ist bahnbrechend, vor allem für Menschen, die keinen einfachen und regelmäßigen Zugang zu medizinischer Versorgung haben.

All das wirft ethische Fragen auf, die es nicht erst seit dem iPhone gibt. Wolpe zieht einen Vergleich zu einem klassischen Gedankenexperiment aus der Medizin: Wenn ein Arzt im Kino sitzt, und in der Reihe vor ihm hat jemand ein auffälliges Muttermal, soll er es dieser fremden Person sagen? "Ob man Menschen anonym über ein Gesundheitsproblem informieren soll, ist im Grunde keine neue, sondern eine historische Frage", sagt Wolpe. Doch wenn ein Algorithmus aus deinen Fingerbewegungen eine Diagnose zusammensetzt, schießen neue ethische Fragen wie Pilze aus dem Boden.

Zum Beispiel: Wäre es dir lieber, eine wichtige Diagnose in einem persönlichen Gespräch zu erhalten, oder in einer digitalen Nachricht? "Das sind zwei sehr verschiedene Interaktionen", betont Wolpe. Dann ist da die Frage, ob es überhaupt möglich sein sollte, dass ein Gerät ohne das Zutun des Nutzers einen Arzt verständigt. "Wer die Informationen erhalten sollte, ist eine wichtige Frage", sagt Wolpe. "Wenn es eine Software gäbe, die auffällige Muttermale erfasst und Betroffene davor warnt, wäre das eine Sache. Aber wir sprechen hier davon, dass Dritte benachrichtigt werden sollen." Was, wenn die App den falschen Arzt informiert? Automatische Meldungen ohne einen Befehl des Nutzers wirken nicht nur sehr künstlich, sondern extrem anfällig für Fehler. "Ich denke, wir finden es unheimlich, wenn kein Mensch beteiligt ist, vor allem wenn es darum geht, dass dann eben doch ein weiterer Mensch etwas erfährt", sagt Wolpe.

Und dann ist da natürlich die immerwährende Achillesferse des Digitalen: Lassen sich derartige Daten erfassen, ohne die Privatsphäre und Sicherheit der Patienten zu gefährden? Bei der kürzlich erschienen Instagram-Studie brachen 43 Prozent der Teilnehmer ab, weil sie nicht gewillt waren, ihre Social-Media-Daten zu teilen. Erst vergangenes Jahr sammelten Forscher persönliche Daten von mehr als 70.000 Nutzern der Dating-Plattform OKCupid und veröffentlichten das Datenpaket ohne deren Erlaubnis. Die Gentest-Firma 23andMe sammelt und verkauft genetische Daten, so wie Google deine Suchanfragen an Werbekunden verkauft. Es gibt gute Gründe, diese Art der Ausbeutung zu fürchten – vor allem in einem stigmatisierten und heiklen Bereich wie der psychischen Gesundheit. Man stelle sich einen Hack-Angriff wie den auf Ashley Madison vor, nur mit Daten zur geistigen Verfassung der Nutzer.

Diese Art der Technik ist vielversprechend. Sie könnte unsere Gesundheitsversorgung verbessern und wertvolle Erkenntnisse für die Erforschung der Psyche liefern. Aber sie ist auch ein Minenfeld aus Möglichkeiten zum Missbrauch. Die automatische Diagnostik wirft nicht nur Fragen der Privatsphäre auf, sondern auch der Fehldiagnose und der rechtlichen Haftung. Wenn wir den Fortschritt nutzen wollen, müssen wir noch herausfinden, wie wir das Gute gegen das Schlechte abwägen.

Folge VICE auf Facebook, Instagram und Snapchat.

Tagged:
Instagram
Social Media
medizin
Datenschutz
Psychologie
HANDY
Psychische Gesundheit
Bioethik