FYI.

This story is over 5 years old.

социальные медиа

Ваш телефон может распознать у вас депрессию

Но должен ли он это делать?
Photo via Getty Images.

В прошлом месяце исследователи с факультета психологии Гарварда и из Лаборатории вычислительных историй Вермонтского университета обнародовали результаты интересного исследования: разработанный ими алгоритм сумел распознать признаки депрессии с большей точностью, чем врач, просто проанализировав содержимое ленты человека в Instagram. Просканировав содержание почти 44,000 фото от 166 участников, программа спрогнозировала диагноз «клиническая депрессия», выполнив синтаксический анализ данных обнаружения лиц, показателей активности на платформах, метаданных, а также цветового анализа. Ключи к психическому здоровью участников были спрятаны на видном месте – от количества селфи и количества других людей на фото до определённых фильтров, которыми с наибольшей вероятностью обрабатывают изображения люди в депрессии. (Если вам интересно, речь идёт об Inkwell.)

Реклама

Данная область исследований – поиск диагностических данных в наших взаимодействиях с такими устройствами, как смартфоны – называется цифровым фенотипированием. Его основным принципом является то, что наши девайсы – это кладези подлежащих количественной оценке медицинских данных, которые ждут, когда их раскроют и проанализируют. Как часто вы выходите из дома? Ваш GPS знает. Как часто вы взаимодействуете с друзьями? Знают ваши журналы текстовых сообщений. Перемещаетесь ли вы в течение дня или в основном прикованы к дивану, где лежите на спине без движения и обляпываетесь китайской лапшой? Знает как ваш акселерометр, так и ваша учётная запись на Postmates. А будучи вооружённым надлежащим пониманием того, как эти подробные данные могут образовывать характеристику пациента, ваш врач может тоже когда-нибудь узнать об этом.

«Эти технологии отчасти делает одновременно ценными и проблематичными то, что они могут делать то, чего не могут делать люди, – говорит Пол Рут Волп, профессор биоэтики, старший биоэтик НАСА и директор Центра этики Университета Эмори. К примеру, они могут находить скрытые тревожные сигналы в метаданных ваших постов с хэштегом #TBT или прогнозировать у вас скорый маниакальный эпизод, основываясь на том, как кончики ваших пальцев взаимодействуют с сенсорным экраном. – «Если бы мы сказали: «У нас есть технология, способная создать изображение вашего лица и достаточно надёжно определить, грустны вы или разгневаны», большинство людей отреагировали бы так: «Ну и что? Я тоже так могу». А вот когда они начинают делать то, чего мы не можем, нам уже начинает становиться неловко».

Реклама

Хотя эта наука ещё совсем юна, подобные исследования привлекли огромное внимание журналистов – и горы денег. Ginger.io, платное приложение, пользующееся подобной «пассивной слежкой» для того, чтобы обеспечивать пользователям индивидуальную поддержку в связи с психическим здоровьем, собрало почти 30 миллионов долларов на этапах финансирования Серии A и B. В этом же году бывший руководитель Национального института психического здоровья создал стартап по цифровому фенотипированию, Mindstrong, где, как сообщает WIRED, «одним из первых испытаний данной концепции станет исследование того, как 600 человек пользуются мобильными телефонами, в попытке определить корреляцию схем использования клавиатуры с такими исходами, как депрессия, психоз или мания». Mindstrong подал несколько патентов, нацеленных на измерение функционирования мозга «по закономерностям взаимодействия, непрерывно пассивно фиксируемым на интерфейсах «человек-компьютер», которые существуют в вездесущей мобильной технике". Как утверждает один из патентов, сбор этих данных будет осуществляться посредством записи координат GPS, акселерометра и гироскопа, входящих/исходящих телефонных звонков, электронных писем и текстовых сообщений, посещённых адресов в Интернете, прочитанных книг, сыгранных игр… ну, вы поняли. Mindstrong в июне этого года собрал 14 миллионов долларов на этапе финансирования Серии A.

Тем временем в Verily от Google проходит Baseline – масштабное, долговременное исследование здоровья населения, собирающее огромные массивы данных в течение четырёх лет от 10 000 своих участников с носимыми девайсами и анализирующее «кровь, геном, мочу, слёзы, активность, определённую носимым девайсом, работу сердца, сон и состояние психики», как рассказал один стэнфордский исследователь WIRED. Исследователи из Стэнфорда и Университета Дьюка получат приоритетные права на эти данные, которые затем, спустя два года, будут открыты другим медицинским исследователям .

Реклама

Последствия существования этой области и ей подобных для реального мира, несомненно, огромны. «Представьте себе приложение, которое можно установить на телефон и которое сигнализирует вашему врачу о необходимости контроля, когда ваше поведение меняется в худшую сторону, возможно, ещё до того, как вы вообще поймёте, что проблема существует», – заявил доктор Кристофер Дэнфорт, соавтор исследования Instagram, согласно цитате из пресс-релиза исследования. А это революционно – особенно для групп населения с ограниченным доступом к обслуживанию. Пока вы живёте своей жизнью как обычно, ваш телефон может постоянно искать намёки на проблемные изменения в поведении, оповещая вашего врача, когда всё принимает нехороший поворот.

Эта новая область исследований поднимает этические вопросы, существующие гораздо дольше айфонов и лент в социальных сетях. Волп сравнивает это с классическим гипотетическим вопросом, который врачи задают этикам: если врач сидит в кино и замечает человека с родинкой неправильной формы на шее, должен ли он сообщить человеку об этом? «Вокруг анонимного уведомления людей о некоей медицинской проблеме, обнаруженной по той или иной причине, уже давно существует целый диалог, – говорит Волп. – Так что в определённом смысле это вопрос не новый». Но если алгоритм уже может взглянуть на ваши взаимодействия и указать диагноз, то новые этические вопросы начинают множиться, словно головы гидры.

Реклама

Вот пример: вам бы больше хотелось, чтобы вас уведомили о меняющем всю жизнь диагнозе в непосредственном разговоре с врачом или с помощью принудительного уведомления? «Это совершенно разные взаимодействия», – объясняет Волп. Ещё есть вопрос оповещения врача в обход пользователя. «Вопрос о том, кого следует уведомлять об этом, интересен, – говорит Волп. – Если бы речь шла о программе, которая бы замечала родинки у людей на лицах, видела, что некоторые из них выглядят подозрительно, и уведомляла человека, то это одно. Но теперь мы говорим об уведомлении третьего лица». Что, если приложение уведомит не того врача? Автоматическое оповещение другого человека в обход пользователя представляется откровенно искусственным и очевидно уязвимым для ошибок. «На мой взгляд, жутким это кажется из-за того, что в этом не участвует ни один человек, особенно в этом предположении, что это можно использовать для автоматического уведомления человека», – говорит Волп.

И конечно, никуда не девается вездесущая ахиллесова пята техники – вопрос о том, можно ли фиксировать подобные данные, сохраняя при этом конфиденциальность и обеспечивая безопасность этим данным. Именно поэтому 43 процента изначальных участников исследования Дэнфорта и Риса ушли после отказа дать согласие на то, чтобы поделиться данными из социальных сетей. Лишь в прошлом году исследователи кое-как собрали идентифицируемые персональные данные у 70,000 с лишним пользователей OkCupid без их согласия и обнародовали их в Интернете. Служба генетических анализов 23andMe накапливает и продаёт генетические данные так же, как Google показывает вашу историю поиска рекламодателям. Люди не просто так скептически относятся к подобной уязвимости или эксплуатации – тем более в тех случаях, когда речь идёт о проблемных, связанных с отрицательными стереотипами вопросах вроде психического здоровья. Можно лишь представить себе, насколько хреново будет, если подобные данные обнародует хак уровня Ashley Madison.

Подобная техника невероятно перспективна. Она могла бы совершить коренной сдвиг в системе здравоохранения, упростить людям доступ к нужному им обслуживанию, а также предоставить бесценные данные исследованиям психического здоровья. Также в ней полно и тревожных признаков. Речь идёт о проблемах конфиденциальности, последствиях ложно-положительных и ложно-отрицательных результатов, а также правовой ответственности. Вызов заключается в том, чтобы определить, насколько мы готовы пожертвовать последним ради первого.

Следите за сообщениями Грэй Чэпмен на Twitter.