Исследование Стэнфордского университета показало, что компьютерный алгоритм может правильно различать геев и гетеросексуалов в 81% случаев для мужчин и 74% для женщин. Данное исследование подняло вопросы о биологическом происхождении сексуальной ориентации, этичности технологии распознавания лиц, а также вероятности того, что такое ПО может нарушить конфиденциальность или использоваться в целях борьбы с ЛГБТ.
В исследовании, которое появилось в Journal of Personality and Social Psychology и впервые упоминалось в Economist, использовалась выборка из более чем 35 000 изображений лиц, которые мужчины и женщины публично разместили на американском сайте знакомств. Исследователи, Михал Косински и Илун Ван, извлекли особые черты из изображений с помощью «глубоких нейронных сетей», то есть сложной математической системы, которая учится анализировать визуальные эффекты на основе больших данных.
Исследование показало, что мужчины и женщины нетрадиционной ориентации, как правило, имеют «гендерно-атипичные» черты лица, выражения и «стили ухода», что по сути означает, что геи выглядят более женственными, и наоборот. Данные также выявили определенные тенденции, в том числе то, что у геев более узкие челюсти, более длинные носы и более широкий лоб, чем у гетеросексуалов, а также - что у лесбиянок крупнее челюсти и меньше лоб по сравнению с гетеросексуальными женщинами.
Обычным людям определение ориентации давалось намного сложнее - только в 61% случаев для мужчин и 54% для женщин. Когда программа проанализировала по 5 фото каждого человека, процент успеха оказался еще выше - в 91% случаев с мужчинами и 83% с женщинами. В широком смысле это означает, что «в лицах содержится гораздо больше информации о сексуальной ориентации, чем может воспринимать и интерпретировать человеческий мозг», - пишут авторы.
В документе высказывается предположение, что полученные данные «убедительно подтверждают» теорию о том, что сексуальная ориентация связана с воздействием определенных гормонов еще до рождения, то есть, что люди рождаются с нетрадиционной ориентацией, а стать гомосексуалом невозможно. Более низкий показатель успешности ИИ для женщин также может подтвердить мнение о том, что женская сексуальная ориентация гораздо более изменчива.
Хотя результаты исследования несколько ограничены – в нем не рассматривались представители не-европеоидной расы, трансгендеры и бисексуалы – безбрежные последствия для ИИ настораживают. Авторы исследования считают, что с учетом миллиардов изображений лиц, хранящихся в социальных сетях и в государственных базах данных, эти данные могут использоваться для определения сексуальной ориентации людей без их согласия.
Легко представить, что супруги используют эту технологию для проверки своих партнеров, которых они подозревают, или что подростки используют алгоритм на себе или своих сверстниках. Пугает также то, что правительства, которые продолжают преследовать ЛГБТ в судебном порядке, гипотетически могут использовать эту технологию для выявления людей с нетрадиционной ориентацией в масштабе всей страны. Создание и публикация такого ПО вызывает споры. Также возникают опасения, что появятся и вредоносные приложения.
Но авторы утверждают, что технология уже существует, а ее возможности важно правильно раскрыть, чтобы правительства и компании могли проактивно учитывать риски конфиденциальности и оценивать необходимость мер безопасности и регулирования.
«Конечно, опасения не могут не возникать. Как и любой новый инструмент, если он попадет не в те руки, его можно использовать в преступных целях», - сказал Ник Рул, доцент кафедры психологии Университета Торонто, опубликовавший исследование по науке о гей-радаре. «Классификация людей по внешним признакам с последующей идентификацией и возможными негативными последствиями для этих людей- это преступление».
Рул утверждает, что разработка и тестирование этой технологии все еще стоят на первом месте: «Авторы исследования сделали очень смелое заявление о том, насколько значимой может стать эта технология. Теперь мы знаем, что нам нужна защита».
Косински не сразу прокомментировал исследование, но после публикации этой статьи в пятницу он рассказал Guardian об этических вопросах исследования и его последствиях для прав ЛГБТ. Профессор известен своей совместной работой с Кембриджским университетом по психометрическому профилированию, включая использование данных Facebook для того, чтобы сделать определенные умозаключения о личности. Кампания Дональда Трампа и сторонники Брексита использовали аналогичные инструменты для таргетирования избирателей, что вызвало обеспокоенность по поводу широкого использования личных данных на выборах.
В Стэнфордском исследовании авторы также отметили, что ИИ можно использовать для изучения связей между чертами лица и рядом других явлений, таких как политические взгляды, психологические состояния или личность.
Данный тип исследования также вызывает опасения в связи с возможными сценариями развития ситуации, которые напоминают научно-фантастический фильм «Особое мнение», в котором человека могут арестовать исключительно на основании предсказания того, что он совершит преступление.
«ИИ может рассказать вам всё, что угодно, о любом человеке, о котором достаточно данных», - сказал Брайан Бракен, генеральный директор Kairos, компании, занимающейся распознаванием лиц. «Вопрос заключается в том, хотим ли мы это знать?»
По словам Бракина, данные Стэнфордского университета о сексуальной ориентации «поразительно верны» и необходимо уделять больше внимания конфиденциальности и инструментам для предотвращения злоупотребления машинным обучением, поскольку оно становится все более распространенным и продвинутым.
Рул высказал предположение о том, что ИИ может использоваться для активной дискриминации людей на базе машинной интерпретации их лиц: «Мы должны быть коллективно обеспокоены».
***
Больше переводов в нашем telegram-канале «Офигенно News».
Перевод telegram - канал: https://t.me/ofigenno
Продолжение следует...