В американском Броварде, штат Флорида, был зафиксирован один из первых случаев мошенничества с недвижимостью с использованием технологий искусственного интеллекта. В компанию, занимающуюся оформлением прав на собственность, поступило обращение от предполагаемой владелицы пустующего участка земли. Женщина выразила намерение продать участок, но испытывала трудности с подтверждением своих прав на него. Сотрудники компании, чтобы разобраться в ситуации, предложили провести видеозвонок для уточнения деталей.
Во время видеосвязи представители компании заметили странности: изображение на экране выглядело необычно, а поведение женщины вызвало подозрения. В ходе проверки выяснилось, что человек, представлявшийся владельцем, числится пропавшим без вести уже несколько лет. Более детальное исследование инцидента показало, что злоумышленники применили дипфейк для прохождения проверки и получения прав на участок.
К сожалению, подобные схемы, вероятно, станут более распространенными. Основные сведения о владельцах недвижимости зачастую находятся в свободном доступе, а если их объединить с информацией, полученной из социальных сетей, искусственному интеллекту не составляет труда создать фальшивую личность. Такая проблема касается не только рынка недвижимости: случаи, когда мошенники используют ИИ, чтобы выдать себя за другого человека ради получения ценностей, становятся новой нормой.
Обществу срочно нужны современные меры защиты от угроз цифрового прогресса. Уже сегодня злоумышленники с помощью ИИ способны подделать голос человека, чтобы воздействовать на его родственников. Например, во время предвыборной кампании в США некоторые избиратели сообщали, что им звонил «сам Байден», призывая саботировать выборы. Люди были уверены, что слышали голос президента, хотя на самом деле это был искусственно созданный обман.