В 2022 году в мире зарегистрировали первые случаи мошенничества с применением технологий искусственного интеллекта. Злоумышленникам теперь под силу имитировать голос по телефону или образ по видеосвязи.
Об этом рассказали эксперты Роскачества.
Хакеры могут использовать фрагмент разговора жертвы и клонировать его голос - достаточно 20 секунд беседы или монолога.
«Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота. Схема обмана та же, но инструменты более прогрессивные. ИИ (искусственный интеллект. – Прим. ред.) звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП», - рассказали специалисты.
Они предупредили, что после подобных разговоров следует сразу звонить родным и знакомым, которым якобы потребовались средства. Хорошее решение - придумать кодовое слово, которое поможет идентифицировать близкого в случае экстренной ситуации.
Также мошенники научились использовать дипфейки. Это технология, которая позволяет наложить ненастоящие изображения или видеокадры на реальные.
«За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями», - отметили в Роскачестве.
Пока волна дипфейков наблюдается в Юго-Восточной Азии, Африке, но ожидается, что в скором времени она дойдет и до России. Эксперты полагают, что в ближайшем будущем звонки от «силовых ведомств» и «сотрудников банков» будут делать программные алгоритмы на базе нейросетей.
Чтобы защититься, специалисты посоветовали сохранять бдительность и проверять информацию.
Сетевое издание СМИ «ПензаИнформ», © 2011—2024