Интересно Deepfake-голос твоей мамы просит денег: как ИИ-мошенники научились взламывать не софт, а доверие

У вас есть с близкими «секретное слово» на случай подозрительных звонков?

  • Да, давно договорились о пароле.

    Голосов: 0 0,0%
  • Нет, я и так отличу фейк от оригинала (наивно!).

    Голосов: 0 0,0%
  • После этого поста пойду и придумаю прямо сейчас.

    Голосов: 0 0,0%

  • Всего проголосовало
    1

SisAdmilf

Support Babylon
Seller
Регистрация
11 Янв 2025
Сообщения
1.013
Репутация
17
Реакции
120
Забудьте про старые фишинговые ссылки. Мы вошли в эпоху «Синтетического вымогательства». Теперь мошенникам не нужно подбирать пароль к твоему кошельку — они просто заставляют тебя отдать его добровольно.

Как это работает в 2026-м:

  1. Клонирование личности за 3 секунды: Злоумышленнику достаточно короткого видео из твоего TikTok или кружочка в Telegram, чтобы полностью скопировать твой голос и мимику.
  2. Атака «Срочный случай»: Тебе звонит «друг» или «родственник» по видеосвязи. Картинка идеальная, голос — один в один. Он в панике, просит срочно принять перевод или подтвердить транзакцию. Твой мозг не успевает включить критическое мышление, потому что ты видишь знакомое лицо.
  3. Психологический взлом: ИИ анализирует твои соцсети и понимает, на какую тему ты сорвешься быстрее всего. Кого-то пугают долгами, кого-то — проблемами у близких.
Реальный кейс: Недавно в Гонконге сотрудник компании перевел $25 млн мошенникам, потому что побывал на видеоконференции, где все участники, включая директора, были ИИ-клонами. Он был единственным живым человеком на звонке и даже не заподозрил подвоха.

Инструменты для защиты просто не успевают за инструментами для обмана. Мы становимся беззащитными перед «идеальной ложью».
 
Назад
Сверху Снизу