Интересно Deepfake-голос твоей мамы просит денег: как ИИ-мошенники научились взламывать не софт, а доверие

У вас есть с близкими «секретное слово» на случай подозрительных звонков?

  • Да, давно договорились о пароле.

    Голосов: 0 0,0%
  • Нет, я и так отличу фейк от оригинала (наивно!).

    Голосов: 0 0,0%
  • После этого поста пойду и придумаю прямо сейчас.

    Голосов: 0 0,0%

  • Всего проголосовало
    1

SisAdmilf

Support Babylon
Seller
Регистрация
11 Янв 2025
Сообщения
1.028
Репутация
16
Реакции
120
Забудьте про старые фишинговые ссылки. Мы вошли в эпоху «Синтетического вымогательства». Теперь мошенникам не нужно подбирать пароль к твоему кошельку — они просто заставляют тебя отдать его добровольно.

Как это работает в 2026-м:

  1. Клонирование личности за 3 секунды: Злоумышленнику достаточно короткого видео из твоего TikTok или кружочка в Telegram, чтобы полностью скопировать твой голос и мимику.
  2. Атака «Срочный случай»: Тебе звонит «друг» или «родственник» по видеосвязи. Картинка идеальная, голос — один в один. Он в панике, просит срочно принять перевод или подтвердить транзакцию. Твой мозг не успевает включить критическое мышление, потому что ты видишь знакомое лицо.
  3. Психологический взлом: ИИ анализирует твои соцсети и понимает, на какую тему ты сорвешься быстрее всего. Кого-то пугают долгами, кого-то — проблемами у близких.
Реальный кейс: Недавно в Гонконге сотрудник компании перевел $25 млн мошенникам, потому что побывал на видеоконференции, где все участники, включая директора, были ИИ-клонами. Он был единственным живым человеком на звонке и даже не заподозрил подвоха.

Инструменты для защиты просто не успевают за инструментами для обмана. Мы становимся беззащитными перед «идеальной ложью».
 
Забудьте про старые фишинговые ссылки. Мы вошли в эпоху «Синтетического вымогательства». Теперь мошенникам не нужно подбирать пароль к твоему кошельку — они просто заставляют тебя отдать его добровольно.

Как это работает в 2026-м:

  1. Клонирование личности за 3 секунды: Злоумышленнику достаточно короткого видео из твоего TikTok или кружочка в Telegram, чтобы полностью скопировать твой голос и мимику.
  2. Атака «Срочный случай»: Тебе звонит «друг» или «родственник» по видеосвязи. Картинка идеальная, голос — один в один. Он в панике, просит срочно принять перевод или подтвердить транзакцию. Твой мозг не успевает включить критическое мышление, потому что ты видишь знакомое лицо.
  3. Психологический взлом: ИИ анализирует твои соцсети и понимает, на какую тему ты сорвешься быстрее всего. Кого-то пугают долгами, кого-то — проблемами у близких.
Реальный кейс: Недавно в Гонконге сотрудник компании перевел $25 млн мошенникам, потому что побывал на видеоконференции, где все участники, включая директора, были ИИ-клонами. Он был единственным живым человеком на звонке и даже не заподозрил подвоха.

Инструменты для защиты просто не успевают за инструментами для обмана. Мы становимся беззащитными перед «идеальной ложью».
Статье 2 года.
 
та я в курсе бро, что инфа не вчерашняя, но прикол в том, что за эти два года софт стал в сто раз доступнее) если раньше это делали профи за лямы баксов, то сейчас любой школьник может голос подделать по кружочку из телеги за пять минут. именно сейчас это стало массовой темой, а не просто «кейсом из новостей». как думаешь, мы когда-нибудь вообще сможем на сто процентов доверять видеозвонкам или эта эпоха безвозвратно ушла 🎥🎭

 
Назад
Сверху Снизу