Поддержать команду Зеркала
Беларусы на войне
  1. «Быстрее бы все это закончилось». Поговорили с рабочим беларусского завода, помогающего России делать снаряды для «Градов»
  2. В Вашингтоне пассажирский самолет столкнулся с военным вертолетом, оба упали в реку. Есть погибшие
  3. Чиновники собираются ввести изменение по валюте. Совет Республики утвердил новшество, на очереди — Лукашенко
  4. Через несколько месяцев появится существенное изменение по пенсиям. Надо совершить одно важное действие, чтобы не остаться без этих денег
  5. Проверки и разборки между владельцами. В Минске признали банкротом частный медцентр
  6. «Отомстить за этого самого Васю». Пропагандист признал, что вторгшиеся в Украину россияне убивают и пытают людей, и разгневал Бондареву
  7. В списке политиков, которые поздравили Лукашенко с «победой» на выборах, появились новые фамилии
  8. Для «тунеядских» и пустующих квартир задним числом ввели новшество. Оно вряд ли понравится владельцам такой недвижимости
  9. Жителя Могилева, которого обвинили в нападении на сотрудников ГУБОПиК, будут судить по расстрельной статье
  10. Генпрокуратура Литвы отправила неоднозначное письмо по поводу паспорта Новой Беларуси. Оно оказалось в распоряжении «Зеркала»
  11. Новшества по ЕРИП и пенсиям, судьба тарифов ЖКУ и дешевая мобильная связь. Подборка важных изменений, которые еще ожидают нас в 2025-м
  12. Политэмигрантка поехала в отпуск в Венесуэлу — и была задержана полицией. Рассказываем, что было дальше и какой беларуска увидела страну
  13. Холода возвращаются, и не в одиночку. Синоптики — о погоде в первые выходные февраля
  14. Путин нашел причину, по которой, по его мнению, невозможны мирные переговоры, и постоянно говорит об этом. Что стоит за его словами — ISW
  15. Лукашенко подписал указ, о котором чиновники «забыли», но документ затрагивает практически каждого жителя страны
Чытаць па-беларуску


Если вам пишет знакомый с просьбой перевести небольшую сумму — легко заподозрить, что это мошенники взломали его аккаунт. Такая схема обмана известна уже много лет. Сейчас ее сильно усовершенствовали: злоумышленники с помощью искусственного интеллекта могут подделать голос и даже видео с вашим близким. «Зеркало» рассказывает, что важно знать, чтобы не попасть в эту ловушку.

Изображение носит иллюстративный характер. Фото: Lana Codes / unsplash.com
Изображение носит иллюстративный характер. Фото: Lana Codes / unsplash.com

В феврале 2024 года мошенники взломали аккаунт оршанца в Telegram, получили доступ к перепискам и сгенерировали поддельное аудио с его голосом. Всем контактам мужчины разослали просьбу помочь и добавили поддельное голосовое сообщение. Звучало достоверно — несколько человек поверили и перевели деньги.

В августе похожую просьбу получила с аккаунта знакомой сотрудница госиздания «Минская правда». У нее попросили 15 тысяч — она ничего не стала переводить.

Скриншот: mlyn.by
Скриншот: mlyn.by

В феврале 2024 года пользователь из России рассказал о мошенниках, которые внимательно изучили его переписку с другом. Они использовали характерное для его приятеля приветствие «Бро, салют», верно назвали марку машины и год окончания вуза. А после прислали фото банковской карты с его фамилией и просьбой перечислить 50 тысяч российских рублей (540 долларов).

Также есть сообщения и о подделке «кружков» с видео в Telegram — их тоже генерируют при помощи нейросетей.

И, возможно, самый коварный вариант этого обмана: голос могут подделать во время звонка в реальном времени.

«Мошенники звонят потенциальной жертве, говорят голосом родственника и рассказывают вымышленную историю — как правило, связанную с какой-то бедой или катастрофой, выход из которой, конечно, есть, но нужно перечислить определенную сумму денег на определенный счет», — описывал эту схему «СберБанк» Беларусь.

Если звонят с аккаунта близкого человека и говорят его голосом — в это сложно не поверить.

Как такое возможно?

Эта технология называется «дипфейк». Современные AI-модели могут создавать очень убедительные имитации голоса.

Мошенники находят аудио-сообщения в диалогах или чатах, загружают их в качестве образца — и могут «сказать» любую фразу голосом этого человека. Достаточно иметь всего несколько минут образца.

Точно так же и с видео: если есть образец — можно сгенерировать имитацию. Получится видео, где человек «говорит» те слова, которые нужны мошенникам.

Дипфейк-видео с актером Морганом Фрименом

Как себя защитить?

— Такие атаки направлены на психику и естественные реакции человека — приходит сообщение — быстро отреагировать на что-то важное. А заподозрить, что сообщение или голос фальшивые, трудно, если они и правда похожи на настоящие. И это нормально! — объясняет эксперт по цифровой безопасности из инициативы CyberBeaver.

Вот несколько советов специалиста на случай, если вы столкнетесь с такой атакой:

  • если вам приходит запрос, на который нужно быстро отреагировать, напишите человеку в другом мессенджере и уточните, действительно ли он/она/они вам его прислали. Если атакован был только один аккаунт человека, то другой вариант связи поможет понять, настоящее ли было сообщение;
  • проверяйте и уточняйте данные, которые вам присылают, через другой канал связи. Возможно, номер карты, ссылка на оплату и другие реквизиты окажутся не связанными с человеком.

Еще один вариант проверки собеседника — спросить что-то, что знаете только вы двое. Только учитывайте, что ответ не должен фигурировать в ваших предыдущих переписках.

Как распознать подделку?

Пока нейросети работают неидеально — и иногда можно заметить странности. Более надежные варианты проверки указаны выше. Но к тому, что вам прислали, тоже есть смысл присмотреться повнимательнее.

В случае с аудиосообщением имитация может быть очень убедительной. Технически возможно быстро генерировать новые сообщения с фальшивым голосом. То есть если вы попросите записать еще одно голосовое — мошенник в теории сможет это сделать. Однако если слушать внимательно, в сгенерированных аудио можно заметить небольшие неестественности в интонации или произношении.

Заранее подготовленное видеосообщение тоже может быть очень убедительным. Для проверки можно попросить выполнить специфические действия: например, покрутить головой, чтобы ее было видно с разных ракурсов.

Подделка голоса во время голосового вызова в Telegram тоже возможна. При этом могут быть какие-то задержки или артефакты в звуке, но это бывает сложно заметить.

Подделать голос и внешность во время видеозвонка технически можно, но пока сложно. Такая атака потребует от мошенника много времени на подготовку. Для проверки попросите во время видеозвонка показать не только лицо, но и окружающую обстановку с разных ракурсов.

И еще несколько универсальных советов

Если вы не хотите, чтобы ваш Telegram взломали:

  • настройте в Telegram двухфакторную аутентификацию («Настройки» — «Конфиденциальность» — «Облачный пароль»). Она добавит дополнительный пароль для входа в аккаунт;
  • не переходите по подозрительным ссылкам;
  • не вводите на сторонних сайтах учетные и персональные данные.

Что делать, если Telegram уже взломали?

Если аккаунт взломали, но у вас остался доступ:

1. Проверьте и закройте незнакомые сессии (С телефона: Настройки > Устройства. С компьютера: Настройки > Конфиденциальность > Безопасность > Показать все сеансы).

2. Включите облачный пароль (двухфакторную аутентификацию) или поменяйте его. С телефона: Настройки > Конфиденциальность > Облачный пароль. С компьютера: Настройки > Конфиденциальность > Безопасность > Облачный пароль.

Если аккаунт взломали, доступ остался, но сеанс мошенника завершить не получается — есть смысл удалить аккаунт. В будущем вы сможете создать новый на этот же номер.

Если ваш аккаунт взломали и вы потеряли к нему доступ — стоит обратиться в техподдержку и описать проблему.