Лента новостей
Лента новостей
09:30
Утром над Белгородской областью сбили 14 украинских БПЛА
09:03
Видео
Экипаж Ми-35М поддержал с воздуха подразделения группировки «Север»
08:40
Видео
Два человека погибли при столкновении парусника с мостом в Нью-Йорке
08:24
В Польше началось голосование на выборах президента
08:00
Видео
В России отмечают 322-ю годовщину со дня основания Балтфлота
07:38
Видео
При столкновении корабля с Бруклинским мостом пострадали 19 человек
07:29
Видео
В Мариуполе нахимовцы заложили аллею героев в рамках акции «Сад памяти»
07:02
Орбан обвинил Украину в «клеветнических акциях»
06:35
Publico: Зеленский хотел устроить скандал на переговорах с Россией
06:30
Видео
Баня и сушка мяса: как выглядит подземный тыловой комплекс в зоне СВО
06:02
Видео
Судно ВМС Мексики с людьми на борту врезалось в Бруклинский мост в Нью-Йорке
05:46
В МВД рассказали, когда можно не ставить подпись в паспорте
05:16
Al Jazeera: 36 человек погибли от авиаударов ЦАХАЛ по лагерю беженцев Газы
05:00
Видео
FPV-дрон «Востока» уничтожил БТР Stryker на Южно-Донецком направлении
04:31
Израиль сообщил о перехвате запущенной из Йемена ракеты
04:17
ФБР назвало терактом взрыв бомбы возле больницы в Калифорнии
03:53
Орбан призвал ЕС последовать примеру США по вопросам Украины
03:10
NYT: в центральной части США из-за штормов погибли не менее 27 человек
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков

В России уже появились первые жертвы обмана при помощи нейросетей.
14 декабря 2021, 21:42
Реклама
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Сорок пять миллионов рублей - на такую сумму только по официальным данным МВД телефонные и интернет-мошенники обманули россиян с начала года. При этом способы нажиться на доверчивости граждан становятся все изощреннее и технологичнее. Одна из новинок - обман с использованием видеосообщений с дипфейками.

Схожесть с голливудским актером - повтор мимики, движений и голоса - самое безобидное применение нейросетей. В перспективе - это бомба замедленного действия. Пострадавших будут исчислять миллионами, а потерянные деньги миллиардами. В сети распространяется новый вид мошенничества с использованием дипфейков по видеосвязи. Аферисты используют поддельное изображение и голос человека, звонят его родственникам или деловым партнерам, выманивают крупные суммы.

Одними из первых жертв мошенников в России стали клиенты банка Олега Тинькова. Киберпреступники записали видео с компьютерной копией владельца кредитной организации. Она обещала быстрый доход в половину от вложенной на счет суммы. Сам счет, естественно, принадлежал мошенникам.

В России из-за сложности реализации дипфейки пока используются не так активно. В мире жалоб на мошенников, звонящих по видеосвязи, все больше. В основном, жертвы - знаменитости.

«Для того, чтобы подделать человека, нейросетку нужно обучить, нужно много видеозаписей, тут, скорее, речь идет о звездах, чьих фотографией достаточно много», - говорит исполнительный директор сервиса облачного видеонаблюдения Заур Абуталимов.

Совершенно иная ситуация с телефонными звонками, когда преступники подделывают голоса родственников, знакомых и даже начальства своих жертв. Работница одного из магазинов игрушек по звонку лжеруководителя, голос которого был в точности как на настоящий, перевела деньги на незнакомый счет.

«Позвонил на работу телефон, который определился как один из начальников моих, и голос был идентичный настолько, что даже сомнений не вызвало, что это он... Там была 75 тысяч сумма, и еще была история в том, что сначала позвонили не на рабочий телефон, а моей непосредственной начальнице на мобильный», - говорит пострадавшая Варвара Мормашева.

Более опытные мошенники охотятся за крупным уловом. В ОАЭ с помощью дипфейк-голоса обманули работника банка. Тот поддался на предлог проведения срочной сделки и перевел киберпреступникам 35 миллионов долларов. Эксперты говорят, в эпоху развития нейросетей и систем распознавания лица, пользоваться сервисами идентификации внешности становится небезопасно.

«Если бы мы говорили только о биометрии, как, например, фейспей в московском метро, то там да, возможна подмена биометрии на дипфейк. Если мы говорим о банках, то на сегодня это скорее невозможно, но говорить о том, что будет в будущем, я бы пока не взялся, пока не началось массовое применение биометрии в банковской деятельности, которая заставит злоумышленников сфокусироваться на этом способе проникновения в финансовые институты», - объясняет эксперт по информационной безопасности Алексей Лукацкий.

На производство одного дипфейка сейчас тратятся огромные ресурсы. Чтобы создать качественную копию видео человека, нужно иметь несколько вычислительных машин стоимостью около миллиона рублей каждая. И даже имея такие ресурсы, у мошенников будет всего две возможности использовать дипфейк.

«Первая - это направить в канал, а каналы в биометрических системах защищены, как и хранилища, в соответствии с требованием ФСБ. И остается вторая возможность – применить непосредственно к камере этот дипфейк. То есть ему нужно вывести, к примеру, на экран телефона этот дипфейк и показать камере. И, понятное дело, что при такой демонстрации возникнут различные артефакты, которые легко можно обнаружить с помощью других нейросетей», - говорит директор проектов блока цифровой идентичности телекоммуникационной компании Наталья Бессонова.

С начала года в России зарегистрировано 494 тысячи киберпреступлений. Фактически каждый седьмой гражданин страны стал жертвой таких мошенников. Половина из них передавали свои данные добровольно.

«Всего за 11 месяцев - 45 миллиардов рублей ущерб от кибермошенничества», - заявил заместитель начальника следственного департамента МВД России Данил Филиппов.

Распознать обман непросто. Если все же есть сомнения в звонящем по видео, то нужно обратить внимание на качество изображения. Если оно низкое - таким образом мошенники пытаются скрыть некорректную работу нейросетей. Сдаст мошенников и фальшивая мимика, хаотичное движение губ, бровей. Еще один вариант распознать дипфейк - использовать приложения, разоблачающие искусственный интеллект. Как говорят эксперты, он борется сам с собой.

Реклама
Реклама