Лента новостей
Лента новостей
03:53
Поулсен: Киев ведет переговоры о производстве оружия в Дании
03:37
В России разработают программы повышения производительности труда
03:01
Politico: Украина придумала новый способ выпросить оружие у США
02:49
Пять человек пострадали при крушении самолета в Нью-Джерси
02:13
В Харьковской области снесли бюст Пушкину
02:10
Bloomberg: в НАТО давят на США для возобновления поставок оружия Киеву
01:42
ВОЗ призвала страны повысить цены на алкоголь и табак на 50%
01:27
В центре Белграда сторонники оппозиции перекрыли Бранков мост
01:20
В Конгрессе США предложили передать Израилю бомбардировщики B-2 Spirit
00:41
Жительницу Нижегородской задержали за передачу данных о предприятии ОПК
00:17
Захарова: Лавров работал не зря, если заставил Рютте вспомнить о Христе
00:04
В Японии предупредили о грядущем мегаземлетрясении
23:51
Пентагон: США при Байдене бездумно раздавали оружие Украине
23:29
Орбан призвал Зеленского принять сторону мира
23:24
Участок от Зеленограда до Твери станет тестовым полигоном для ВСМ
22:52
Видео
Путин пошутил о скором наступлении зимы
22:45
Захарова: Гутерриш превысил полномочия, призвав ограничить право вето в СБ ООН
22:22
Госдеп: приостановка поставок оружия не означает прекращения помощи Киеву
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

Россиян предупредили о появлении новых способов мошенничества с ИИ

Аферисты, вероятно, будут использовать сгенерированные звуки и изображения.
13 января 2025, 13:51
Реклама
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

В наступившем году мошенники могут прибегнуть к новым способам обмана с использованием искусственного интеллекта. Об этом в разговоре с RT предупредил профессор и доктор юридических наук Иван Соловьев.

Эксперты предполагают, что аферисты будут пытаться вводить в заблуждение своих жертв при помощи сгенерированных звуков и изображений.

«Будут выработаны новые способы обмана и вербовки», - отметил юрист.

Ранее в беседе со «Звездой» заместитель директора Института высокотехнологичного права НИУ МИЭТ Генрих Девяткин рассказал, как можно легко распознать дипфейк или робота во время телефонного разговора. По его словам, достаточно задать звонящему несколько простых вопросов: «Какая сейчас погода? » и «Какой сегодня день?». В эти моменты можно будет заметить нехарактерные для человека паузы.

Ситуация со сгенерированными аудиосообщениями в мессенджерах обстоит сложнее. При получении сомнительного сообщения лучше перезвонить адресату, чтобы убедиться в подлинности. С видеосвязью все проще - нужно попросить собеседника поднять руку. Искусственный алгоритм сделать это мгновенно не может.

Реклама
Реклама