Лента новостей
Лента новостей
03:46
В России с 1 марта 2026 года изменится срок отправки квитанций ЖКХ
03:02
В Лондоне на акции в поддержку Палестины арестовали около 500 человек
02:31
Небо над аэропортом Вильнюса закрыли из-за воздушных шаров
02:11
Минпросвещения РФ разрешило детям пересдавать экзамены по русскому
01:32
Трамп: режим перемирия в Газе при согласии ХАМАС введут немедленно
01:04
Видео
Путин отметил силу российской педагогической школы
00:50
Президент Сербии: все страны готовятся к большой войне
00:36
Белоусов поздравил военных педагогов с Днем учителя
00:16
Минздрав Грузии: в Тбилиси в ходе беспорядков пострадал 21 полицейский
00:10
Россиянка погибла при наводнении на курорте в Болгарии
23:40
Один человек погиб и двое пострадали при атаке БПЛА в Макеевке
23:25
Посольство в Непале предупредило о риске схода селей из-за ливней
23:03
Санду поддержала беспорядки в Грузии
22:47
Defense News: Париж столкнулся с проблемами при переброске войск НАТО
22:12
Guardian: власти Израиля держат Грету Тунберг в камере с клопами
22:02
Выступающая против помощи Киеву партия ANO победила на выборах в Чехии
21:31
Премьер Грузии возложил ответственность за беспорядки в Тбилиси на посла ЕС
21:25
Видео
Посадили «Хаски» на цепь: бойцы рассказали, как эвакуировали британский броневик
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

Россиян предупредили о появлении новых способов мошенничества с ИИ

Аферисты, вероятно, будут использовать сгенерированные звуки и изображения.
13 января 2025, 13:51
Реклама
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

В наступившем году мошенники могут прибегнуть к новым способам обмана с использованием искусственного интеллекта. Об этом в разговоре с RT предупредил профессор и доктор юридических наук Иван Соловьев.

Эксперты предполагают, что аферисты будут пытаться вводить в заблуждение своих жертв при помощи сгенерированных звуков и изображений.

«Будут выработаны новые способы обмана и вербовки», - отметил юрист.

Ранее в беседе со «Звездой» заместитель директора Института высокотехнологичного права НИУ МИЭТ Генрих Девяткин рассказал, как можно легко распознать дипфейк или робота во время телефонного разговора. По его словам, достаточно задать звонящему несколько простых вопросов: «Какая сейчас погода? » и «Какой сегодня день?». В эти моменты можно будет заметить нехарактерные для человека паузы.

Ситуация со сгенерированными аудиосообщениями в мессенджерах обстоит сложнее. При получении сомнительного сообщения лучше перезвонить адресату, чтобы убедиться в подлинности. С видеосвязью все проще - нужно попросить собеседника поднять руку. Искусственный алгоритм сделать это мгновенно не может.

Реклама
Реклама