Лента новостей
Лента новостей
16:54
Стрельба произошла возле штаб-квартиры ЦРУ в США
16:32
Видео
Дроноводы сожгли бронетранспортер VAB в Харьковской области
16:29
Песков заявил, что РФ передала список людей для обмена «1 000 на 1 000»
16:22
Два мирных жителя пострадали при атаке ВСУ на магазин в Курской области
16:07
Видео
На дне Финского залива нашли катер времен ВОВ и уникальный колесный пароход
15:50
Видео
Экономист назвал пошлины ЕС против удобрений из РФ попыткой давления на Трампа
15:46
Иран будет считать США вовлеченными в конфликт в случае удара Израиля по ядерным объектам
15:24
Росавиация: 82 самолета ушли на запасные аэродромы из-за ограничений
15:21
Видео
МО РФ показало уничтожение украинского танка на Сумском направлении
15:05
Видео
Путин наградил Лаврова орденом Святого апостола Андрея Первозванного
14:29
Видео
В ГД утвердили штраф до 500 тысяч рублей за продажу энергетиков детям
14:23
Силы ПВО с 20 мая по 22 мая сбили 485 беспилотников над регионами России
14:20
Российские войска освободили Новую Полтавку в ДНР
14:14
Песков объяснил изменение в гербе России на сайте Кремля
14:04
Видео
Солдат ВСУ рассказал, как попал в плен, перепутав блиндажи
14:01
Видео
Члены ОПГ в Москве обналичили 1 млрд рублей наркоденег через карты приезжих
13:58
В монументе «Родина-мать» нашли труп мужчины, началась проверка
13:40
Банк Грузии ограничил для россиян покупки на сумму свыше 300 евро
Опасные сети или чудеса 21 века: как нейросеть может «оживить» фотографии
© pixabay.com

Опасные сети или чудеса 21 века: как нейросеть может «оживить» фотографии

В декабре жертвой нейронных сетей стала даже британская королева.
Реклама
Опасные сети или чудеса 21 века: как нейросеть может «оживить» фотографии
© pixabay.com

Звезда мирового масштаба Том Круз узнал, что ведет Tik-Tok. Дело в том, что в этой социальной Cети разместили видео с актером. И понять, что на самом-то деле это не он - невыполнимая миссия. Это называется Deepfake.

Всего лишь три видео, опубликованных в Tik-Tok, уже набрали десять миллионов просмотров. Многие из тех, кто уже посмотрел ролик, не поняли, что сам Круз в этот момент находился в Дубае и к этому видео отношения не имел.

Пугающе реалистичными выглядят и ожившие изображения людей, которые до сих пор знакомы нам по фотографиям или гипсовым слепкам. Красавица Нефертити, Наполеон Бонапарт, Карл Маркс и Фридрих Ницше «воскресают» благодаря технологии Deepfake.

В декабре жертвой нейронных сетей стала даже британская королева. В эфире одного из английских каналов появилось якобы видеообращение Елизаветы Второй, в котором она рассуждала о проблемах доверия, а затем станцевала на столе. Призывая не верить слепо всему, что видишь, или слышишь.

Нередко отличить Deepfake может лишь профессионал. Наиболее уязвимое место - звук, его пока не научились так хорошо подделывать. Кроме этого специалисты по информационной безопасности смотрят на свет, игру теней, которые не всегда лежат правильно.

«Вот если, например, на меня посмотреть, на меня светит свет сбоку, и возможно Deepfake такую ситуацию корректно бы не отработал», - рассказал руководитель научно-исследовательского департамента - разработчика инновационных биометрических систем Олег Петров.

В числе неоспоримых преимуществ технологии «дипфейка» называют прежде всего возможности при съемках фильма. Одним из ярких примеров называют Питера Кушинга, сыгравшего в одном из фильмов из саги о звездных войнах. И затем уже после смерти внезапно вернувшегося на экран. Еще одно поле для простора - реклама. А переживать по поводу кражи собственной личности, уверены эксперты в этой сфере, не стоит.


«Мне пока не видится реальной угрозы обычных людей, чтобы человек мог переживать по этому поводу. Все, что находится в социальных сетях, все фото видео. Их недостаточно, чтобы создать какой-то классный продукт, не отличимый от оригинала», - поделился генеральный директор рекламного агентства Сергей Житинец.

Биометрия, идентификация по сетчатке глаза все чаще используется в банках и других сферах. Пока данные надежно защищены, об этом говорят специалисты в сфере компьютерной безопасности. Но мошенники не стоят на месте и все чаще берут на вооружение новые способы передачи данных. А это значит, что рано или поздно технология «дипфейк» может быть перестать просто игрушкой.

Подробнее в сюжете Константина Коковешникова.

Реклама
Реклама