Лента новостей
Лента новостей
17:03
Видео
Горемыкин: МО РФ поддержит идею о ветеранском статусе для военкоров
16:57
Видео
Лавров: РФ поможет Альянсу государств Сахеля нарастить боевой потенциал
16:38
Песков: в вопросе Украины все хотели бы быть услышанными
16:22
В РФС поблагодарили «Црвену Звезду» за готовность поделиться стадионом
16:06
Видео
Танкисты группировки «Запад» разгромили укрепления ВСУ в зоне СВО
15:50
Видео
В Ленобласти ищут пса Блюма, уехавшего от хозяйки на электричке
15:46
Видео
На центральной площади Амстердама взорвался автомобиль
15:30
В МВД предупредили об уголовном сроке за передачу WhatsApp* мошенникам
14:57
Вирусолог ответил на слова главы ВОЗ о возможной пандемии «уже завтра»
14:46
Видео
Минобороны опубликовало кадры освобождения Веселого в ДНР
14:38
Видео
Трамп не разрешил заменить яйца на муляжи в Белом доме на Пасху
14:33
Госдума приняла поправку про статус ветеранов для бойцов в Курской области
14:28
ВСУ потеряли более 180 боевиков за сутки боев на Курском направлении
14:26
Венгрия решила выйти из Международного уголовного суда
14:15
Кремль: Дмитриев сообщит о переговорах по окончании визита в Вашингтон
13:57
Видео
Хинштейн поблагодарил ГД за поддержку защитников Курской области
13:47
Синоптик: в Москву после чудо-погоды нагрянут мощный ветер и снег
13:37
Видео
Цивилева: российское протезирование вышло на качественно новый уровень
Почему нейросеть угрожает уничтожить нашу привычную жизнь и как этого не допустить
© Mohssen Assanimoghaddam dpa Globallookpress

Почему нейросеть угрожает уничтожить нашу привычную жизнь и как этого не допустить

После громкой аферы московского студента, который написал диплом с помощью машинного разума, проблему, как отличить искусственный интеллект от живого человека, начали обсуждать в Государственной Думе.
Реклама
Почему нейросеть угрожает уничтожить нашу привычную жизнь и как этого не допустить
© Mohssen Assanimoghaddam dpa Globallookpress

Накануне в центре скандала оказался выпускник Государственного Гуманитарного университета, который защитил выпускную работу, написанную с помощью нейросети ChatGPT, на оценку «удовлетворительно». Чем опасны нейросети и как их остановить - изучала Наталья Жадько. 

Студент в итоге признался преподавателям, каким образом он написал диплом. Это вызвало неоднозначную реакцию в ВУЗе, где сейчас проводят проверку. После этого случая в университете предложили ограничить использование нейросети ChatGPT в образовательных учреждениях.

«Мне хотелось попробовать что-то новое, не писать самому, не просить кого-то написать за меня. Я подумал, что можно попробовать через чат-GPT. Если говорить про диплом, то я пишу запрос - как написать ведение, такое содержание я ожидаю увидеть в этом введении - и машина, исходя уже из этого запроса, генерирует текст по моей теме диплома», - рассказал студент Александр Жадан.

Но запретить использовать искусственных помощников совсем эксперты считают бессмысленным. После этого скандального случая, в Государственной Думе предложили другое решение – изменить формат проведения экзаменов.

«Менять экзамен, где читают написанные тексты на экзамен, где проверяют творческие способности. Если мы студентов во время экзамена спрашиваем, о том, как они понимают материал, что они нового в него внесли - никакая нейросеть за них не ответит», - сказал Олег Смолин, первый зампред комитета ГД по образованию.

А вот в одном из лицеев Нижнего Новгорода идею с использованием машинного интеллекта в процессе обучения поддерживают. О том, что школьники перестанут выполнять домашнее задание самостоятельно или бесчувственная программа и вовсе заменит педагогов здесь не опасаются. Более того, здесь предлагают идею того, чтобы нейросеть помогала выполнять рутинную работу.

И всё же чат-боты заставляют людей опасаться. Работа нейронных сетей и стремительное развитие технологии искусственного интеллекта выглядит пугающей - что если машина заменит человека или некоторые профессии. Защитники и разработчики искусственного интеллекта проблемы в этом не видят. Они считают, что человек наоборот сможет больше успевать.

Но есть и другие проблемы – нарушение авторских прав при создании того или иного контента или продукта. Например, на создателей крупнейшей нейросети владельцы одного из американских фотобанков, уже подали в суд. Причина – нарушение авторских прав на миллионы изображений, на которых обучали нейросеть. Уже сейчас эксперты утверждают, что развитие технологии машинного интеллекта требует более чёткого законодательного урегулирования.

В сентябре прошлого года в технополисе «ЭРА» продемонстрировали, как способна работать специальная нейросеть ВС РФ, распознающая огнестрельное и холодное оружие в руках человека. 

Реклама
Реклама