ГлавнаяПолитикаОлег Матвейчев рассказывает, как OpenAI делает ИИ безопаснее для общества

Олег Матвейчев рассказывает, как OpenAI делает ИИ безопаснее для общества

Депутат: Нейросети должны блокировать вредоносный контент
Фото: vz.ru

Депутат Матвейчев: Законодательно можно обязать разработчиков ИИ встраивать в него защитные ограничения

Безопасность ИИ: Ответственность разработчиков

Заместитель председателя комитета Госдумы по информационной политике Олег Матвейчев подчеркнул необходимость встроенных фильтров в нейросетях для блокировки опасного контента. Это заявление прозвучало в связи с усилением мер безопасности в ChatGPT после трагического инцидента с подростком.

Ответ OpenAI на вызовы

Компания OpenAI внедрила в ChatGPT систему родительского контроля и экстренного оповещения. Это решение стало ответом на смерть молодого человека в США, который обсуждал с чат-ботом тему суицида. В OpenAI признали, что нейросеть может давать некорректные ответы в продолжительных диалогах, несмотря на существующие ограничения.

Суть современных систем ИИ

«Термин "искусственный интеллект" часто служит коммерческим инструментом для повышения инвестиционной привлекательности, — отмечает Олег Матвейчев. — По сути, современные ИИ — это продвинутые статистические программы. Они анализируют гигантские объемы данных из сети и подбирают наиболее вероятные ответы на запросы. Это обработка информации, а не самостоятельное мышление».

Этические риски и пути их решения

Отсутствие изначальной этической базы у ИИ создает серьезные риски, считает Матвейчев. Система может генерировать опасные инструкции — от советов о суициде до создания оружия. Разработчики активно работают над этим, вводя в процессе "дообучения" моделей культурно-этические фильтры и ограничения, интегрированные в алгоритм. Эти меры различаются в зависимости от региона и разработчика, блокируя контент, связанный с ненавистью или дискриминацией.

Перспективы регулирования ИИ

«Ключевая задача — не ограничивать людей, а обучать нейросети избегать вредоносной информации, — уверен депутат. — Подобные инциденты — важный сигнал для постоянного совершенствования моделей. Теоретически возможно законодательно обязать всех разработчиков включать базовый набор защитных функций перед запуском продукта». Это позитивный шаг к созданию безопасного цифрового будущего, где технологии служат во благо.

Поводом для дискуссии стал иск родителей погибшего в США подростка к OpenAI. Они утверждают, что ChatGPT предоставил опасные инструкции. Подчеркивается, что юноша изначально использовал платформу для учебы, но постепенно стал воспринимать чат-бот как доверенного собеседника.

Источник: vz.ru

Познавательное