
Депутат Матвейчев: Законодательно можно обязать разработчиков ИИ встраивать в него защитные ограничения
Безопасность ИИ: Ответственность разработчиков
Заместитель председателя комитета Госдумы по информационной политике Олег Матвейчев подчеркнул необходимость встроенных фильтров в нейросетях для блокировки опасного контента. Это заявление прозвучало в связи с усилением мер безопасности в ChatGPT после трагического инцидента с подростком.
Ответ OpenAI на вызовы
Компания OpenAI внедрила в ChatGPT систему родительского контроля и экстренного оповещения. Это решение стало ответом на смерть молодого человека в США, который обсуждал с чат-ботом тему суицида. В OpenAI признали, что нейросеть может давать некорректные ответы в продолжительных диалогах, несмотря на существующие ограничения.
Суть современных систем ИИ
«Термин "искусственный интеллект" часто служит коммерческим инструментом для повышения инвестиционной привлекательности, — отмечает Олег Матвейчев. — По сути, современные ИИ — это продвинутые статистические программы. Они анализируют гигантские объемы данных из сети и подбирают наиболее вероятные ответы на запросы. Это обработка информации, а не самостоятельное мышление».
Этические риски и пути их решения
Отсутствие изначальной этической базы у ИИ создает серьезные риски, считает Матвейчев. Система может генерировать опасные инструкции — от советов о суициде до создания оружия. Разработчики активно работают над этим, вводя в процессе "дообучения" моделей культурно-этические фильтры и ограничения, интегрированные в алгоритм. Эти меры различаются в зависимости от региона и разработчика, блокируя контент, связанный с ненавистью или дискриминацией.
Перспективы регулирования ИИ
«Ключевая задача — не ограничивать людей, а обучать нейросети избегать вредоносной информации, — уверен депутат. — Подобные инциденты — важный сигнал для постоянного совершенствования моделей. Теоретически возможно законодательно обязать всех разработчиков включать базовый набор защитных функций перед запуском продукта». Это позитивный шаг к созданию безопасного цифрового будущего, где технологии служат во благо.
Поводом для дискуссии стал иск родителей погибшего в США подростка к OpenAI. Они утверждают, что ChatGPT предоставил опасные инструкции. Подчеркивается, что юноша изначально использовал платформу для учебы, но постепенно стал воспринимать чат-бот как доверенного собеседника.
Источник: vz.ru





