ГлавнаяРазноеOpenAI раскрыла механизм "галлюцинаций" ИИ и пути устранения этой проблемы

OpenAI раскрыла механизм «галлюцинаций» ИИ и пути устранения этой проблемы

Почему ИИ "выдумывает" ответы?

OpenAI раскрыла механизм "галлюцинаций" ИИ и пути устранения этой проблемы-0
Фото: naked-science.ru

Исследователи OpenAI установили, что языковые модели иногда генерируют неточную информацию или "галлюцинируют" из-за своей фундаментальной обучающей задачи: предугадывать следующий элемент данных. "Крупные языковые модели нацелены на максимизацию результатов тестирования, и принятие догадок в условиях неопределённости часто повышает итоговые оценки", — поясняется в их публикации.

Современные методы оценки работы ИИ часто упрощены: правильные ответы награждаются, а неправильные — отвергаются. Это приводит к тому, что модель чаще рискует предположить возможный ответ в надежде на успех, чем честно признается в недостатке знаний.

Влияние "естественного статистического давления" побуждает искусственный интеллект создавать информацию, даже если точный ответ неизвестен. Прогресс в будущем во многом определится успехом в решении этой ключевой сложности.

Новый подход: Обучение честности

Компания предлагает перспективное решение: изменение системы стимулов. Необходимо ценить адекватное выражение сомнения и не "штрафовать" модели за признание неизвестного. Такой инновационный подход способен значительно снизить частоту "галлюцинаций" и создать основу для более надежных, прагматичных языковых систем с глубоким пониманием контекста.

Реальные последствия этих изменений еще только предстоит оценить, но само направление работы дарит оптимизм относительно будущего реалистичных ИИ-ассистентов.

Источник: naked-science.ru

Познавательное