Тут в OpenAI решили разобраться, почему ИИ до сих пор уверенно врут нам в лицо, выдавая несуществующие факты и ссылки на материалы, которых нет в природе.

С чего началось:

Исследователи выпустили статью о галлюцинациях языковых моделей. Они объясняют, что дело не в глюках самой архитектуры, а в системе оценок. Современные ИИ устроены так, что ответ «я не знаю» считается ошибкой и приносит 0 баллов, а в попытке угадать правильный ответ есть вариант заработать >0 баллов.

Никого не напоминает?

В итоге модели угадывают, блефуют и выдают конкретные даты или факты, даже если понятия не имеют, верны ли они. Лучшие нейросети сейчас не те, что признаются в незнании, а те, что получают больше баллов.

OpenAI предлагает за ложь штрафовать сильнее, чем за честное «не знаю». А за правильное выражение неопределённости — давать часть баллов.

Оригинал статьи найдёте здесь.



Комментарии

Популярные сообщения из этого блога

Когда роботы перестали быть игрушками

Если перестали приходить СМС от Telegram или WhatsApp