Чат-боты разучились говорить «я не знаю»
Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании проверил работу трех крупнейших чат-ботов, использующих передовые модели ИИ, и отметил, что они стали чаще делать ошибки вместо того, чтобы признавать свое незнание. Ученый считает, что склонность отвечать любой ценой заложена в моделях, созданных разработчиками. Исследователи изучили три семейства больших языковых моделей (LLM), включая GPT OpenAI, BLOOM и модель, разработанную группой BigScience, и обнаружили, что модели стали умнее, но также стали допускать ошибки даже на простые вопросы. Эрнандес-Оралло отметил, что люди не могут контролировать поведение этих моделей. Ученые рекомендуют создателям моделей предусмотреть возможность чат-ботам пропускать вопросы, на которые они не знают ответа, чтобы избежать введения пользователей в заблуждение. В дополнение к этому, исследователи фирмы AMCI Testing обнаружили, что новая версия автопилота Tesla склонна к рискованным действиям, что подтвердилось тем, что тестируемый автомобиль проехал на красный свет и чуть не попал в аварию.
Источник и фото - lenta.ru