Искусственный интеллект оказался иллюзией
17.10.2024 00:13
Статья с результатами этого исследования была опубликована на сервере препринтов arXiv.
Исследователи сфокусировались на способности разумных существ, включая людей, отличать важную информацию от несущественной в ситуациях, требующих логического анализа. Они предположили, что настоящий интеллект подразумевает способность понимать, как игнорировать ненужные данные и сосредотачиваться на сути вопроса, что является ключевым аспектом человеческого мышления.Интересно, что исследование также подчеркнуло необходимость различать между простым генерированием текста и настоящим пониманием контекста. Важно учитывать, что способность к логическому анализу и разделению информации является важным аспектом истинного интеллекта, который может быть сложно достичь с помощью только алгоритмов и моделей.Для проверки гипотезы о способности языковых моделей к различению информации и игнорированию лишних деталей, исследователи провели эксперимент, включив в вопросы для LLM дополнительные данные, не имеющие отношения к теме. Они столкнули модели с задачей определения, сможет ли искусственный интеллект отфильтровать неуместную информацию и дать правильный ответ.Полученные результаты оказались неутешительными: LLM часто запутывались в лишних деталях, что приводило к неправильным или даже бессмысленным ответам на вопросы, на которые ранее модели успешно отвечали. Это говорит о том, что у искусственного интеллекта может быть недостаточно развито истинное понимание и рациональное мышление.Таким образом, результаты эксперимента подчеркивают важность дальнейших исследований в области развития и улучшения языковых моделей, чтобы они могли эффективно фильтровать информацию и давать точные ответы, не путаясь в лишних деталях.В ходе исследования было обнаружено, что LLM, несмотря на свою способность выдавать правдоподобные ответы, на самом деле не обладают сознательными ощущениями. Это означает, что их ответы основаны на статистической обработке данных, а не на реальном понимании вопросов.Интересно, что при беглом анализе ответы LLM могут показаться правильными, но при более внимательном рассмотрении оказываются ошибочными. Например, модели могут говорить о своих "чувствах", хотя на самом деле они не способны чувствовать.На основании проведенного исследования можно сделать вывод, что современные языковые модели не обладают истинным интеллектом. Они просто анализируют тексты, выявляют шаблоны и формируют ответы на основе статистических данных, не имея реального понимания сути вопросов.Источник и фото - lenta.ru