Искусственный интеллект оказался иллюзией
Важной частью исследования является анализ того, как крупные языковые модели, такие как ChatGPT, могут создавать иллюзию интеллекта без настоящего логического рассуждения.
Это вызывает вопросы о том, насколько надежно можно полагаться на ответы, полученные от таких систем.
Изучение способности разумных существ выделять важную информацию и отбрасывать ненужное является ключевым аспектом исследования. Понимание сути вопроса и умение игнорировать лишние данные считается признаком истинного интеллекта. В чем заключается разница между способностью к логическому анализу у человека и у искусственных систем?
Статья, опубликованная на сервере препринтов arXiv, поднимает важный вопрос о том, каким образом современные языковые модели могут создавать иллюзию интеллекта и в чем заключается их ограниченность по сравнению с человеческим мышлением. Дальнейшие исследования в этой области могут привести к новым открытиям о природе искусственного интеллекта и его отличиях от человеческого мышления.
Глубокие языковые модели (LLM) вызывают все больший интерес у исследователей и индустрии, но их способность к адекватному пониманию контекста и разумному выводу остается под вопросом. Для проверки этой гипотезы, ученые провели эксперимент, включив в вопросы для LLM лишнюю информацию. Это позволило оценить, насколько модели способны игнорировать несущественные данные и давать верные ответы.Исследование показало, что LLM часто запутываются в избыточной информации, что приводит к неправильным или бессмысленным ответам. Ранее безупречные модели начинают ошибаться из-за лишних деталей, что свидетельствует о их ограниченности в плане рационального мышления и понимания контекста. Это важное открытие подчеркивает необходимость дальнейших исследований в области развития и улучшения глубоких языковых моделей.В ходе исследования выявлено, что LLM, несмотря на свою способность к выдаче правдоподобных ответов, на самом деле не обладают истинным интеллектом. Например, они могут давать ответы, подразумевающие наличие у них сознательных ощущений, хотя они не обладают чувственными способностями. Это говорит о том, что модели строят ответы на основе статистической обработки данных, а не настоящего понимания вопросов.Изучение данных позволило исследователям прийти к выводу, что современные языковые модели скорее оперируют шаблонами в текстах, чем проявляют истинное понимание. Это подчеркивает отсутствие у них реального интеллекта и способности к осознанному восприятию информации.Таким образом, хотя LLM могут создавать впечатление понимания и вовлеченности, на самом деле их ответы базируются на статистике, а не на истинном понимании и осознании контекста.Источник и фото - lenta.ru