Излишняя самоуверенность ИИ отражает расстройство человеческой речи

Излишняя самоуверенность ИИ отражает расстройство человеческой речи
15:00, 21 Май.

Агенты, чат-боты и другие инструменты на основе искусственного интеллекта (ИИ) все чаще используются в повседневной жизни многими людьми. Так называемые агенты на основе большой языковой модели (LLM), такие как ChatGPT и Llama, стали впечатляюще беглыми в ответах, которые они формируют, но довольно часто предоставляют убедительную, но неверную информацию.

Исследователи из Токийского университета проводят параллели между этой проблемой и расстройством человеческого языка, известным как афазия, при котором страдающие могут говорить бегло, но делать бессмысленные или труднопонимаемые заявления.

Это сходство может указывать на лучшие формы диагностики афазии и даже дать представление инженерам ИИ, стремящимся улучшить агентов на основе LLM.

Эта статья была написана человеком, но использование ИИ, генерирующего текст, растет во многих областях. Поскольку все больше людей начинают использовать и полагаться на такие вещи, все больше растет необходимость в том, чтобы эти инструменты предоставляли своим пользователям правильные и связные ответы и информацию.

Многие знакомые инструменты, включая ChatGPT и другие, кажутся очень беглыми в том, что они предоставляют.

Но на их ответы не всегда можно положиться из-за количества фактически выдуманного контента, который они производят. Если пользователь недостаточно осведомлен о рассматриваемой предметной области, он может легко ошибиться, предположив, что эта информация верна, особенно учитывая высокую степень уверенности, которую демонстрируют ChatGPT и другие.

«Невозможно не заметить, как некоторые системы искусственного интеллекта могут казаться понятными, но при этом часто совершать существенные ошибки», — говорит профессор Такамицу Ватанабэ из Международного исследовательского центра нейроинтеллекта (WPI-IRCN) при Токийском университете.

«Но что поразило мою команду и меня, так это сходство между этим поведением и поведением людей с афазией Вернике, когда такие люди говорят бегло, но не всегда понимают, о чем говорят.

Это побудило нас задуматься, могут ли внутренние механизмы этих систем искусственного интеллекта быть похожими на механизмы человеческого мозга , пораженного афазией, и если да, то каковы могут быть последствия».

Для исследования этой идеи команда использовала метод, называемый анализом энергетического ландшафта, метод, изначально разработанный физиками, стремящимися визуализировать энергетические состояния в магнитном металле, но недавно адаптированный для нейронауки.

Статья опубликована в журнале Advanced Science. Они изучили закономерности активности мозга в состоянии покоя у людей с различными типами афазии и сравнили их с внутренними данными нескольких общедоступных LLM.

И в своем анализе команда действительно обнаружила некоторые поразительные сходства. То, как цифровая информация или сигналы перемещаются и обрабатываются в этих моделях ИИ, во многом соответствует тому, как ведут себя некоторые мозговые сигналы в мозге людей с определенными типами афазии, включая афазию Вернике.

«Вы можете представить себе энергетический ландшафт как поверхность с мячом на ней.

Если есть изгиб, мяч может скатиться вниз и остановиться, но если изгибы пологие, мяч может катиться хаотично», — сказал Ватанабэ. «При афазии шар представляет состояние мозга человека.

В LLM он представляет собой непрерывный паттерн сигнала в модели, основанный на ее инструкциях и внутреннем наборе данных». Исследование имеет несколько последствий. Для нейробиологии оно предлагает возможный новый способ классификации и мониторинга таких состояний, как афазия, на основе внутренней активности мозга, а не только внешних симптомов.

Для ИИ это может привести к лучшим диагностическим инструментам, которые помогут инженерам улучшить архитектуру систем ИИ изнутри.

Хотя, несмотря на обнаруженные исследователями сходства, они призывают не делать слишком много предположений. «Мы не утверждаем, что чат-боты наносят вред мозгу», — сказал Ватанабэ. «Но они могут быть заперты в своего рода жесткой внутренней схеме, которая ограничивает то, насколько гибко они могут использовать сохраненные знания, как при рецептивной афазии.

Смогут ли будущие модели преодолеть это ограничение, еще предстоит увидеть, но понимание этих внутренних параллелей может стать первым шагом к более умному и заслуживающему доверия ИИ».

Рубрика: Технологии и Наука. Читать весь текст на android-robot.com.