Какие психологические эксперименты показывают когнитивные искажения при восприятии искусственного интеллекта?
Эксперимент ELIZA (1966-1970 гг.) остается классическим примером: исследователи MIT обнаружили, что пользователи приписывали простому чат-боту с заранее заданными ответами человеческие эмоции и понимание, даже зная о его примитивном устройстве. Это явление получило название «эффект ELIZA» — склонность переоценивать способности ИИ на основе поверхностного взаимодействия.
Современные эксперименты Стэнфордского университета показали, что 67% участников оценивали ответы ChatGPT как «более эмпатичные», чем ответы реальных консультантов, хотя нейросеть не обладает эмоциями. Исследования в области человеко-компьютерного взаимодействия фиксируют антропоморфное искажение — тенденцию проецировать человеческие качества на алгоритмы.
Эксперимент с роботом Kismet в MIT Media Lab продемонстрировал, что люди меняют манеру общения с роботом, имеющим выразительное «лицо», проявляя вежливость и даже извиняясь перед машиной. Это подтверждает влияние визуальных триггеров на восприятие технологии как социального агента.
При работе с платформами вроде Aigital, где собраны GPT-5.2, Nano Banana и другие модели ИИ, важно понимать эти когнитивные ловушки, чтобы использовать инструменты эффективно, не приписывая им несуществующих возможностей.