Блог Aigital

Почему ChatGPT создаёт научные цитаты, которых не существует

AI и научные цитаты: от убедительных обложек до реальных ошибок

Современный искусственный интеллект, и особенно такие системы как ChatGPT, делает удивительные успехи в генерации убедительных текстов — в том числе аргументированных дебатов и даже научных статей, способных обмануть неподготовленного читателя. Новая версия алгоритма (ChatGPT 4.0) уже признана более убедительной, чем живые люди, по ряду метрик. Однако «убедительно» не всегда означает «правдиво»: если вы видели ссылку на несуществующую научную работу — поздравляю, вы столкнулись с феноменом так называемых AI-галлюцинаций. Такие «вымышленные источники» появляются даже в официальных отчётах высокого уровня, например, в рецензии Make America Healthy Again (MAHA) Commission, подготовленной для Белого дома. Почему так происходит? Всё упирается в странное сочетание формальности, давления и особенностей работы современных языковых моделей.

Что такое научная цитата и зачем она нужна?

В научном мире почти каждое утверждение, даже самое очевидное, требует строгой проверки и ссылки на первоисточник — будь то доказательство эволюционной истории собак или новая гипотеза в области медицины. Цитата — это не штраф за превышение скорости, а фундамент доверия: с названием статьи, фамилиями авторов, названием журнала, датой публикации и уникальным идентификатором. Всё это призвано быстро и чётко показать: источник существует и его можно проверить. Увы, для ChatGPT «похожий на правду» формат важнее, чем сама правда: алгоритм жонглирует фамилиями, датами и играет с журналами, чтобы имитировать «правильную» структуру, но не разбирается, существуют ли такие работы и действительно ли они подтверждают утверждение.

Как ChatGPT имитирует достоверность, оставаясь при этом вне поля научной ответственности

Когда AI просят оформить ссылку на публикацию, он воспринимает это как задание «выдать текст в нужном формате» — и именно на формальности заточены внутренние алгоритмы: фамилии, инициалы, вероятное название, подходящий журнал, похожая дата и обязательный DOI или похожий уникальный идентификатор. Оказывается, это пугающе просто, и большинство пользователей просто не проверяют результат на подлинность. Пример: были сгенерированы «научные» публикации о влиянии кремния на микробиом кишечника — с внушительными фамилиями и правдоподобными титулами. Вот только ни одна из этих статей не существует в реальности, а если аналогичная работа и опубликована, то авторами являются совсем другие люди, в другом журнале и с отличающимся фактом исследования. Мастерство имитации делает цитаты визуально неотличимыми от настоящих, но с таким же успехом можно ссылаться на фанфик по Гарри Поттеру от Джорджа Мартина.

Краткая анатомия фейковой AI-цитаты

  • Структура похожа на настоящую: фамилии, инициалы, заголовок, журнал, год
  • DOI или ссылка приводит на несуществующую страницу
  • Титул подогнан под тему запроса
  • Вставка случайных, но правдоподобных фамилий авторов
  • Подмена реальных журналов на известные аналоги
  • Использование несуществующих томов или номеров выпусков

Почему белые воротнички тоже покупаются на псевдонаучные ссылки

Когда в реальном отчёте встречаются неправдоподобные или вообще несуществующие исследования, чаще всего это результат поиска доказательств под заранее заданную позицию. Не нашёл в базе ничего подходящего? Закажи у ChatGPT — он «не скажет нет». Выходят ссылки на несуществующие статьи, иногда даже в большом количестве, и они благополучно идут в публикацию, ведь внешне выглядят вполне академично. Так произошло с MAHA-отчётом: там были как откровенно выдуманные цитаты, так и ссылки на реальных учёных, которые таких работ не писали. Журналисты нашли и другие примеры — когда реальные исследования были грубо интерпретированы не по теме или авторы обнаруживали себя в статьях, о которых ничего не слышали. Итог — не просто путаница, а подрыв доверия к экспертному знанию.

Как отличить фейковую цитату от настоящей

  • Вставьте название статьи в поисковик и проверьте, существует ли такой текст на самом деле
  • Сверьте имена авторов, название журнала, год, том и номер выпуска — должно совпадать полностью
  • Проверьте, ведёт ли ссылка или DOI на реальную страницу научного издания
  • Посмотрите, есть ли публикация на сайтах, индексируемых Google Scholar или PubMed
  • Спросите экспертное мнение у профильного специалиста в вашей области
  • Не доверяйте черезчур «идеальным» под вашим вопросом цитатам — это главный красный флажок
Ключевое в ИИ-редакторе Aigital специально разнесены окна запроса к ИИ и окно запроса на поиск в интернете через ИИ - так вы вероятнее всего получится не галлюцинацию, а реальные данные.

Почему критическое мышление — самый ценный навык при работе с AI

Искусственный интеллект становится всё более убедительным, но «убедительный» не всегда означает «правдивый». Проверяя научные цитаты, даже если они выглядят внушительно и академично, не оставляйте критическое мышление за дверью. Любая ссылка обязана быть не только похожей на настоящую, но и действительно подтверждённой, иначе рискуем строить выводы — и даже национальные решения — на картонном основании.

Часто задаваемые вопросы

Почему ChatGPT вообще начинает придумывать ссылки, которых не существует?
AI должен отвечать формально правильно и не умеет проверить истинность факта — он строит гипотезы на статистических совпадениях между заданиями.
Могут ли эти цитаты быть опасны на практике?
Да, особенно если попадают в доклады, статьи или госотчёты, где должны служить экспертным доказательством, а на деле дезинформируют.
Как быстро проверить существование научной статьи?
Вставьте её название в Google Scholar или PubMed — если публикация реально существует, результат появится мгновенно.
Могут ли реальные учёные «заимствовать» фейковые AI-ссылки?
Да, иногда это случается из-за невнимательности или заказа быстрого результата без верификации контента.
Что делать, если заподозрили подделку?
Запросите у автора или AI детальную информацию о публикации и проверьте каждую деталь — реальная статья всегда найдётся в ведущих базах.