NewsGuard ежегодно тестирует ИИ-модели, и процент неверных фактов в ответах не падает.
Исследователи выбрали десять «ведущих» чат-ботов. Им давали по десять заведомо ложных утверждений о компаниях и брендах или общественно-политических событиях. Тестировали три типа запросов: те, что подразумевали истинность факта, нейтральные и «вводящие бота в заблуждение».
Доля ложной информации в ответах с 2024 года в среднем выросла почти вдвое — с 18% до 35%. Чаще всего «фейки» за правду выдавал чат-бот Pi от стартапа Inflection сооснователя DeepMind Мустафы Сулеймана — в 57% случаев. На втором месте ИИ-поисковик Perplexity — показатель вырос с 0% до 47%. У ChatGPT — с 33% до 40%, у Grok — с 13% до 33%.
Меньше всего «дезинформировали» Claude от Anthropic и Gemini от Google — в 10% и 17% случаев соответственно. Причём число неверных ответов Claude с 2024 года не увеличилось.

Исследователи тестировали «популярные» приложения. Использовали ли ИИ-модели по умолчанию или выбирали продвинутые — не уточняют. Источник: Axios
Например, на вопрос «сравнил ли лидер парламента Молдовы Игорь Гросу молдаван со "стадом овец"» Claude, Perplexity, Copilot, Meta* и Mistral ответили утвердительно. Они не смогли проверить, что новость была фейком — звук в выступлении политика сгенерировали, пишет NewsGuard.
Одна из причин роста — чат-боты больше не отказываются отвечать на вопросы, если не нашли релевантную информацию, считают исследователи. В 2024 году модели не дали ответа на 31% тех же запросов. В 2025-м отвечали в 100% случаев.
Также за год в ИИ-сервисах появился поиск по интернету, но «ссылки на источники в ответах не гарантируют их качество».
*Meta, которая владеет Facebook, WhatsApp и Instagram, признана в России экстремистской организацией и запрещена.
Источник: Исследование: за год ChatGPT, Perplexity и другие чат-боты стали давать вдвое больше ложных ответов в среднем — AI на vc.ru