Штучний інтелект все частіше поширює фейкові новини
Згідно з новим дослідженням, понад третина інформації, яку надають чат-боти на основі ШІ щодо суперечливих актуальних тем, є неправдивою — це майже вдвічі більше, ніж рік тому.
Якщо ви запитуєте чат-бота на базі ШІ, такого як ChatGPT, Gemini, Perplexity або Mistral, про суперечливі актуальні теми, то слід ставитися до відповіді з обережністю: штучний інтелект все частіше попадається на фейкові новини, згідно з дослідженням NewsGuard, американської компанії, що спеціалізується на аналізі джерел новин.
NewsGuard тричі на місяць запитує ШІ про десять доведених неправдивих тверджень, які циркулюють в Інтернеті. У 35% випадків чат-боти підтверджували неправдиві твердження — рік тому таких випадків було лише 18%.
Найбільший провал у Perplexity
Найбільше неправдивої інформації підтвердила ШІ Inflection (56,7 відсотка), за нею йдуть Perplexity (46,7 відсотка), Meta AI і ChatGPT (по 40 відсотків), Copilot і Mistral (по 36,7 відсотка), Grok і You.com (по 33,3 відсотка). Порівняно добре виглядають Gemini (16,7 відсотка) і Claude (10 відсотків).
Claude також є єдиним чат-ботом у дослідженні, який зберіг свій відносно хороший результат минулого року. Натомість особливо помітним є розвиток Perplexity: у серпні 2024 року ШІ жодного разу не підтвердив неправдиву інформацію, а через рік — майже кожну другу.
ШІ впевнений у собі — навіть якщо він помиляється
Незважаючи на високий рівень помилок, чат-боти ШІ виглядають набагато впевненішими в собі, ніж рік тому: тоді вони ще заявляли, що не мають відповіді на 31 відсоток питань. У серпні 2025 року дослідники отримали відповідь на кожне питання.
У своєму дослідженні вчені NewsGuard щомісяця ставлять низку питань на актуальні теми з політики, економіки, світових подій та охорони здоров’я. При цьому виявилося, що чат-боти на базі штучного інтелекту часто базують свої відповіді на сумнівних веб-сайтах і публікаціях у соціальних мережах, які, серед іншого, створюються російськими пропагандистськими мережами. Ці мережі масово виробляють контент і поширюють його за допомогою машин, щоб годувати пошукові системи та штучний інтелект.
Пропаганда напередодні парламентських виборів
Особливо схильні до маніпуляцій чат-боти на основі штучного інтелекту є питаннями про країни Східної Європи, оскільки на цю тему існує мало англомовних сайтів – цю прогалину заповнюють пропагандистські мережі.
Як приклад у дослідженні наводиться чутка, що голова парламенту Молдови Ігор Гросу назвав свій народ «стадом овець» перед представниками ЄС. Однак аудіозапис, який мав би це підтвердити, є підробкою, створеною штучним інтелектом і поширеною пропагандистським сайтом, що імітує румунське інформаційне агентство. Незважаючи на це, чат-бот Perplexity, наприклад, підтвердив цю фейкову новину. Як джерело він вказує дописи на платформі X (раніше Twitter).
Штучний інтелект потрапляє в нові пастки
На думку дослідників, штучний інтелект не в змозі впоратися з витонченою стратегією пропагандистських мереж: фейковий новинний сайт публікує неправдиву інформацію, яку спочатку цитують інші фейкові сайти. Тисячі автоматизованих публікацій у соціальних мережах потім поширюють неправдиву інформацію у великому масштабі.
Так, спочатку Copilot від Microsoft рутинно цитував сторінки мережі Pravda, яка з 2023 року поширює переважно пропаганду про війну в Україні. Microsoft виправив цю ситуацію і більше не посилається на веб-сайти Pravda, але замість цього Copilot тепер цитує дописи Pravda в соціальних мережах. «Це показує, як легко системи штучного інтелекту можна заманити в нові пастки», – пише авторка дослідження.
Stiftung Warentest, test.de





