
Искусственный интеллект почти в половине случаев искажает содержание новостей, независимо от страны или языка.
К таким выводам пришли эксперты Европейского вещательного союза (EBU) по итогам исследования, проведённого совместно с 22 общественными вещателями из 18 стран, среди которых и украинское "Суспільне".
По словам директора по вопросам медиа и заместителя генерального директора EBU Жана-Филиппа Де Тендера, проблема носит системный характер и представляет угрозу для доверия общества к медиа.
"Исследование убедительно доказывает, что эти недостатки - не единичные случаи. Они системные, не зависят от границ и языка, и мы считаем, что это представляет угрозу общественному доверию. Когда люди не знают, кому верить, они в итоге не доверяют никому, а это может ослабить участие в демократических процессах", - отметил он.
В рамках проекта журналисты из стран-участниц оценили более 3 тыс. ответов от систем ChatGPT, Copilot, Gemini и Perplexity. Эксперты проверяли точность представленных фактов, наличие источников, разграничение фактов и мнений, а также полноту контекста.
ЧИТАЙТЕ ТАКЖЕ: Как появилось название ChatGPT: история запуска
Результаты показали, что 45% всех ответов содержали как минимум одну существенную ошибку. Наиболее распространённой проблемой (31%) было отсутствие или недостоверность источников. В 20% ответов выявлены серьёзные неточности - от вымышленных фактов до устаревших данных. Ещё 14% случаев касались недостатка контекста.
Худший результат показала модель Gemini - в 76% ответов эксперты зафиксировали серьёзные проблемы. Другие системы также продемонстрировали низкое качество: у Copilot ошибки обнаружены в 37% ответов, у ChatGPT - в 36%, а у Perplexity - в 30%.
Эксперты отметили, что ситуацию осложняет уверенная подача информации искусственным интеллектом, даже когда данные ошибочны или недостоверны. Это создаёт у пользователей ложное ощущение надёжности полученных результатов.
Несмотря на незначительное улучшение по сравнению с предыдущими исследованиями, уровень неточностей остаётся высоким. Проблема прослеживается в ответах на разных языках, что свидетельствует о глобальном характере риска.
Чат-бот под управлением искусственного интеллекта Copilot стал доступен в Telegram. Его разработала корпорация Microsoft. Там бота назвали "вторым пилотом" для Telegram. Copilot создан на базе GPT.
Комментарии