Проверка фактов с помощью ИИ может повысить доверие к ложным заголовкам
Исследование показало, что использование ИИ для фактчекинга может привести к тому, что люди начнут доверять ложным заголовкам, и наоборот, снизят доверие к заголовкам с правдивой информацией.
Исследование команды ученых из Университета Индианы показало, что использование искусственного интеллекта для проверки фактов в некоторых ситуациях может привести к тому, что люди начнут больше доверять ложным заголовкам, в отношении которых ИИ не был уверен, и наоборот, снизят доверие к правдивым заголовкам, ошибочно отмеченным как ложные.
Исследователи изучали, как информация о проверке фактов, представленная с помощью популярной языковой модели, влияет на восприятие политических новостей. Эксперимент проводился по заранее зарегистрированному рандомизированному контрольному методу. Несмотря на то, что модель точно выявила 90% ложных заголовков, результаты показали, что это не привело к значительному улучшению способности участников отличать правду от лжи. В то же время ученые заметили, что, когда факты проверялись человеком, участники лучше справлялись с распознаванием правдивых заголовков.
Эксперимент также показал, что участники, получившие доступ к заголовкам, проверенным с помощью искусственного интеллекта на основе большой языковой модели, значительно чаще делились как правдивыми, так и ложными новостями. При этом они чаще верили заголовкам с фейками.
"Наши результаты выявляют важный источник потенциального вреда, исходящего от приложений ИИ, и подчеркивают критическую необходимость в политике по предотвращению или смягчению таких непреднамеренных последствий", – сказал Филиппо Менцер, соавтор исследования.