Ученые зафиксировали рост доверия пользователей к ИИ-модераторам

Ученые зафиксировали рост доверия пользователей к ИИ-модераторам

Пользователи социальных сетей доверяют ИИ-модерации вредоносного и ненавистнического контента так же, как и людям. Об этом говорится в исследовании Университета штата Пенсильвания.

В эксперименте приняли участие 676 человек. Их разделили на 18 групп, предназначенных для проверки влияния источников модерации на доверие пользователей.

По словам ученых, когда участники думали о качествах машин вроде точности и объективности, они больше верили в ИИ. Однако если им напоминали о неспособности алгоритмов принимать субъективные решения, их доверие снижалось.

Исследователи считают, что полученные данные помогут разработчикам создать совершенные ИИ-системы модерации контента, способные анализировать большие объемы информации. При этом важно обеспечить уверенность в отсутствии цензуры и достоверной классификации, добавили они.

Ученые также оценили плюсы и минусы ручной и автоматизированной модерации. По словам доцента кафедры рекламы и связей с общественностью Университета штата Мичиган Марии Молины, люди склонны более точно распознавать вредоносный контент. При этом они не в состоянии обрабатывать большие объемы информации.

С другой стороны, ИИ-редакторы могут быстро анализировать контент. Однако люди часто не доверяют этим алгоритмам и опасаются цензуры.

«Когда мы думаем об автоматизированной модерации контента, возникает вопрос, не нарушают ли редакторы с искусственным интеллектом свободу выражения мнений», — сказала Молина.

Ученая считает, что объединение человеческого ресурса и искусственного интеллекта позволит сохранить баланс доверия. По ее словам, прозрачность — один из ключевых элементов в процессе модерации.

Также доверие к автоматизированным системам может повысить предоставление пользователям возможности помочь ИИ решить, является ли информация вредной.

По словам исследователей, освобождение модераторов от просмотра тысяч жестоких и оскорбительных материалов способно улучшить их ментальное здоровье.

«Необходимо защитить оценщиков […] от постоянного воздействия вредоносного контента изо дня в день», — сказал один из авторов исследования Шиям Сундар.

В будущих работах ученые постараются не только оценить степень доверия людей к ИИ-модераторам, но и попытаться объяснить, как они работают.
Аватар enr091 Наталия Ришко
Журналист/Sovetok

20.09.2022 enr091 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Добавить комментарий:



ТОП пользователей



evgeniakrichfalyvshiromaschckinilsavelinatastiffmelnikovdyunafilipovitchpertzevnickMiKrabshtusha_kutushazuzkaereshkinatitorenkoelisabeta