gdgt

Skip to Content

Наблюдательный совет считает, что Meta нужны новые правила для контента, созданного ИИ

Наблюдательный совет вновь призывает Meta пересмотреть свои правила в отношении контента, созданного искусственным интеллектом. На этот раз совет заявил, что Meta следует разработать отдельное правило для ИИ-контента, независимое от политики в отношении дезинформации, инвестировать в более надежные инструменты обнаружения и лучше использовать цифровые водяные знаки, среди прочих изменений.

Рекомендации группы основаны на видео, созданном ИИ и опубликованном в прошлом году, в котором утверждалось, что на нем показаны поврежденные здания в израильском городе Хайфа во время конфликта между Израилем и Ираном в 2025 году. Клип, набравший более 700 000 просмотров, был размещен аккаунтом, который выдавал себя за новостное издание, но на самом деле управлялся кем-то на Филиппинах.

После того, как видео было сообщено Meta, компания отказалась удалить его или добавить метку «высокого риска» для ИИ, которая ясно указывала бы, что контент был создан или изменен с помощью ИИ. Совет отменил решение Meta не добавлять метку «высокого риска» и заявил, что этот случай освещает несколько областей, где текущие правила компании в отношении ИИ не справляются.

«Meta должна сделать больше для борьбы с распространением обманчивого контента, созданного ИИ, на своих платформах, в том числе посредством неаутентичных или злоупотребляющих сетями аккаунтов и страниц, особенно по вопросам, представляющим общественный интерес, чтобы пользователи могли отличать реальное от поддельного», — написал совет в своем решении. Meta в конечном итоге заблокировала три аккаунта, связанные со страницей, после того как совет выявил «очевидные признаки обмана».

Одна из главных рекомендаций совета заключается в том, чтобы Meta создала специальное правило для контента, сгенерированного ИИ, которое было бы отделено от политики в отношении дезинформации. Согласно совету, правило должно содержать конкретные указания о том, как и когда пользователи обязаны маркировать контент ИИ, а также информацию о том, как Meta наказывает тех, кто нарушает правило.

Совет также резко раскритиковал то, как Meta использует свои текущие метки «AI Info«, отметив, что способ их применения «не является достаточно надежным или всеобъемлющим, чтобы справиться с масштабом и скоростью генерации контента с помощью ИИ», особенно во время конфликтов или кризисов. «Система, чрезмерно зависящая от самораскрытия использования ИИ и эскалации проверки (которая происходит нечасто) для надлежащей маркировки этого вывода, не может справиться с вызовами, стоящими в текущей среде».

Meta, по словам совета, также должна инвестировать в более совершенные технологии обнаружения, которые могут надежно маркировать медиа, созданные ИИ, включая аудио и видео. Группа добавила, что она «обеспокоена» сообщениями о том, что компания «непоследовательно внедряет» цифровые водяные знаки на контент, созданный ее собственными инструментами ИИ.

Meta не сразу отреагировала на запрос о комментарии по поводу решения Наблюдательного совета. У компании есть 60 дней, чтобы официально ответить на его рекомендации.

Это не первое критическое замечание совета в адрес Meta по поводу обработки ИИ-контента. Группа ранее называла правила компании в отношении манипулируемых медиа «непоследовательными» дважды и критиковала ее за то, что она полагается на сторонние организации, включая фактчекинговые, для выявления проблемного контента. Опора Meta на фактчекеров и других «доверенных партнеров» снова была поднята в этом случае, при этом совет заявил, что слышал от этих групп, что Meta «менее отзывчива к обращениям и опасениям, отчасти из-за значительного сокращения возможностей внутренних команд Meta». Meta, пишет совет, «должна быть способна проводить такую оценку вреда самостоятельно, а не полагаться исключительно на партнеров, обращающихся к ним во время вооруженного конфликта».

Хотя решение Наблюдательного совета относится к публикации прошлого года, проблема контента, созданного ИИ во время вооруженных конфликтов, приобрела новую актуальность во время последнего конфликта на Ближнем Востоке. С начала ударов США и Израиля по Ирану в начале этого месяца наблюдается резкий рост вирусной дезинформации, созданной ИИ, в социальных сетях. Совет, который ранее намекал, что хотел бы сотрудничать с компаниями, занимающимися генеративным ИИ, включил предложение, которое, по-видимому, применимо не только к Meta.

«Индустрии необходима последовательность в помощи пользователям отличать обманчивый контент, созданный ИИ, а платформы должны бороться со злоупотребляющими аккаунтами и страницами, распространяющими такой контент», — говорится в сообщении.