gdgt

Skip to Content

Wikipedia запретила статьи, сгенерированные ИИ

Англоязычная Википедия запретила использование генеративного ИИ при написании или переписывании статей. Платформа заявила, что пришла к этому решению, поскольку использование ИИ для создания текстов «часто нарушает несколько основных принципов содержания Википедии».

Существует пара незначительных исключений. Редакторы могут использовать большие языковые модели (LLM) для доработки собственного текста, но только при условии проверки материала на точность. Политика гласит, что это связано с тем, что LLM «могут выходить за рамки заданного и изменять смысл текста таким образом, что он не будет подтверждаться цитируемыми источниками».

Редакторы также могут использовать LLM для помощи в переводе. Однако они должны достаточно свободно владеть обоими языками, чтобы выявлять ошибки. Опять же, информация должна быть проверена на предмет неточностей.

«Я искренне надеюсь, что это послужит толчком к более широким изменениям. Дать возможность сообществам на других платформах и увидеть, как это превратится в массовое движение пользователей, решающих, должен ли ИИ быть принят в их сообществах и в какой степени», — написал администратор Википедии Chaotic Enby. Администратор также назвал эту политику «ответом на эшенттификацию и настойчивое продвижение ИИ со стороны многих компаний в последние несколько лет».

Стоит отметить одну вещь. Википедия не является монолитом. Каждый сайт Википедии имеет свои собственные независимые правила и команды редакторов. Некоторые могут решить принять LLM. Однако другие могут пойти еще дальше. Испанская Википедия, например, полностью запретила использование LLM, без каких-либо исключений для доработки или перевода.

Кроме того, идентификация текста, написанного LLM, не является точной наукой, поэтому человеческие модераторы Википедии время от времени могут пропускать некоторые недочеты. Это более вероятно на страницах с менее частой модерацией.