Wikimedia бьет тревогу по поводу влияния ИИ на достоверность знаний и информации в интернете. В записи в блоге старший директор по продуктам Wikimedia Маршалл Миллер излагает влияние на количество просмотров страниц, которое фонд связывает с ростом LLM-чат-ботов и сводок, генерируемых ИИ, в результатах поиска.
«Мы считаем, что это снижение отражает влияние генеративного ИИ и социальных сетей на то, как люди ищут информацию, особенно когда поисковые системы предоставляют ответы непосредственно искателям, часто основанные на контенте Википедии», — сказал Миллер.
Фонд все чаще сталкивается с ИИ-ботами-краулерами, чья сложность затруднила отделение трафика людей от ботов. После улучшения обнаружения ботов для получения более точных метрик, данные Википедии показывают снижение количества просмотров страниц на 8 процентов год к году.
Миллер рисует картину экзистенциального риска, более серьезного, чем количество просмотров страниц веб-сайта. Он утверждает, что если трафик Википедии продолжит снижаться, это может поставить под угрозу то, что он называет «единственным сайтом такого масштаба со стандартами проверяемости, нейтральности и прозрачности, обеспечивающим информацию по всему интернету». Он предупреждает, что меньшее количество посещений Википедии приведет к меньшему количеству волонтеров, меньшему финансированию и, в конечном итоге, к менее достоверному контенту.
Предлагаемое им решение заключается в том, чтобы LLM и результаты поиска более целенаправленно предоставляли пользователям возможность напрямую взаимодействовать с источником представляемой информации. «Чтобы люди доверяли информации, публикуемой в интернете, платформы должны четко указывать, откуда взята информация, и способствовать возможности посещать эти источники и участвовать в них», — пишет Миллер.
Ранее этим летом Википедия выдвинула идею сводок, генерируемых ИИ, которые должны были появляться вверху статей. Проект был в конечном итоге отменен до его начала после ожесточенной критики со стороны волонтеров-редакторов сайта.