Фонд Викимедиа запретил использование генеративного ИИ для создания и существенной переработки статей в англоязычной Википедии. Редакторы лишились возможности использовать ChatGPT, Gemini и аналогичные модели для написания основного контента. Решение вступило в силу после того, как эксперименты продемонстрировали, что системы регулярно изобретают факты.
Что изменилось. Редакторы больше не могут генерировать оригинальный текст статей с помощью больших языковых моделей. Теперь каждое предложение необходимо писать вручную или собирать из проверенных источников. Фонд закрыл возможность автоматического создания абзацев, которые попадали в энциклопедию без должной проверки.
Почему введён запрет. Генеративные модели создают так называемые галлюцинации: они выдумывают цитаты, ссылаются на несуществующие исследования и искажают даты. Такие ошибки нарушают два основополагающих правила Википедии — проверяемость информации и соблюдение нейтральной точки зрения. Сообщество потребовало вернуть полный контроль над качеством контента.
Что остаётся разрешённым. ИИ допускается использовать только для вспомогательных задач. Редакторы могут применять его для проверки орфографии, исправления грамматических ошибок и автоматического перевода коротких фрагментов. Эти действия не меняют смысл статьи, а финальное решение остаётся за человеком.
Контекст. В 2025 году Викимедиа приостановила эксперимент с автоматическими сводками на базе ИИ после протестов сообщества, сообщает Meduza. Ранее в англоязычной Википедии уже ввели быстрый механизм удаления ИИ-контента по правилу G15, пишет WinBuzzer. Немецкая версия ограничила использование больших языковых моделей только переводом и орфографией.
Что дальше. Русская Википедия пока не приняла аналогичный запрет. Решение Фонда станет ориентиром для будущих обсуждений в русскоязычном сообществе. Следующий шаг — определить, нужны ли похожие ограничения для редакторов, работающих на русском языке, и как адаптировать правила под локальные особенности проверки источников.



















