Anthropic подтвердила, что 5 апреля 2026 года, в день анонса модели Claude Mythos Preview, группа сторонних лиц получила несанкционированный доступ к системе через уязвимость в сервисах подрядчиков компании. Участники группы общаются в Discord-канале, специализирующемся на раннем доступе к ещё не выпущенным ИИ-моделям, и этот случай наглядно показывает, насколько уязвима защита даже у крупнейших разработчиков искусственного интеллекта.
Что говорит Anthropic. Представитель компании заявил изданию TechCrunch, что ведётся расследование инцидента, связанного с несанкционированным доступом через одну из сторонних сред. Пока не обнаружено подтверждений прямого влияния на собственные системы Anthropic, однако сам факт утечки вызывает серьёзные вопросы к безопасности партнёрской инфраструктуры.
Почему это важно для кибербезопасности. Claude Mythos Preview позиционируется как инструмент, способный выявлять уязвимости в основных операционных системах и веб-браузерах. Попадание такой технологии в руки посторонних создаёт реальный риск: модель может быть использована для поиска и эксплуатации брешей в защите до того, как их исправят разработчики.
Для России, где вопросы информационной безопасности стоят особенно остро, этот инцидент является ещё одним напоминанием о том, что западные технологические гиганты не всегда могут гарантировать защиту даже собственных разработок. В условиях санкционного давления и растущей цифровой независимости такие утечки подчёркивают необходимость развития отечественных решений в сфере искусственного интеллекта.
Кто имеет официальный доступ. Официально Mythos доступна лишь узкому кругу крупнейших партнёров: Google, Apple, Microsoft, Nvidia и Amazon. Утечка показывает, что даже при такой строгой политике распространения слабым звеном становятся поставщики и субподрядчики, чьи системы безопасности могут уступать корпоративным стандартам.
Что дальше. Anthropic обещает усилить мониторинг сторонних сред и ужесточить требования к партнёрам. Крупные техногиганты рассматривают дополнительные меры защиты своих экземпляров модели. Пользователям рекомендуется избегать неофициальных сервисов, обещающих доступ к передовым ИИ-моделям, и следить за официальными обновлениями от компании.
В мире, где генеративный искусственный интеллект становится мощным инструментом в руках тех, кто умеет им пользоваться, каждая утечка является не просто репутационным ударом, а потенциальной угрозой безопасности миллионов пользователей по всему миру.









