Нейросети 9 апреля 2026 · 2 мин чтения 172 0

Anthropic создала Mythos — модель, которую считает слишком опасной для публикации

Anthropic сообщила о создании модели под названием Mythos, которая, по словам компании, «слишком мощна для широкого релиза». В ходе внутреннего тестирования Mythos автоматически обнаружила тысячи ранее неизвестных уязвимостей в широко используемых приложениях, операционных системах и браузерах — без человеческого участия и подсказок.

Почему не выпустили

Вместо публичного релиза Anthropic ограничила доступ к Mythos и предоставила специальную версию избранным организациям, работающим в сфере кибер-обороны. Логика такова: если модель способна находить критические уязвимости быстрее любого человека-исследователя, в руках злоумышленника она станет оружием. В руках защитника — инструментом превентивной обороны. Anthropic выбрала второй сценарий и закрыла первый.

Решение знаменует новый этап в дискуссии о фронтирных моделях: речь больше не только о том, насколько модели умны, но и о том, когда их наступательный потенциал начинает опережать способность общества к защите. Это первый случай, когда крупная AI-лаборатория открыто признала, что её продукт может быть опасен — и сделала из этого не маркетинговый ход, а реальное ограничение доступа.

Скептический взгляд

Критики, впрочем, указывают на удобство ситуации: заявление о «слишком опасной модели» — эффективный способ подчеркнуть технологическое лидерство, не подвергая продукт публичной проверке и бенчмаркам. Независимых подтверждений заявленных возможностей Mythos пока нет. Anthropic обещает опубликовать технический отчёт, но сроки не называет.

Для индустрии прецедент важен вне зависимости от того, насколько реальны возможности Mythos: он устанавливает норму, при которой лаборатория может (и, возможно, обязана) ограничивать выпуск модели по соображениям безопасности. До сих пор фронтирные модели выпускались по принципу «чем мощнее — тем лучше». Mythos показывает: этот принцип имеет предел.

Что дальше

Anthropic передала ограниченную версию Mythos в Project Glasswing — совместную инициативу с Amazon, Apple, Google, Microsoft и Nvidia по превентивному поиску уязвимостей. Если эксперимент покажет результаты, модель «опасная, но контролируемая» может стать шаблоном для всей отрасли. Вопрос — согласится ли общество с тем, что решение о выпуске или блокировке мощных AI-моделей принимает частная компания без публичного надзора.