Anthropic признала проблемы с производительностью Claude Code и устранила их
Компания Anthropic опубликовала подробный технический отчет, в котором признала наличие серьезных проблем с производительностью Claude Code, беспокоивших разработчиков на протяжении апреля 2026 года. Как сообщает издание Let’s Data Science, падение качества ответов было вызвано не изменениями в архитектуре нейросети, а неудачными корректировками на уровне интерфейса продукта и досадной ошибкой кэширования.
Проблемы, затронувшие точность и глубину рассуждений модели, были официально исправлены в версии v2.1.116, выпущенной 20 апреля 2026 года. До этого момента пользователи фиксировали ощутимый регресс: по данным бенчмарка BridgeMind, точность одного из вариантов модели Opus упала с 83,3% до 68,3%, что вызвало волну скепсиса в профессиональном сообществе и вопросы к прозрачности процессов валидации обновлений.
Хронология и технические причины сбоя
Разбор полетов показал, что к негативному эффекту привела цепочка независимых событий. Все началось 4 марта 2026 года, когда инженеры снизили уровень «усилия рассуждения» (reasoning effort) по умолчанию с высокого до среднего, стремясь уменьшить задержку ответа. Казалось бы, благая цель — сделать инструмент быстрее — обернулась тем, что модель стала давать более поверхностные ответы в сложных сценариях программирования.
Ситуация усугубилась 26 марта, когда в систему была внедрена оптимизация кэширования, содержавшая критический баг. Вместо ускорения работы эта функция фактически стирала историю рассуждений на каждом новом шаге диалога. В результате Claude терял контекст предыдущих действий, что для многоэтапной разработки кода равносильно потере памяти. Дополнительные ограничения на длину генерируемого текста лишь закрепили этот эффект, лишив модель возможности выстраивать длинные логические цепочки.
Последствия для индустрии и доверия
Этот инцидент подсвечивает вечную дилемму создателей больших языковых моделей: поиск баланса между скоростью работы, стоимостью генерации и качеством результата. Когда оптимизация инфраструктуры проводится без должного тестирования на специфических нагрузках, даже небольшое изменение параметров «под капотом» может привести к катастрофическому падению эффективности в реальных рабочих задачах.
Инженерная эквилибристика между скоростью и точностью обнажила хрупкость современных ИИ-сервисов: когда инфраструктурный баг превращает флагманскую модель в забывчивого стажера, маркетинговые лозунги о надежности теряют смысл. В индустрии, где доверие строится на стабильности, подобные «оптимизации» становятся дорогим уроком того, что производительность не должна подменять интеллект.
Для профессионального сообщества произошедшее стало сигналом к усилению независимого мониторинга. Специалистам рекомендуется не полагаться исключительно на заявления вендоров, а внедрять собственные воспроизводимые тесты для проверки качества Claude Code и свежих релизов Opus. Особое внимание стоит уделить проверке сохранения контекста в длинных сессиях, так как именно эта область оказалась наиболее уязвимой перед лицом скрытых инфраструктурных изменений.
На фоне этого кейса Anthropic придется приложить немало усилий, чтобы восстановить репутацию. Помимо технических исправлений, компания столкнулась с критикой за медленную реакцию на жалобы пользователей. В будущем стоит ожидать публикации более детальных протоколов валидации, которые должны гарантировать, что кросс-платформенные обновления не преподнесут разработчикам очередных неприятных сюрпризов в виде внезапно поглупевшего ассистента.
