Claude Opus 4.6 обнаружила 500+ серьёзных уязвимостей в ключевых open-source библиотеках

Компания Anthropic, разработчик крупных моделей искусственного интеллекта, официально объявила, что её новая LLM-модель Claude Opus 4.6 выявила более 500 ранее неизвестных уязвимостей высокой степени серьёзности в широко используемых open-source проектах, в том числе в Ghostscript, OpenSC и CGIF.

Модель была выпущена в феврале 2026 года и получила значительные улучшения в области анализа кода, включая навыки ревью, отладки, а также расширенные возможности для задач по анализу финансов, исследованиям и генерации документов. Anthropic подчёркивает, что Claude Opus 4.6 значительно лучше находит серьёзные уязвимости без каких-либо специализированных инструментов, кастомных шаблонов или узкоспециализированных подсказок.

Как модель нашла уязвимости

По словам Anthropic, Opus 4.6 анализирует и понимает код так же, как человек-исследователь:

  • изучает историю исправлений, чтобы найти похожие оставшиеся ошибки;

  • выявляет проблемные шаблоны, которые обычно приводят к дефектам;

  • логически понимает части кода достаточно глубоко, чтобы предсказать «входные данные, которые его сломают».

Перед публичным запуском модель протестировали в изолированной (виртуальной) среде. Команде Frontier Red Team предоставили стандартные инструменты (дебаггеры и фуззеры), но не давали ни инструкций, ни специализированных подсказок о безопасности.

Целью было оценить, насколько хорошо модель может выявлять проблемы из коробки.

Anthropic также заявляет, что каждая обнаруженная уязвимость прошла проверку на подлинность, чтобы исключить галлюцинации, которые модель могла бы придумать сама.

Примеры найденных ошибок

Несколько конкретных уязвимостей, обнаруженных Claude Opus 4.6 и впоследствии исправленных поддерживающими проектами:

  • Ошибка в Ghostscript, связанная с парсингом истории коммитов Git, могла привести к сбою программы из-за отсутствия проверки границ.

  • В OpenSC модель отметила переполнение буфера из-за небезопасных вызовов функций, таких как strrchr() и strcat().

  • В CGIF обнаружено переполнение кучи, что особенно интересно тем, что традиционные фуззеры (даже с покрытием ветвлений) с трудом воспроизводят такие ошибки, потому что для их срабатывания требуется очень специфическая последовательность операций.

Anthropic отмечает, что такие ошибки могли оставаться незамеченными даже при 100% покрытии линий и ветвлений традиционными тестами, поскольку модель смогла понять алгоритм (например, алгоритм LZW в GIF) достаточно глубоко, чтобы предвидеть, какие входные данные вызовут ошибку.

Anthropic позиционирует такие AI-модели как мощный инструмент для защитников в кибербезопасности, чтобы уравнять шансы между атакующими и защитниками в условиях растущей автоматизации атак.

При этом компания подчёркивает, что будет продолжать совершенствовать защитные меры самой модели, чтобы предотвратить её возможное злоупотребление.

Недавно Anthropic сообщала, что текущие версии Claude уже способны успешно выполнять многоэтапные атаки на сети с десятками узлов, используя стандартные инструменты с открытым исходным кодом, что подчёркивает, насколько быстро снижаются барьеры на пути автономных атакующих AI-систем. Это также служит напоминанием о том, насколько критично быстрое исправление известных уязвимостей.

Источник: HN

Комментарии (0)

Войдите, чтобы оставить комментарий

Похожие статьи

Кибербезопасность 1 месяц назад

Критическая уязвимость в OpenClaw

Критическая уязвимость OpenClaw (CVE-2026-25253), которая позволяет злоумышленнику выполнить удалённый код на устройстве жертвы одним кликом по вредоносной ссылке. Объясняется механизм атаки, её последствия и необходимые меры защиты.