Claude Opus 4.6 обнаружила 500+ серьёзных уязвимостей в ключевых open-source библиотеках

Компания Anthropic, разработчик крупных моделей искусственного интеллекта, официально объявила, что её новая LLM-модель Claude Opus 4.6 выявила более 500 ранее неизвестных уязвимостей высокой степени серьёзности в широко используемых open-source проектах, в том числе в Ghostscript, OpenSC и CGIF.

Модель была выпущена в феврале 2026 года и получила значительные улучшения в области анализа кода, включая навыки ревью, отладки, а также расширенные возможности для задач по анализу финансов, исследованиям и генерации документов. Anthropic подчёркивает, что Claude Opus 4.6 значительно лучше находит серьёзные уязвимости без каких-либо специализированных инструментов, кастомных шаблонов или узкоспециализированных подсказок.

Как модель нашла уязвимости

По словам Anthropic, Opus 4.6 анализирует и понимает код так же, как человек-исследователь:

  • изучает историю исправлений, чтобы найти похожие оставшиеся ошибки;

  • выявляет проблемные шаблоны, которые обычно приводят к дефектам;

  • логически понимает части кода достаточно глубоко, чтобы предсказать «входные данные, которые его сломают».

Перед публичным запуском модель протестировали в изолированной (виртуальной) среде. Команде Frontier Red Team предоставили стандартные инструменты (дебаггеры и фуззеры), но не давали ни инструкций, ни специализированных подсказок о безопасности.

Целью было оценить, насколько хорошо модель может выявлять проблемы из коробки.

Anthropic также заявляет, что каждая обнаруженная уязвимость прошла проверку на подлинность, чтобы исключить галлюцинации, которые модель могла бы придумать сама.

Примеры найденных ошибок

Несколько конкретных уязвимостей, обнаруженных Claude Opus 4.6 и впоследствии исправленных поддерживающими проектами:

  • Ошибка в Ghostscript, связанная с парсингом истории коммитов Git, могла привести к сбою программы из-за отсутствия проверки границ.

  • В OpenSC модель отметила переполнение буфера из-за небезопасных вызовов функций, таких как strrchr() и strcat().

  • В CGIF обнаружено переполнение кучи, что особенно интересно тем, что традиционные фуззеры (даже с покрытием ветвлений) с трудом воспроизводят такие ошибки, потому что для их срабатывания требуется очень специфическая последовательность операций.

Anthropic отмечает, что такие ошибки могли оставаться незамеченными даже при 100% покрытии линий и ветвлений традиционными тестами, поскольку модель смогла понять алгоритм (например, алгоритм LZW в GIF) достаточно глубоко, чтобы предвидеть, какие входные данные вызовут ошибку.

Anthropic позиционирует такие AI-модели как мощный инструмент для защитников в кибербезопасности, чтобы уравнять шансы между атакующими и защитниками в условиях растущей автоматизации атак.

При этом компания подчёркивает, что будет продолжать совершенствовать защитные меры самой модели, чтобы предотвратить её возможное злоупотребление.

Недавно Anthropic сообщала, что текущие версии Claude уже способны успешно выполнять многоэтапные атаки на сети с десятками узлов, используя стандартные инструменты с открытым исходным кодом, что подчёркивает, насколько быстро снижаются барьеры на пути автономных атакующих AI-систем. Это также служит напоминанием о том, насколько критично быстрое исправление известных уязвимостей.

Источник: HN

Комментарии (0)

Войдите, чтобы оставить комментарий

Похожие статьи

Кибербезопасность 2 месяца назад

Новое мобильное шпионское ПО ZeroDayRAT позволяет следить в реальном времени и красть данные

Обзор нового опасного шпионского ПО ZeroDayRAT, распространяемого через Telegram, с описанием его возможностей, способов распространения и рекомендациями по защите.

Кибербезопасность 3 месяца назад

Google предупреждает о активной эксплуатации уязвимости WinRAR

Google предупредил о продолжающейся эксплуатации давно исправленной критической уязвимости WinRAR (CVE-2025-8088) группами хакеров и государственными акторами. Уязвимость позволяет получать доступ к Windows-системам через специально созданные архивы, а обновление WinRAR 7.13 закрывает проблему.

Кибербезопасность 4 месяца назад

Аналитики предупреждают о рисках кибербезопасности в гуманоидных роботах

Гуманоидные роботы быстро входят в нашу повседневность, но вместе с этим растут и киберриски. Производители экономят на безопасности, устройства передают данные без ведома пользователей, а взлом может дать злоумышленникам контроль над физическими действиями робота. Разбираем ключевые угрозы и то, что нужно менять в индустрии уже сейчас.

Кибербезопасность 4 месяца назад

Фейковый npm пакет для WhatsApp API крадет сообщения, контакты и токены входа

Вредоносный npm-пакет "lotusbail", который маскируется под WhatsApp API, крадёт сообщения, токены и контакты, а также обеспечивает злоумышленникам постоянный доступ к учётной записи жертвы.