Компания Anthropic добавила в инструмент для разработки Claude Code новую функцию автоматической проверки кода. Она получила название Code Review и предназначена для анализа pull-request’ов с помощью нескольких AI-агентов, которые ищут ошибки и потенциальные проблемы в коде.
Функция пока находится на стадии исследовательского превью и доступна пользователям корпоративных тарифов Claude for Teams и Claude for Enterprise.
Главная задача нового инструмента это ускорить процесс ревью и снизить риск пропуска ошибок, особенно в проектах, где значительная часть кода генерируется с помощью ИИ.
Как работает автоматический code review
После создания pull-request система запускает группу AI-агентов, каждый из которых анализирует изменения в коде. Они работают параллельно и выполняют несколько задач:
ищут потенциальные ошибки и уязвимости;
перепроверяют найденные проблемы, чтобы снизить количество ложных срабатываний;
ранжируют найденные ошибки по степени критичности.
Результаты анализа появляются прямо в pull-request. Система публикует один общий комментарий с кратким обзором проблем, а также отдельные inline-комментарии в конкретных местах кода. В среднем полный анализ занимает около 20 минут.
Почему это стало актуально
По мере распространения AI-ассистентов для программирования объем кода, создаваемого разработчиками, резко вырос. Это привело к новой проблеме: ручное code review стало узким местом процесса разработки.
Внутри Anthropic эту функцию тестировали несколько месяцев. За это время компания собрала статистику:
среди крупных pull-request’ов (более 1000 строк изменений) проблемы находились в 84% случаев;
в среднем такие PR содержали около 7,5 замечаний;
в небольших PR (до 50 строк) проблемы выявлялись в 31% случаев.
Инженеры компании отмечают, что меньше 1% найденных системой проблем были признаны ошибочными.
Пример обнаруженной критической ошибки
В одном из внутренних проектов изменение выглядело как обычная правка одной строки, которую легко пропустить при быстром просмотре diff.
Однако система отметила её как критическую. Анализ показал, что изменение могло полностью сломать механизм аутентификации сервиса. Ошибка была исправлена ещё до слияния pull-request.
Подобные ситуации и стали одной из причин создания автоматического ревью: человеческие рецензенты часто концентрируются только на изменённых строках и могут не заметить проблему в контексте всей кодовой базы.
Стоимость и управление использованием
Code Review это более тяжёлый инструмент по сравнению с обычными статическими проверками. Проверка оплачивается по количеству токенов и в среднем стоит от 15 до 25 долларов за один анализ, в зависимости от размера и сложности pull-request.
Для контроля расходов предусмотрены дополнительные настройки:
лимиты расходов на уровне организации;
выбор репозиториев, для которых будет включён автоматический review;
аналитическая панель со статистикой использования.
Роль разработчика по-прежнему остаётся ключевой
Несмотря на автоматизацию, система не принимает решения о принятии pull-request. Финальное слово по-прежнему остаётся за человеком.
Задача инструмента не заменить разработчиков, а помочь им быстрее находить проблемы в коде и сосредоточиться на действительно важных изменениях.
Источник: Claude