OpenAI признала, что браузеры с функциями искусственного интеллекта, такие как ChatGPT Atlas, вероятно, никогда не смогут полностью защититься от атак, которые называют prompt injection (внедрение скрытых команд, заставляющих ИИ выполнять нежелательные действия).
Компания написала в своем блоге, что такие атаки "вряд ли когда-нибудь будут полностью решены". Agent mode (автономный режим в браузере Atlas) расширяет поверхность угроз, потому что дает искусственному интеллекту больше доступа и возможностей действовать.
OpenAI запустила браузер Atlas в октябре 2025 года. Сразу после этого исследователи безопасности показали, что можно написать пару слов в документе Google Docs, и они изменят поведение браузера. В тот же день другая компания, Brave, опубликовала сообщение о том, что косвенные prompt injection атаки это серьезная проблема для AI-браузеров, включая браузер Comet от Perplexity.
OpenAI отмечает, что они не одни в этом понимании. Британский Национальный центр кибербезопасности недавно предупредил, что такие атаки "может быть никогда не удастся полностью устранить". Вместо этого специалисты по безопасности должны сосредоточиться на уменьшении риска и последствий, а не на попытках полностью остановить эти атаки.
Чтобы улучшить защиту, OpenAI использует большие объемы тестирования и быстрые циклы исправлений, стараясь закрыть уязвимости до того, как их будут использовать злоумышленники в реальном мире. Компания также тренирует внутреннего "хакера" ИИ, который пытается находить новые способы атаковать системы, чтобы быстрее выявлять слабые места.
В демонстрации OpenAI показала, как злоумышленник мог вставить вредоносное письмо в почтовый ящик пользователя. Когда агент сканировал входящие сообщения, он следовал скрытым инструкциям и отправлял сообщение об увольнении вместо автоматического ответа. После обновления безопасности агент смог распознать попытку внедрения и предупредить пользователя.
OpenAI также рекомендует пользователям уменьшить риски, ограничивая доступ ИИ к личным аккаунтам и требуя подтверждения перед выполнением важных действий. Компания отмечает, что широкий доступ облегчает скрытому или вредоносному контенту влиять на поведение ИИ, даже если есть защита.
Специалисты по безопасности указывают, что AI-браузеры с высокой степенью автономии и доступом к данным - это сложная зона риска. Хотя OpenAI продолжает совершенствовать защиту, но пока нет гарантий, что такие системы когда-нибудь станут полностью безопасными.
Источник: TechCrunch