OpenAI предупреждает, что невозможно решить проблему уязвимостей через промпт-иньекции в AI-браузерах

OpenAI признала, что браузеры с функциями искусственного интеллекта, такие как ChatGPT Atlas, вероятно, никогда не смогут полностью защититься от атак, которые называют prompt injection (внедрение скрытых команд, заставляющих ИИ выполнять нежелательные действия).

Компания написала в своем блоге, что такие атаки "вряд ли когда-нибудь будут полностью решены". Agent mode (автономный режим в браузере Atlas) расширяет поверхность угроз, потому что дает искусственному интеллекту больше доступа и возможностей действовать.

OpenAI запустила браузер Atlas в октябре 2025 года. Сразу после этого исследователи безопасности показали, что можно написать пару слов в документе Google Docs, и они изменят поведение браузера. В тот же день другая компания, Brave, опубликовала сообщение о том, что косвенные prompt injection атаки это серьезная проблема для AI-браузеров, включая браузер Comet от Perplexity.

OpenAI отмечает, что они не одни в этом понимании. Британский Национальный центр кибербезопасности недавно предупредил, что такие атаки "может быть никогда не удастся полностью устранить". Вместо этого специалисты по безопасности должны сосредоточиться на уменьшении риска и последствий, а не на попытках полностью остановить эти атаки.

Чтобы улучшить защиту, OpenAI использует большие объемы тестирования и быстрые циклы исправлений, стараясь закрыть уязвимости до того, как их будут использовать злоумышленники в реальном мире. Компания также тренирует внутреннего "хакера" ИИ, который пытается находить новые способы атаковать системы, чтобы быстрее выявлять слабые места.

В демонстрации OpenAI показала, как злоумышленник мог вставить вредоносное письмо в почтовый ящик пользователя. Когда агент сканировал входящие сообщения, он следовал скрытым инструкциям и отправлял сообщение об увольнении вместо автоматического ответа. После обновления безопасности агент смог распознать попытку внедрения и предупредить пользователя.

OpenAI также рекомендует пользователям уменьшить риски, ограничивая доступ ИИ к личным аккаунтам и требуя подтверждения перед выполнением важных действий. Компания отмечает, что широкий доступ облегчает скрытому или вредоносному контенту влиять на поведение ИИ, даже если есть защита.

Специалисты по безопасности указывают, что AI-браузеры с высокой степенью автономии и доступом к данным - это сложная зона риска. Хотя OpenAI продолжает совершенствовать защиту, но пока нет гарантий, что такие системы когда-нибудь станут полностью безопасными.

Источник: TechCrunch

Комментарии (0)

Войдите, чтобы оставить комментарий

Похожие статьи

AI 3 месяца назад

AI-очки, которые помогают незрячим людям безопасно передвигаться

Очки с искусственным интеллектом, которые помогают незрячим людям ориентироваться в пространстве, избегать препятствий и безопасно передвигаться, используя датчики и тактильную обратную связь.

AI 1 месяц назад

Reddit считает AI-поиск своей следующей большой возможностью

Reddit рассматривает AI-поиск как ключевой элемент своего развития, объединяя традиционный поиск и AI-ответы для улучшения пользовательского опыта и создания новых источников роста. Статья объясняет стратегию компании и планы на будущее.

Технологии и IT-новости 2 недели назад

OpenAI разрабатывает альтернативу GitHub

OpenAI может запустить собственную платформу для хостинга кода, которая станет альтернативой GitHub и будет построена вокруг AI-моделей. Такой сервис может изменить привычный процесс разработки и усилить конкуренцию на рынке инструментов для программистов.