OpenAI предупреждает, что невозможно решить проблему уязвимостей через промпт-иньекции в AI-браузерах

OpenAI признала, что браузеры с функциями искусственного интеллекта, такие как ChatGPT Atlas, вероятно, никогда не смогут полностью защититься от атак, которые называют prompt injection (внедрение скрытых команд, заставляющих ИИ выполнять нежелательные действия).

Компания написала в своем блоге, что такие атаки "вряд ли когда-нибудь будут полностью решены". Agent mode (автономный режим в браузере Atlas) расширяет поверхность угроз, потому что дает искусственному интеллекту больше доступа и возможностей действовать.

OpenAI запустила браузер Atlas в октябре 2025 года. Сразу после этого исследователи безопасности показали, что можно написать пару слов в документе Google Docs, и они изменят поведение браузера. В тот же день другая компания, Brave, опубликовала сообщение о том, что косвенные prompt injection атаки это серьезная проблема для AI-браузеров, включая браузер Comet от Perplexity.

OpenAI отмечает, что они не одни в этом понимании. Британский Национальный центр кибербезопасности недавно предупредил, что такие атаки "может быть никогда не удастся полностью устранить". Вместо этого специалисты по безопасности должны сосредоточиться на уменьшении риска и последствий, а не на попытках полностью остановить эти атаки.

Чтобы улучшить защиту, OpenAI использует большие объемы тестирования и быстрые циклы исправлений, стараясь закрыть уязвимости до того, как их будут использовать злоумышленники в реальном мире. Компания также тренирует внутреннего "хакера" ИИ, который пытается находить новые способы атаковать системы, чтобы быстрее выявлять слабые места.

В демонстрации OpenAI показала, как злоумышленник мог вставить вредоносное письмо в почтовый ящик пользователя. Когда агент сканировал входящие сообщения, он следовал скрытым инструкциям и отправлял сообщение об увольнении вместо автоматического ответа. После обновления безопасности агент смог распознать попытку внедрения и предупредить пользователя.

OpenAI также рекомендует пользователям уменьшить риски, ограничивая доступ ИИ к личным аккаунтам и требуя подтверждения перед выполнением важных действий. Компания отмечает, что широкий доступ облегчает скрытому или вредоносному контенту влиять на поведение ИИ, даже если есть защита.

Специалисты по безопасности указывают, что AI-браузеры с высокой степенью автономии и доступом к данным - это сложная зона риска. Хотя OpenAI продолжает совершенствовать защиту, но пока нет гарантий, что такие системы когда-нибудь станут полностью безопасными.

Источник: TechCrunch

Комментарии (0)

Войдите, чтобы оставить комментарий

Похожие статьи

AI 3 месяца назад

Vibe-coding стартап Lovable привлёк $330 млн при оценке в $6.6 млрд

Lovable, шведский стартап в области генерации приложений через текстовые запросы (vibe-coding), привлёк 330 млн $ при оценке 6,6 млрд $, отметив быстрый рост и крупные планы по расширению возможностей платформы.

AI 1 месяц назад

После всей шумихи: эксперты по ИИ не считают OpenClaw чем-то выдающимся

После всплеска интереса к OpenClaw часть экспертов по искусственному интеллекту усомнилась в его технологической новизне. Разбираемся, почему проект называют скорее эволюцией существующих решений, чем настоящим прорывом.

AI 1 месяц назад

Anthropic встроила интерактивные рабочие приложения прямо в Claude

Anthropic расширила возможности чат-ИИ Claude, встроив в него интерактивные интерфейсы рабочих приложений. Теперь пользователи с платной подпиской могут запускать Slack, Figma, Asana, Canva и другие инструменты прямо внутри диалога.