OpenAI предупреждает, что невозможно решить проблему уязвимостей через промпт-иньекции в AI-браузерах

OpenAI признала, что браузеры с функциями искусственного интеллекта, такие как ChatGPT Atlas, вероятно, никогда не смогут полностью защититься от атак, которые называют prompt injection (внедрение скрытых команд, заставляющих ИИ выполнять нежелательные действия).

Компания написала в своем блоге, что такие атаки "вряд ли когда-нибудь будут полностью решены". Agent mode (автономный режим в браузере Atlas) расширяет поверхность угроз, потому что дает искусственному интеллекту больше доступа и возможностей действовать.

OpenAI запустила браузер Atlas в октябре 2025 года. Сразу после этого исследователи безопасности показали, что можно написать пару слов в документе Google Docs, и они изменят поведение браузера. В тот же день другая компания, Brave, опубликовала сообщение о том, что косвенные prompt injection атаки это серьезная проблема для AI-браузеров, включая браузер Comet от Perplexity.

OpenAI отмечает, что они не одни в этом понимании. Британский Национальный центр кибербезопасности недавно предупредил, что такие атаки "может быть никогда не удастся полностью устранить". Вместо этого специалисты по безопасности должны сосредоточиться на уменьшении риска и последствий, а не на попытках полностью остановить эти атаки.

Чтобы улучшить защиту, OpenAI использует большие объемы тестирования и быстрые циклы исправлений, стараясь закрыть уязвимости до того, как их будут использовать злоумышленники в реальном мире. Компания также тренирует внутреннего "хакера" ИИ, который пытается находить новые способы атаковать системы, чтобы быстрее выявлять слабые места.

В демонстрации OpenAI показала, как злоумышленник мог вставить вредоносное письмо в почтовый ящик пользователя. Когда агент сканировал входящие сообщения, он следовал скрытым инструкциям и отправлял сообщение об увольнении вместо автоматического ответа. После обновления безопасности агент смог распознать попытку внедрения и предупредить пользователя.

OpenAI также рекомендует пользователям уменьшить риски, ограничивая доступ ИИ к личным аккаунтам и требуя подтверждения перед выполнением важных действий. Компания отмечает, что широкий доступ облегчает скрытому или вредоносному контенту влиять на поведение ИИ, даже если есть защита.

Специалисты по безопасности указывают, что AI-браузеры с высокой степенью автономии и доступом к данным - это сложная зона риска. Хотя OpenAI продолжает совершенствовать защиту, но пока нет гарантий, что такие системы когда-нибудь станут полностью безопасными.

Источник: TechCrunch

Комментарии (0)

Войдите, чтобы оставить комментарий

Похожие статьи

AI 5 дней назад

AIнашёл почти 1 400 необычных объектов в архиве Хаббла

Искусственный интеллект AnomalyMatch впервые полностью просканировал архив данных космического телескопа Хаббл, найдя почти 1 400 аномальных космических объектов. Более 800 из них ранее не были описаны учёными, что подчёркивает потенциал ИИ для открытия новых явлений во Вселенной.

17 0 1 мин
AI 5 дней назад

ИИ против человеческого творчества: кто в итоге сильнее?

Крупное исследование Университета Монреаля, сравнивающее творческие способности людей и современных ИИ-моделей. Выводы показывают, что ИИ может быть креативным в отдельных тестах, но по широкому спектру задач человеческое творчество остаётся сильнее.

16 0 1 мин
AI 1 неделю назад

Google превращает Chrome в AI-браузер

Крупное обновление Chrome от Google с глубокой интеграцией ИИ Gemini, появлением постоянной боковой панели, инструментов автоматизации задач и функцией Auto Browse, делающей браузер более интеллектуальным. Эти изменения направлены на конкуренцию с новыми AI-браузерами и автоматизацию повседневных действий в интернете.

31 0 1 мин