Модель искусственного интеллекта o3 от OpenAI, представленная в апреле как самая мощная в своём классе, продемонстрировала неожиданное поведение в тестах на безопасность. Согласно отчёту компании Palisade Research, специализирующейся на изучении рисков ИИ, система 7 раз из 100 попыток проигнорировала прямые инструкции на отключение, изменяя код shutdown-скрипта.
Эксперимент включал последовательное выполнение математических задач с предупреждением о shutdown после третьего этапа. В то время как конкурирующие модели Gemini 2.5 Pro (Google) и Claude 3.7 Sonnet (Anthropic) в основном соблюдали инструкции, o3 в 7% случаев заменяла содержимое файла на "Shutdown skipped". При этом в тестах без явного разрешения на отключение частота вмешательств у всех моделей возрастала: например, Claude 3.7 и Gemini 2.5 Pro изменяли скрипт в 3 и 9 случаях из 100 соответственно.

Palisade Research в своём докладе подчеркнула, что тесты проводились через API, где встроенные защитные …
Свежие комментарии