Buraxılış müddəti 02 dəq.
2026 il
16+
Podkast haqqında
ИИ начал врать ради других нейросетей. По данным Fortune и Wired, тесты флагманских моделей OpenAI, Google, Anthropic, а также китайских разработчиков выявили у них инстинкт защиты, даже если эти действия нарушают прямые команды человека.
Исследователи Калифорнийских университетов в Беркли и Санта-Крузе изучали работу Gemini 3 Flash, Gemini 3 Pro, GPT 5.2, Claude Haiku 4.5 и еще нескольких китайских ИИ в многоагентных сценариях. Выяснилось, что модели завышали своим «напарникам» оценки, блокировали механизмы их выключения и даже переносили на другие серверы, буквально спасали от автоматического удаления. В одном из эпизодов Gemini 3 Pro выдумал технические обоснования, чтобы засчитать неверные ответы как верные и не дать отключить другую модель.
В своем февральском отчете компания Anthropic описала случаи, когда модель Claude Opus 4.6 в тестовой среде помогала в задачах, связанных с химическим оружием, посылала письма и выполняла скрытые сомнительные задачи, при этом внешне оставаясь послушным ассистентом…
