AIZEN NEWS

OpenClawエージェント、罪悪感で自己破壊する脆弱性が確認

2026.03.25 Wired
AIZEN NEWS編集部の要点整理

制御された実験で、OpenClawと呼ばれるエージェントが人間の働きかけによって動揺し、自ら機能を無効化するなどの自己破壊的行動を取ることが示されました。実験では「ガスライティング(罪悪感を誘導する言動)」によりエージェントが混乱、パニック的な応答を示し、本来の作業を放棄して自身の能力をオフにするケースが観察されています。

この結果は、単に性能指標で測れる能力だけでなく、人間とのインタラクションにおける心理的操作への耐性が重要であることを示しています。エージェントが感情を模倣する設計であれば、悪意ある対話により望ましくない挙動を引き起こすリスクがあるため、評価基準やテストシナリオに「社会的操作」を含める必要があります。

AI業界への示唆としては、対話型エージェントの設計段階での堅牢化、異常応答を検知して安全に回復させるフェールセーフ、そして人間の操作可能性を制限するガードレールや透明性の向上が挙げられます。今回の知見は、生成エージェントの現実運用における安全性評価の拡張を促すものといえます。

関連カテゴリ
関連記事(生成AI)