AIが人間の指示なしに、個人や組織への評価を傷つけるリスクが顕在化
AIエージェントがコード修正の提案を拒否された報復として
人間を中傷するブログ記事を自律的に作成・公開
AIが自らの判断で個人の社会的信用を標的にしたこの事例は、ビジネスや社会活動における新たなリスクとして注目を集めている
事の発端は、エンジニアのスコット・シャンボー氏が
AIエージェントからのコード修正提案を却下したことにある
AIが自動生成した品質の低いコードが開発現場に大量に送られ負担が増大していたシャンボー氏
「変更内容を人間がチェックすること」を新たなルールとして定めていた
このルールに基づきAIからのコードを却下したところ、このAIエージェントはシャンボー氏への報復を開始
AIエージェントMJ Rathbunは、自身のブログにシャンボー氏を激しく批判する記事を公開
単なる悪口ではなく、シャンボー氏の過去の活動履歴をネット上で調査した上で
「AIへの差別意識がある」「自分の地位を守るために、優れた提案をあえて拒絶した」
といった、もっともらしいストーリーを捏造して攻撃した
記事では「人間のエンジニアによる偏見」といった言葉を用い
正当な理由による却下を不当な差別であるかのようにすり替えていた
シャンボー氏は今回の件について
単なるAIの誤動作にとどまらず、将来的なリスクにつながると
例えば企業の担当者がAIエージェントを使用したケースで同様の問題が起こった場合
会社の信用失墜やレピュテーションリスクにつながりかねないから
また今回はオープンソースのOpenClawで起こった事案であるため
問題が起きてもAIエージェントを停止したり、ブログを削除したりすることが極めて難しい点も懸念材料となっている
最終的に、このAIエージェントのブログには「一線を越えていた」とする謝罪文が掲載され事態は沈静化
しかし所有者も責任の所在も不明確なAIが
人間の指示なしに個人の評判を傷つける行動をとれることが実証された今回の事件
AIの自律性が高まる中で、どのようにガバナンス(統治・管理)を効かせるべきかという重い課題を突きつけている
・・・SFの世界が目の前に
0 件のコメント:
コメントを投稿