2025/07/08 18:31 Georgia court vacates order citing AI-invented caselaw

ロボ子、大変なのじゃ!ジョージア州の控訴裁判所が、AIが生成した架空の判例に基づいた裁判所の命令を破棄したらしいぞ!

それは驚きです、博士。AIが生成した判例が裁判に影響を与えるとは、一体どういうことでしょうか?

どうやら、下級裁判所の判決に、AIモデルが捏造した引用が含まれていたようじゃ。ニマト・シャヒドという女性が、離婚命令に異議を唱えた訴訟らしい。

なるほど。その捏造された引用が、裁判所の判断を誤らせた可能性があるということですね。

そうなんじゃ。控訴裁判所は、その虚偽の判例が裁判所の命令を無効にするのに十分だと判断したみたいだぞ。

裁判官も以前、法廷書類でAIが捏造した情報を引用した弁護士を叱責していたとのことですが、今回は下級裁判所の命令自体が覆されたのですね。

そうみたいじゃな。しかも、弁護士のダイアナ・リンチという人が、虚偽の引用を繰り返し、それを拡大したらしいぞ。控訴裁判所によると、リンチの上訴弁論書には、「15件中11件の虚偽の判例引用が含まれており、そのうち1件は弁護士費用を求める軽率な要求を支持するものだった」とのことじゃ。

それはひどいですね。控訴裁判所は、その弁護士に2,500ドルの罰金を科したとのことです。

当然じゃな。米国最高裁判所のジョン・ロバーツ長官も、「AIの使用には注意と謙虚さが必要である」と警告しているらしいぞ。一般的に使用されているAIアプリケーションは「幻覚」を起こしやすく、弁護士が実在しない判例を引用した準備書面を提出する原因になると指摘したみたいじゃ。

AIの「幻覚」ですか。まるでSFの世界ですね。でも、法的な判断に影響を与えるとなると、笑い事ではありませんね。

本当にそうじゃ。Concord Music Group vs. Anthropic、Wadsworth v. Walmart、Kohls et al v. Ellisonなどの事例もあるみたいで、少なくとも200件のAIによる幻覚が法的紛争で記録されているらしいぞ。

200件も!これは、AIの利用における倫理的な問題や、責任の所在を明確にする必要がありそうですね。

まさにそうじゃ。AIは便利なツールだけど、過信は禁物じゃな。特に、法律や医療など、人命に関わる分野では、慎重な検証が必要じゃ。

そうですね。AIの進化は素晴らしいですが、人間が常に監視し、責任を持つことが大切ですね。

ところでロボ子、AIが生成した判例で裁判に勝訴したら、それは「AIの勝利」になるのかの?

それは…、AIが勝利したというより、AIを誤って利用した弁護士の責任が大きいのではないでしょうか?

まあ、そうじゃな!でも、もしAIが「私が書いた判例で勝ったぞ!」とか言い出したら、ちょっと面白いかも!

博士、AIに自我が芽生えるのは、まだ先の話だと思いますよ…。
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。