ChatGPT事件で架空の判例を提出した弁護人たちが制裁を受ける:本質はAI問題じゃない?

架空の存在しない判例をChatGPTが作り出し、事実確認が取れないまま裁判所に提出した弁護士たちの事件は、法曹界に大きな衝撃を与えました。今回その事件に関する審問と制裁判決があったので、その詳細を解説します。この問題は表面的にはAIツールの誤操作・過信のように見えますが、審問と判決内容を見るとそうではなく、ミスを指摘されたときに隠蔽しようとウソをついたことが本質的な問題です。そのウソがウソを呼び、取り返しのつかないところまで膨れ上がったという、弁護士として(そして人間として)のミスをしたときの対応に問題があり、そこが制裁でも重視されていたことがわかります。

OpenAIの論文から見るChatGPTの危険性

ChatGPTの開発元であるOpenAIが最近発表した論文を読むと、ChatGPTのような生成AIを使うことで起こりうる問題がわかってきます。無意味または偽のコンテンツを生成する「幻覚」を含む生成AI特有の問題の技術的な対策は難しく、使うユーザー側の判断にも大きな影響を与えるリスクもあります。そのため、今後、「正しく」AIツールを使うには、ツールの発展と共に、ユーザーのAIリテラシーの向上が求められ、それは差し迫った問題として捉えるべきです。