Digital artwork showcasing the integration of generative AI in the legal field, with symbols representing legal documents, AI algorithms, and courtroom settings, emphasizing the balance between innovation and regulation.

判事による独自ルールも!適切な管理と運用が求められる法曹界での生成AI活用

生成AIの活用は法曹界でも注目されており、リーガルテック企業を中心に様々なAIツールが出てきています。しかし、実務におけるそのようなツールの活用には注意点も多く、リスクを把握したうえで、慎重な運用が求められます。得に訴訟関連の業務では、すでに生成AIの不適切な利用で制裁を受けた弁護士が複数おり、また、判事によっては独自のローカルルールにより使用したAIツールの開示や秘密保全などに関する保証を求めるなど、注意とコンプライアンスが必要になりつつあります。

AI活用のメリットとリスク

人工知能(AI)は、文書レビューと分析の進歩により、すでに訴訟に影響を与えており、AIの進化した利用は非常に速いペースで成長を続けています。例えば、契約書のレビューや分析、訴訟結果を予測するための予測分析、膨大なデータを素早くふるいにかけて関連情報を特定し、これらの作業にかかる時間とコストを削減するために、AIは法律業界で活用されています。

その次の波である、質問に対して明確で一貫性のある人間のような文章を作成できる生成型AIツールであるChatGPTの登場は、法的調査の支援、長文文書からの重要情報の分析と要約、様々な法的文書のドラフト作成など、弁護士にさらなるメリットと効率性を提供することが期待されます。これらはすべて、効率を高め、コストを下げるための明確なメリットです。

しかし、生成AIツールの出力を事実確認しない、守秘義務やセキュリティ、バイアス、著作権の問題など、法律業界で生成AIを使用することには、既知および未知のリスクが数多く存在します。さらに、生成AIを使用する弁護士は、裁判所への通知が必要かどうかを判断する必要があります。

関連記事:生成AI時代の実務利用における懸念点とAIの立ち位置

生成AIの進化は、法律業界に革新と挑戦の両方をもたらしました。弁護士はこの新技術を研究ツールとして活用しはめていますが、その使用には慎重さが求められます。最高裁判所長官の報告やUSPTO長官のメモから、実務におけるAIの利用で問題視されている事柄を確認してみましょう。

幻覚に頼ったために被った制裁

弁護士がChatGPTを使って法律調査を行う機会も増えてきました。しかし、ChatGPTのような生成AIツールは、誤った答えを出したり、法律をでっち上げたり、存在しない判例を引用したりすることがあり、AIの世界ではこれを「幻覚」と呼んでいます。残念なことに、このことが原因で、AIが作成した存在しない判例を裁判所に提出する書類に引用してしまい、結果的に制裁を受ける弁護士もいます:

  • Mata v. Avianca, Inc., 2023 WL 4114965, at *3, *9 (S.D.N.Y. June 22, 2023) (ChatGPTが判例をでっち上げる可能性があることを弁護士が知らなかったにもかかわらず、法律調査にChatGPTを使用し、引用が本物か正確かを確認しなかった弁護士に制裁を科す)
  • Park v. Kim, 2024 WL 332478 (2d Cir. Jan. 30, 2024) (ChatGPTの結果を確認せず、また答弁書において存在しない判決を引用した弁護士を苦情処理委員会に付託)
  • People v. Crabill, 2023 WL 8111898, at *1 (Colo. O.P.D.J. Nov. 22, 2023) (ChatGPTが提供した判例を確認せず、様々な倫理規則に違反したとして弁護士を一時停止)

関連記事:ChatGPT事件で架空の判例を提出した弁護人たちが制裁を受ける:本質はAI問題じゃない?

架空の存在しない判例をChatGPTが作り出し、事実確認が取れないまま裁判所に提出した弁護士たちの事件は、法曹界に大きな衝撃を与えました。今回その事件に関する審問と制裁判決があったので、その詳細を解説します。この問題は表面的にはAIツールの誤操作・過信のように見えますが、審問と判決内容を見るとそうではなく、ミスを指摘されたときに隠蔽しようとウソをついたことが本質的な問題です。そのウソがウソを呼び、取り返しのつかないところまで膨れ上がったという、弁護士として(そして人間として)のミスをしたときの対応に問題があり、そこが制裁でも重視されていたことがわかります。

裁判所提出書類へのAIの使用に関する証明を求める命令

裁判所提出書類における生成AIの使用が増加していることを受け、連邦裁判所の複数の裁判官は、弁護士に対し、生成AIの使用に関する積極的な開示または証明書の提出を求める命令を制定しました:

  • テキサス州北部地区連邦地方裁判所のBrantley Starr判事は、「いかなる提出書類のいかなる部分も(ChatGPT、Harvey.AI、Google Bardなどの)生成AIによってドラフトされないこと、または生成AIによってドラフトされたいかなる言語も正確性をチェックされることを証明すること…」とし、証明書の提出を弁護人に義務付ける常設命令を出しています。
  • イリノイ州北部地区連邦地方裁判所のGabriel A. Fuentes判事は、「急速に成長し、急速に変化している生成AIの分野と、法律実務におけるその使用」に対処するため、「裁判所に提出する文書の準備または起草に生成AIツールを使用する当事者は、AIが使用されたこと、および法的調査および/または文書のドラフトに使用された特定のAIツールを提出書類で開示しなければならない」とする常設命令を出しました。
  • 米国国際貿易裁判所のStephen Alexander Vaden判事は、人工知能に関する命令を出し、使用されたあらゆる生成AIプログラム、および生成AIの支援を受けてドラフトされた文章のすべての部分の開示、ならびに生成AIツールの使用が許可されていない当事者に機密情報を開示していないことの証明を求めました。Vaden判事は、「ChatGPTやGoogle Bardのような、ユーザーのプロンプトに対して自然言語で回答を提供する生成AIツールは、機密情報のセキュリティに新たなリスクを生じさせる」と懸念を表明しています。
  • ペンシルベニア州東部地区連邦地方裁判所のMichael Baylson判事は、開示要件を生成AIの使用に限定するのではなく、あらゆる種類のAIの開示を求める、より広範な命令を下しました。したがって、この広範な要件は、技術支援レビューやWestlawやLexisなどの調査ツールなど、弁護士によって主に使用されてきたAIの使用の開示を包含する可能性があります。
  • カリフォルニア州北部地区連邦地方裁判所のPeter Kang判事は、生成AIツールと他のカテゴリのAIを使用するツールとの違いに言及し、「従来の法的調査、ワープロ、スペルチェック、文法チェック、または書式設定ソフトウェアツール(例えば、Lexis、Westlaw、Microsoft Word、またはAdobe Acrobat)の使用」などの従来のAIの使用には開示要件は適用されないとする常設命令を発表しました。Kang判事の命令は、AIと裁判所への提出物に関する開示要件、AIと守秘義務、AIと証拠(「AIが作成した文書または資料(例えば、訴訟開始前に当事者が作成したもの)は、訴訟の証拠物、証拠、または事実紛争の対象となる、またはなる可能性がある」ことを認識)について述べています。

大切なポイント

生成AIの状況が進化し続ける中、生成AIを使用する弁護士や訴訟代理人は、裁判所に提出する文書で生成AIツールに依拠する前に、生成AIツールが提供する回答の正確性を確認することが重要です。

生成的AIを使用する弁護士や訴訟代理人は、これらの判事が強調したように、AIプログラムへのプロンプトを通じて機密情報が提出される可能性など、生成AIの使用がもたらす「新たなリスク」に注意を払う必要があります。

弁護士および訴訟代理人は、裁判所提出書類における生成AIの使用および依存、ならびに裁判所が課す開示要件に関して、適用される命令およびローカルルールを注意深く確認する必要があります。

参考記事:Judges Issue Guidance on Use of Generative Artificial Intelligence in Court Filings in the Wake of Attorneys Citing to Nonexistent Cases Created by ChatGPT 

Leave a Reply

Your email address will not be published. Required fields are marked *

こちらもおすすめ