AIが生成したコンテンツの事実確認はマスト:訴訟に学ぶAIコンテンツを取り扱う上での3つの注意点

生成AIに関する取り扱いの注意は様々なところで語られていますが、特にAIが事実を取り違えたコンテンツに対する責任については気をつけましょう。最近のOpenAIに対する訴訟は、特に誤った内容を生成した場合の、生成型AIの使用に関する潜在的な法的リスクを浮き彫りにしています。今回の事件では改めて生成AIによって作成されたコンテンツの事実確認は重要であり、さらには会社としての生成AIに関するポリシーはリスク管理をする上で避けて通れないもので、教師データやプロンプトなど「入力」データにも配慮が必要なことを示唆しています。

ーーー

先月の初め、あるラジオ司会者が、OpenAIの生成AIプログラムであるChatGPTが彼の名誉を毀損したとして、ジョージア州の裁判所にOpenAIを訴えました。

原告によると、第三者のジャーナリストがChatGPTにワシントンの連邦地裁に提出された別の訴状を要約するよう促したところ、ChatGPTはラジオ司会者を被告とするまったく新しい訴訟をでっち上げたといいます。この実在しない訴訟は詐欺と横領を主張するもので、ChatGPTがその要約をジャーナリストに「公表」した時点で名誉毀損に当たるとラジオホストは主張しています。ジャーナリストはChatGPTの要約を再掲載しませんでした。その代わり、ラジオ司会者の主張によれば、そのジャーナリストはワシントンで係争中の元の訴訟の原告の一人に接触し、ChatGPTの要約の虚偽性を確認したとされています。

この事件の奇妙な事実関係(要約を公表するほどChatGPTの回答を信頼しなかった一人のジャーナリストへの公表疑惑によってラジオ司会者の評判が著しく損なわれたかどうかという疑問が生じるところ)はさておき、このChatGPTによる虚偽の事実の物語の「幻覚」(hallucination)疑惑は、生成AIの出力に関する事実確認を行わずに依存することへの法的な危険感を警告の話です。

生成AIによるコンテンツの事実確認は重要

第一に、ジャーナリストがChatGPTによって生成された要約を公表していた場合、ジャーナリスト(およびその記事を出版した出版社)は、虚偽の物語を再出版(republishing)する深刻な法的リスクに直面することになるでしょう。法律上、一般的に 「物語を伝える者は物語を作る者と同じくらい悪い」と考えられているからです。言い換えれば、「ChatGPTがこのコンテンツは真実であると教えてくれたので、掲載してもよい」というのは、ChatGPTに頼ることがその状況下で不合理であった場合、抗弁としてあまり効果がない可能性があります。

会社としての生成AIに関するポリシーはリスク管理上必須

第二に、この訴訟は、企業がビジネスにおけるジェネレーティブAIの使用(または使用の禁止)に関する包括的な社内ポリシーを策定することが重要である理由を強調しています。ジェネレーティブAI技術は非常に強力である一方、その利点がリスクを上回るためには、企業は従業員によるそのような技術の使用に関してしっかりとした監視を行うべきです。

今回の訴訟は名誉棄損の請求に関わるものですが、AIによって虚偽の内容が作成される可能性があるという問題は、さまざまなシナリオに影響を及ぼします。例えば、ニューヨークの弁護士は最近、ChatGPTによって生成されたでっち上げの判例引用を法的準備書面に入れていたため、制裁を受けました。同様に、適切な監視がなければ、プレスリリース、広告、その他のマーケティング資料に競合他社や自社製品に関する虚偽の事実や主張が含まれていた場合、虚偽広告、不正競争、不法妨害の申し立て(あるいは規制当局の調査)を受けることは想像に難くないでしょう。この場合も、「AIがコンテンツを作成した」という抗弁は、裁判所で支持される可能性は低いです。

関連記事:連邦訴訟における不用意なChatGPTの活用で弁護士が非難される事態に

教師データやプロンプトで入力するデータにも配慮が必要

第三に、AIのビジネス利用に関する懸念は、ジェネレーティブAIによって作成されたコンテンツだけに限定されるものではありません。そもそも、従業員がジェネレーティブAIプログラムに入力し、出力を得るためのデータも、データプライバシーや規制上の問題の対象となり、同様に懸念されるべきものです。

このようなデータ入力は、顧客データや第三者の知的財産の侵害の可能性などを考慮する必要がある可能性があり、生成AIを使用する前に再検討すべきもので、情報の適切な取り扱いに関する独自のリスク管理の必要性を示すものです。

参考記事:A Quick Lesson on Harnessing Artificial Intelligence

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

追加記事

最近では猫ミームなど、ミームはインターネットカルチャーの定番となっていますが、その広範な配布は著作権や知的財産権に関する重要な問題を提起しています。このブログでは、ミームに関連する著作権法の複雑さについて掘り下げ、クリエイターとユーザーが著作権侵害、フェアユース、所有権といった知的財産に関わる問題をどのようにナビゲートするのかを探ります。
特許において、特許発明者の正確な特定は極めて重要です。Tube-Mac Indus., Inc.vs Campbell事件は、特に特許への貢献が複数の当事者からなされた場合に、発明者の定義とすべての発明者を特定する重要性を再認識する好例です。この記事では、このケースの分析を通じて、課題解決した当事者の重要性と共同発明者を特定するアプローチについて掘り下げます。
ニューヨーク州弁護士会はAI技術の法的・倫理的影響に対する新ガイドラインを提供しました。このガイドラインは、弁護士によるAIの適切な利用と潜在的リスク管理に焦点を当て、今後のAI法律業務における教育と規制の強化を推奨しています。80ページにもわたるレポートには、AIが今後どう弁護士業務を変えていくかについて詳細に書かれており、今後NYだけでなく、アメリカの各州におけるAIの弁護士倫理ガイダンスに大きな影響を与えることが予想されます。