生成AIに関する取り扱いの注意は様々なところで語られていますが、特にAIが事実を取り違えたコンテンツに対する責任については気をつけましょう。最近のOpenAIに対する訴訟は、特に誤った内容を生成した場合の、生成型AIの使用に関する潜在的な法的リスクを浮き彫りにしています。今回の事件では改めて生成AIによって作成されたコンテンツの事実確認は重要であり、さらには会社としての生成AIに関するポリシーはリスク管理をする上で避けて通れないもので、教師データやプロンプトなど「入力」データにも配慮が必要なことを示唆しています。
ーーー
先月の初め、あるラジオ司会者が、OpenAIの生成AIプログラムであるChatGPTが彼の名誉を毀損したとして、ジョージア州の裁判所にOpenAIを訴えました。
原告によると、第三者のジャーナリストがChatGPTにワシントンの連邦地裁に提出された別の訴状を要約するよう促したところ、ChatGPTはラジオ司会者を被告とするまったく新しい訴訟をでっち上げたといいます。この実在しない訴訟は詐欺と横領を主張するもので、ChatGPTがその要約をジャーナリストに「公表」した時点で名誉毀損に当たるとラジオホストは主張しています。ジャーナリストはChatGPTの要約を再掲載しませんでした。その代わり、ラジオ司会者の主張によれば、そのジャーナリストはワシントンで係争中の元の訴訟の原告の一人に接触し、ChatGPTの要約の虚偽性を確認したとされています。
この事件の奇妙な事実関係(要約を公表するほどChatGPTの回答を信頼しなかった一人のジャーナリストへの公表疑惑によってラジオ司会者の評判が著しく損なわれたかどうかという疑問が生じるところ)はさておき、このChatGPTによる虚偽の事実の物語の「幻覚」(hallucination)疑惑は、生成AIの出力に関する事実確認を行わずに依存することへの法的な危険感を警告の話です。
生成AIによるコンテンツの事実確認は重要
第一に、ジャーナリストがChatGPTによって生成された要約を公表していた場合、ジャーナリスト(およびその記事を出版した出版社)は、虚偽の物語を再出版(republishing)する深刻な法的リスクに直面することになるでしょう。法律上、一般的に 「物語を伝える者は物語を作る者と同じくらい悪い」と考えられているからです。言い換えれば、「ChatGPTがこのコンテンツは真実であると教えてくれたので、掲載してもよい」というのは、ChatGPTに頼ることがその状況下で不合理であった場合、抗弁としてあまり効果がない可能性があります。
会社としての生成AIに関するポリシーはリスク管理上必須
第二に、この訴訟は、企業がビジネスにおけるジェネレーティブAIの使用(または使用の禁止)に関する包括的な社内ポリシーを策定することが重要である理由を強調しています。ジェネレーティブAI技術は非常に強力である一方、その利点がリスクを上回るためには、企業は従業員によるそのような技術の使用に関してしっかりとした監視を行うべきです。
今回の訴訟は名誉棄損の請求に関わるものですが、AIによって虚偽の内容が作成される可能性があるという問題は、さまざまなシナリオに影響を及ぼします。例えば、ニューヨークの弁護士は最近、ChatGPTによって生成されたでっち上げの判例引用を法的準備書面に入れていたため、制裁を受けました。同様に、適切な監視がなければ、プレスリリース、広告、その他のマーケティング資料に競合他社や自社製品に関する虚偽の事実や主張が含まれていた場合、虚偽広告、不正競争、不法妨害の申し立て(あるいは規制当局の調査)を受けることは想像に難くないでしょう。この場合も、「AIがコンテンツを作成した」という抗弁は、裁判所で支持される可能性は低いです。
関連記事:連邦訴訟における不用意なChatGPTの活用で弁護士が非難される事態に
教師データやプロンプトで入力するデータにも配慮が必要
第三に、AIのビジネス利用に関する懸念は、ジェネレーティブAIによって作成されたコンテンツだけに限定されるものではありません。そもそも、従業員がジェネレーティブAIプログラムに入力し、出力を得るためのデータも、データプライバシーや規制上の問題の対象となり、同様に懸念されるべきものです。
このようなデータ入力は、顧客データや第三者の知的財産の侵害の可能性などを考慮する必要がある可能性があり、生成AIを使用する前に再検討すべきもので、情報の適切な取り扱いに関する独自のリスク管理の必要性を示すものです。