ジェネレーティブAI:弁護士が考えるべき5つのこと

人工知能(AI)ツールは、テキスト、画像、ソフトウェアコードなどの新しいコンテンツを生成するために使用されるアルゴリズムです。この新しいテクノロジーは、最近、世界を席巻しています。AIツールの普及は、興味深い倫理的問題を提起するだけでなく、これらのツールを開発または使用している企業に助言を行う弁護士にとっても新たな課題を提起しています。この記事では、英国法および欧州法に焦点を当てて、発生しうる法的問題のいくつかを概説します。

AIに関する規制

適用される規制規則は、AIシステムの種類と使用目的、および関係者の司法管轄権によって異なります。2023年後半に発効が予定されているEUのAI法に基づき、欧州でAIを規制する体制が提案されている予定です。AI法は、EUの個人情報規制と同様に、世界のトレンドセッターとなる可能性があると推測されています。欧州議会の共同報告者は最近、AI法でリスクの高いAIアプリケーションのリストに、AIで生成されたテキストが人間の作ったものと間違われる可能性があるとして、ジェネレーティブAIシステムを対象とする新たなカテゴリーを提案しました。

これに対し、英国では、AIの利用を規制するために特別に立案された法律はありませんが、他の目的のために構築された法律や規制要件のパッチワークによって部分的に規制されています。AI固有の規制、および知的財産(「IP」)、データ保護/プライバシーなどの関連する法分野は、法域によって大きく異なりますので注意が必要です。

知的財産権

AIに関する初期の議論は、AIによって生成されたコンテンツ(すなわち「アウトプット」)の知的財産権に焦点が当てられてきました。最近では、AIモデルの学習に著作物が使用された場合(すなわち、「入力」)の知的財産の問題にも注目が集まっています。また、入力が、それ自体には入力のコピーが含まれていない出力を作成するために違法に使用された場合、間接的な侵害の主張の可能性も議論されています。したがって、AI開発者は、データをスクレイピングする際に、適用される許可を確認し、著作権素材のライセンスを取得するか、除外する可能性があることに注意する必要があります。そうでなければ、著作権者から損害賠償や差止命令による救済を求める法的請求がなされる恐れがあります。

また、ソフトウェア開発の一環として、コードのスニペットを作成するためにジェネレーティブAIが使用される場合にも、別の課題が生じる可能性があります。ジェネレーティブAIは、(現時点では)コードの原作者のクレジット表示や出典表示を行わないため、オープンソースソフトウェア(以下、「OSS」)を利用する場合に問題が生じる可能性があります。OSSのライセンスには、原作者のクレジット表示を義務付けるものや、派生作品のオープンソース化・非営利利用を義務付けるものがあり、商用ソフトウェア製品にOSSを組み込むには注意が必要です。しかし、企業が自社のソフトウェアのリバースエンジニアリングを行って、コードベースのどの部分がOSSライセンスの対象になっているかを判断するには、相当の労力が必要です。これらのOSSライセンスのコードの断片が、ソフトウェア製品全体が利益を生み出せなくなる危険性があるという事実は、企業が考慮すべき重要な商業リスクです。

責任について

ジェネレーティブAIの利用により、第三者に損害や被害を与えるケースがあります。例えば、ヘルスケア業界で使用されるAIシステムが不正確な診断や治療法の推奨を行い、患者に損害を与えた場合です。また、金融サービスで使用されるチャットボットが詐欺的または過失的な投資アドバイスを行い、顧客に経済的損失を与えた場合なども考えられます。このような事故を防ぐための適切なセーフガードと監視の必要性を強調するだけでなく、物事がうまくいかなかったときに誰が責任を負うのかという疑問も生じます。ユーザーが技術の取り扱いを誤った結果、あるいはシステムに欠陥や設計上の不備があり、エラーが発生した場合の両方が該当します。

AIのユーザーと開発者は、不法行為法に基づく過失相殺請求や、「既製品」として購入したAIシステムの場合の製造物責任請求など、さまざまな責任に直面する可能性があります。2022年9月、EU委員会は、AIを厳格責任体制に含める製造物責任指令の改正案と、過失責任に関する共通ルールを規定する新しいAI責任指令を発表しました。AIを使用する組織は、現行の法的枠組みの下で発生し得る責任、例えば、採用においてAIツールを使用し、それが後に違法な差別であることが示された場合に雇用者に課される可能性のある責任を確実に理解する必要があります。そして、契約上の取り決め(適切な免責事項、責任制限、保証、補償など)を作成する際に、これらのリスクの配分と軽減を検討する必要があります。

データプライバシー

AIシステムは、データ保護法の対象となる自然人に関する情報(個人データ)を含む可能性のある大量のデータを用いて学習されます。また、ジェネレーティブAIツールは、その運用の一環として、個人データ(例えば、ユーザーに関する情報)の処理に依存することが多いです。そのため、あらゆる個人データが、適用されるデータ保護法およびプライバシー法に従って使用され、保護されるよう、十分な配慮が必要です。

EUや英国のデータ保護法の違反に対して多額の罰金が科せられることはよく知られていますが、規制当局は、準拠しない個人データの処理を全面的に禁止することもでき、事実上、サービス全体を「禁止」することも可能です。例えば、2023年2月にイタリアのデータ保護当局が、AIベースのチャットボットが、このサービスが子供や弱者を危険にさらし、ユーザーに特定の情報を提供する要件を満たしておらず、個人データの処理に有効な法的根拠を欠いていると判断し、イタリアのユーザーの個人データをさらに処理することを禁じました。

ジェネレーティブAIの開発においては、精度とプライバシー、公平性(後述の差別のリスクを参照)、説明可能性(AIモデルとその出力を説明する能力)など、様々なトレードオフが発生する可能性があります。例えば、一般に、AIシステムは、学習させるデータが多ければ多いほど、統計的な精度が高くなります。しかし、十分に正確なAIシステムを訓練することの利益は、EUおよび英国のデータ保護法におけるデータ最小化原則とのバランスを取る必要があります。

自動処理のみに基づく意思決定は、英国のデータ保護法では多くの場合、禁止されています(限られた例外を除く)。データ対象者は、自動化された意思決定について、関連する論理に関する有意義な情報を含む一定の情報を提供されなければなりません。

個人データが使用されるAIの開発または展開を検討する際には、他の多くの保護原則および要件に従う必要があります。したがって、困難な意思決定を行うための適切なプロセスを確保するために、強力なガバナンスの取り決めが不可欠です。 

倫理と差別

AIシステムに関する5つ目の潜在的な問題は、一部のAIソリューションが非倫理的な方法で動作するのではないかという懸念に関連するものです。例えば、AIモデルが示す偏見や、AIがユーザーやより広い社会に与える影響から、倫理的な懸念が生じる可能性があります。また、これらのツールによって使用または生成されるデータに関しても、倫理的配慮が生じる可能性があります。

非倫理的な結果は、法律(例えば、反差別法)に基づく責任を誘発したり、顧客や他の主要なステークホルダーとの関係に悪影響を及ぼす可能性があります。

AIが社会の既存の偏見や固定観念を反映し、さらにはそれを助長する可能性があるというリスクは、AIシステムを開発または使用する者が考慮しなければならない、よく議論されるリスクです。まず、体系的な差別のパターンが学習データに反映される可能性があります。例えば、キーとなる変数の1つが歴史的データに基づくもので、歴史的に不公正な慣行によるバイアスが反映されている可能性があります。第二に、相関関係に依存した結果、代理差別に関与している場合、アルゴリズム自体にバイアスが存在する可能性があります。したがって、AIのユーザーと開発者は、AIシステムの出力が差別禁止法や(個人情報を処理する範囲での)データ保護法に違反するリスクのあるバイアスを示さないよう注意する必要があります。

考慮すべき実用的な手順

AIを開発または使用する組織は、潜在的な法的影響を認識し、リスクを軽減しコンプライアンスを確保するために、AIシステムに関する法律や規制、および業界のベストプラクティスの最新動向を常に把握しておくことが重要です。

ジェネレーティブAIを使用する企業は、上記で指摘したいくつかの法的リスクを軽減するために、以下のステップの実施を検討する必要があります。

  • AIの開発、展開、使用に関するトレーニングや明確なポリシーなど、強力なガバナンスの導入をおこなう
  • AIシステムの使用条件や学習データのソースを見直すなど、ジェネレーティブAIの使用から生じる可能性のある知的財産権侵害のリスクを見直す
  • AIシステムが発売前に徹底的にテストされ、検証されることを確認する
  • 潜在的な偏りを含め、AIの性能とエラーを監視し、問題があれば迅速に対処する計画を立てる
  • データ保護法に準拠したプライバシー対策を実施し、処理の安全性を確保するための適切な技術的・組織的措置を含む
  • AIシステムの設計、運用、及び制限を明確に文書化する
  • 可能であれば、適切な保険に加入する

参考記事:Generative AI: Five things for lawyers to consider

こちらもおすすめ