まだ始まったばかりですが、生成AIに関する訴訟は日を追うごとに増えてきています。訴訟内容も人工知能(AI)のトレーニング方法、製品、サービスなど様々で、今リアルタイムで、米国の裁判所がこの新しい、そして本質的に進化するテクノロジーによって提起されたプライバシー、消費者の安全保護、知的財産権保護の懸念に関する問題を審議しているところです。
このブログでは知財に関するトピックを中心に取り扱っていますが、最近の訴訟の根拠となっている法律理論は多岐にわたり、プライバシーや財産権の侵害、特許、商標、著作権の侵害、名誉毀損、州の消費者保護法違反などが含まれています。
これまでのところ、裁判所はAI開発者に責任を負わせることには消極的で、AIが「世界を終わらせる」可能性があるとする原告側の主張に懐疑的な態度を示しています。また、裁判所は、最近の訴えの多くが、弁論段階を超えて審理を進めるために必要な具体的、事実的、技術的な詳細が欠けている(つまり、裁判所で取り扱うような内容ではない)と判断しているものも多いです。
今回は、米国で急成長しているジェネレーティブAI法の分野における現在の訴訟を法的な分類に分けて、最新の状況を共有されていただきます。
プライバシー訴訟
2023年6月と7月の2週間にわたり、OpenAI, Inc.やAlphabet Inc./Google LLCなど、市場で最も有名なジェネレーティブAI製品の開発会社に対して、多くの連邦集団訴訟がカリフォルニア州北部地区連邦地方裁判所に提起されました。
P.M. v. OpenAI
例えば、2023年6月28日、P.M. v. OpenAI LP(Case No. 3:23-cv-3199 (N.D. Cal. 2023))では、匿名の原告グループがOpenAI LPとMicrosoft, Inc.を相手取って訴訟を起こし、OpenAIがChatGPT(AIテキストジェネレーター)、Dall-E(AI画像ジェネレーター)、Vall-E(AIスピーチジェネレーター)などの生成AIツールを開発・訓練するために、インターネットから一般公開されているデータを収集し、数百万人の個人情報を盗んだと主張しています。原告側は、生成AIツールの訓練にインターネットから収集した情報のデータセットを使用するOpenAIのやり方は、窃盗、横領、プライバシーと財産権の侵害にあたると主張しています。訴状には、電子通信プライバシー法(Electronic Communications Privacy Act)の違反、コンピュータ詐欺乱用法(Computer Fraud and Abuse Act:CFAA)の違反、さまざまな州の消費者保護法の違反、および多くのコモンロー上の請求も含まれています。また、原告は、AIは誤った情報、マルウェア、さらには自律型兵器システムという形で人類の文明に危険をもたらすという主張を強調し、OpenAIの製品に対する人間の監視と人間が開発した倫理プロトコルの導入を含む差し止めによる救済を求めています。さらに、原告は、個人情報が無断で使用されたすべての人を含むとされる複数の集団を代表して、様々な形態の集団全体の損害賠償および/または返還を求めています。
J.L. v. Alphabet
2023年7月11日、J.L. v. Alphabet Inc. (Case No. 3:23-cv-03440 (N.D. Cal. 2023).)では、上記のP.M.と同じ原告団がグーグルに対して同様の集団訴訟の訴状を提出し、プライバシー法と著作権法違反の両方を主張しています。J.L.の原告は、Bard(テキストジェネレーター)、ImagenとGemini(2つのテキストから画像への拡散モデル)、MusicLM(テキストから音楽への変換ツール)、Duet AI(データ可視化ツール)など、グーグルのジェネレーティブAI製品の多くが、インターネットから収集した学習データに依存していると主張しています。訴状は、グーグルが透明性を保ち、データ収集方法を開示していたことを指摘していますが、グーグルは学習データの開発について、商用データ市場からの購入など、他の選択肢を検討すべきだったと示唆しています。さらに、具体的な証拠はありませんが、原告側は、グーグルが著作権法に違反しているとも主張しています。その理由は、(1)グーグルのAI製品は、著作権のあるテキスト、音楽、画像、データを学習目的で使用していると主張し、(2)AI製品自体、およびその表現上の出力は、侵害的な二次的著作物に該当するからであると述べています。P.M.の原告と同様、J.L.の原告も、グーグルの生成AI製品を制限することを目的とした広範な差止命令による救済を求めています。また、これらの原告は、著作権侵害の主張に関してさらに具体的な救済を求めるとともに、その理論に関連する様々な形態のクラス全体の損害賠償を求めています。
著作権に関する事例
ジェネレーティブAIの開発者に対して、著作権法違反を主張する裁判は数多く提起されています。基本的に、これらの訴訟では、ジェネレーティブAIモデルを訓練するために開発者がインターネットから収集したデータを使用すること、および著作権保護の対象となり得る一般に入手可能なデータを収集し使用することが侵害にあたるかどうかに対する審議を求めるものです。これらの裁判では、データ収集とジェネレーティブAIの学習プロセスに従事しているジェネレーティブAIの開発者や会社が裁判の対象になっています。
しかし、これらの主張が実際に有効な主張かどうかは、まだわかりません。
というのも、著作権で保護された資料を訓練目的にのみ使用することは、従来の著作権法が想定してきた商業目的の許されない「複製」や「複写」ではなく、著作権法で明示的に認められている情報の「公正使用」(フェアユース、fair use)の定義に当てはまる可能性があるからです。
Andersen v. Stability AI
この著作権侵害問題に注目した最も有名な事件のひとつが、Andersen v. Stability AI Ltd.事件(Case No. 3:23-cv-00201 (N.D. Cal. 2023).)です。
この訴訟で、原告のSarah Andersen, Kelly McKernan, Karla Ortizの3人は、想定される集団のアーティストを代表して、Stability AI, Ltd.とStability AI, Inc.(以下、Stability AIと総称)らが、トレーニング素材を提供した元のアーティストに帰属することなく、画像生成モデルをトレーニングするために、許可なくオンラインソースから何十億もの著作権で保護された画像をスクレイピングしたと主張しました。彼らはさらに、このやり方はアーティストから収入を奪い、被告がアーティストの著作物から利益を得ることを可能にしていると主張しました。被告側は棄却申し立ての中で、モデルは著作権で保護されているかどうかにかかわらず、いかなる画像もコピーしたり保存したりはしていないと反論し、モデルはオンライン画像の特性を分析してパラメータを生成するだけであり、後にテキストプロンプトから新しいユニークな画像を作成する際にモデルを支援するために使用されるのであって、学習に使用される基礎となる画像のいかなる部分も複製したりコピーしたりするものではないと説明しています。
2023年7月19日に行われた被告側の棄却申し立てに関する審理で、William Orrick判事は原告側の申し立てに懐疑的な見方を示し、暫定的に棄却する意向を示しました。具体的には、判事は(1)モデルによって生成された画像は原告の芸術作品と「実質的に類似」していないこと、(2)モデルは「50億枚の圧縮画像」で訓練されているため、これらの画像の作成に「(原告の)作品が関与していることはあり得ない」と説明しました。しかし、 Orrick判事は原告に対し、これらの見解を否定することを証明する「より多くの事実を提供するために」訴状を修正する機会も認めています。
関連記事:OpenAIに対する新たな米国の著作権訴訟と今までのAI関連訴訟リスト
Doe v. GitHub
オンライン・コード・レポジトリとして知られるGitHub, Inc.もまた、2022年11月にカリフォルニア州北部地区でDoe v. GitHub, Inc. (Case No. 4:22-cv-06823 (N.D. Cal. 2022).) という名で提訴された仮の集団訴訟の対象です。この訴訟では、匿名の原告はGitHubのウェブサイトでライセンスされたコードを公開したとされる開発者であり、GitHubはそのコードをAIを搭載したコーディング・アシスタント、コパイロットの訓練に使用したと主張しています。開発者である原告らは、GitHub、Microsoft、OpenAIの3社を提訴し、GitHubが適切な帰属表示なしにライセンスされた素材を使用したとされることに基づく著作権管理法違反を含む、プライバシーと財産権の侵害を主張しました。
関連記事:AI自動生成ツールは「侵害」するのか?3つの訴訟に注目
却下申し立ての中で被告側は、Copilotはオープンソースコードの一部をコピーまたは複製することなく、オープンソースコードのレビューから学習した内容に基づいて独自のコーディング案を生成することで機能するため、原告が個人的に作成したコードがCopilotによって不当に使用されたと主張するのは妥当ではないと主張しました。GitHubはまた、Copilotが学習元となった一般公開されているコードに類似したコードのスニペットを生成したのは「約1%の割合だった」という原告の主張(内部調査に基づく)にも正面から対応しています。仮にこれが事実であったとしても、原告側は自分たちのコードがその1%に含まれるとは主張できないとGitHubは主張。言い方を変えれば、原告らは自分たちのコードと生成されたコードとを結びつけることができなかったと反論していることになります。したがって、Doeの原告たちは、著作権に基づくものであれ、そうでないものであれ、いかなる法的クレームも行うのに必要な資格を持っていないとGitHub側は説明しました。以下に詳述するように、これは、ジェネレーティブAI開発者が現在直面しているデータ収集やジェネレーティブAIモデルのトレーニングに関するほぼすべての法的課題において、有効な抗弁となりえます。
裁判所は、棄却の申し立てに関する判決において、原告らのプライバシー権の主張を棄却しました。その理由は、原告として適格であることを示すだけの事実上の損害を証明する責任を原告側が果たせなかったからです。財産権に関する請求については、裁判所は、原告らが損害賠償請求の原告適格を認めるに足る事実上の傷害を立証できなかったと判断しましたが、原告らのコードがライセンスに違反してCopilotによって出力される可能性があるという危険性を十分に主張していることから、差止命令による救済を求める原告適格は認めました。裁判所はさらに、規則12(b)(6)の基準に基づき、原告の個々の請求の一部を取り上げました。裁判所は原告に対し、2件を除くすべての請求について訴状の再提訴の許可を与え、原告は2023年6月に修正した訴状を提出しました。その後、GitHubは修正された訴状も却下するよう申し立てを行いました。現在、裁判所はその申し立てについてまだ判決を下してはいません。
興味深いことに、Doeの原告らは著作権侵害に関する直接的な主張を一切しておらず、その代わりに不適切な著作権情報管理に関する理論に依拠しています。すなわち、被告らは原告らのコードを利用する際に適切な帰属表示、著作権表示、ライセンス条項を提供しなかったため、デジタルミレニアム著作権法(DMCA)に違反したという主張を展開しているのです。
Tremblay v. OpenAI, Inc.
これとは対照的に、2023年6月28日、Paul TremblayとMona Awadの2人の著者は、OpenAIに対して、Tremblay v. OpenAI, Inc. ( Case No. 4:23-cv-03223 (N.D. Cal. 2023).) の集団訴訟を提起し、著者の集団を代表して著作権侵害を直接主張しました。彼らの著作権侵害の主張は、次のような理論に基づいています: (1)著者の著作物が複製され、OpenAIの学習データの一部として取り込まれたこと、(2)OpenAIの大規模な言語モデルとその出力が侵害的な二次的著作物にあたること。原告側はさらに、モデルの出力、具体的には著者の著作物の要約も同様に二次的著作物であり、侵害的著作物であると主張しました。原告側は、この訴訟は、一般的に言えば、OpenAIのアルゴリズムの機能を制限することを意図したものではなく、その代わりに、著者の書籍がAIの学習データに加えた価値を補償することのみを目的としていると主張しています。そのため、彼らは差止命令による救済とともに、実際の損害賠償と法定損害賠償を求めています。その2週間後、著者であるSarah Silverman, Christopher Golden, Richard Kadreyも、OpenAIなどに対して同様の集団訴訟を起こしています。Silverman v. OpenAI, Inc. (Case No. 3:23-cv-03416 (N.D. Cal. 2023).)、Kadrey v. Meta Platforms, Inc (Case No. 3:23-cv-03417 (N.D. Cal. 2023).).
Thomson Reuters Enterprise Centre GmbH v. ROSS Intelligence Inc.
生成AIが注目されるようになり、AIによる著作権侵害の訴訟が目立つようになりましたが、このようなAI製品の機能に起因する著作権請求は決して新しいものではありません。AI製品による著作権侵害を主張した初期の訴訟のひとつは、2020年5月6日にデラウェア州連邦地方裁判所に提訴されたThomson Reuters Enterprise Centre GmbH v. ROSS Intelligence Inc. (Case No. 1: 20-cv-00613 (D. Del. 2021).)です。この裁判では、Westlaw法律調査プラットフォームの所有者である原告のThomson Reutersが、ROSS Intelligence, Inc.(ROSS)が、競合するAIを搭載した法律調査ソフトウェアを訓練するために、Westlawの法律データベースを無断でコピーしたと主張しました。この訴訟では、Thomson Reutersのデータベースに含まれる保護されていないアイデアと法的判断のみがトレーニングに使用され、著作権保護が付与されているWestlawの索引付けと検索システムとは対照的であるため、トレーニング・プロトコルはフェアユースにあたると主張されていて、現在も係属中です。
このような訴訟の動向を見ると、今後は個人アーティストや著者だけでなく、新聞社やその他の報道機関など、他のコンテンツ制作者たちによる著作権訴訟も起こるかもしれません。このような報道機関の中にはすでに、ジェネレーティブAI開発者たちによる報道、記事、その他の出版物の使用を許可するライセンス交渉をしているところもあるようです。これらの交渉が決裂した場合、訴訟が起こる可能性が高いと思われます。例えば、ニューヨーク・タイムズ紙は、ChatGPTが過去にニュースやその他のトピックに関するユーザーの問い合わせに対応する際にニューヨーク・タイムズ紙の記事や報道を取り入れたため、要するに「同紙と直接競合するようになり」、ユーザーが「出版社のウェブサイトを訪問する」必要性が大幅に減少し、同紙の経済的損失につながる可能性があるとして、オープンAIに対する法的措置を検討していると報じられています。さらに、2023年8月21日には、ニューヨーク・タイムズ紙がOpenAIのウェブクローラーをブロックしたため、オープンAIがニューヨーク・タイムズ紙のコンテンツを使用してAIモデルを訓練することができなくなったと報じられました。
商標の事例
Getty Images (US), Inc. v. Stability AI, Inc.
2023年2月、Getty Images (US), Inc. v. Stability AI, Inc. (Case No. 1:23-cv-00135 (D. Del. 2023).) において、メディア企業であるGetty Images, Inc.(Getty)はStability AIに対して著作権および商標権の侵害を主張する訴訟を起こしました。具体的には、Stability AIが、競合する製品やサービスを確立する目的で、画像生成モデルであるStable Diffusionのトレーニングに使用する画像やデータを求めてGettyのウェブサイトを「スクレイピング」したと主張しています。
Gettyの訴状には、独自の知的財産権に関する主張が多数含まれています。他の原告同様、Gettyは次のように主張しています: (1) Stability AIは、Stable Diffusionモデルのトレーニングに関連してGettyの著作物を複製した、(2)同モデルが出力として著作権を侵害する二次的著作物を作成した。
Gettyの訴訟のユニークなところは、このような著作権に関する主張の他に商標に関するクレームも含んでいるところです。というのも、Stable DiffusionはGettyの透かしを修正したものを含む画像を生成していたため、「Gettyの訴状には Gettyの透かしを含む画像は、Stability AIのモデルによってしばしば生成される低品質の画像に起因する商標の希釈化だけでなく、生成された画像の所有者に関する混同をもたらす可能性の高い」として商標侵害に関するクレームが含まれています。
また、透かし関連では、別途、トレーニングのために透かしを削除したり、Stable Diffusionの出力に透かしのバージョンを適用したりすることで、Stability AIは、合衆国法典第172条(a)に違反して虚偽の著作権情報を提供した、とも主張しています。
Gettyはまた、これらの行為がデラウェア州統一欺瞞的取引慣行法 (Delaware’s Uniform Deceptive Trade Practices Act) に違反する不正競争行為であると主張し、損害賠償とともに、Gettyのコンテンツを使用してトレーニングされたStable DiffusionのモデルをStability AIが破棄する命令を求めています。Stability AIは、管轄権および実質的な理由でGettyの訴えを却下するか、カリフォルニア州北部地区連邦地方裁判所に訴訟を移送するよう求めています。この訴訟も現在係属中です。
肖像権と顔認識事件
全体としてAI技術の合法性や安全性を広く問ういくつかの見出しを飾る訴訟とは対照的に、顔認識ソフトウェアに関連するAIの使用に関わる限定された訴訟は、最終的に裁判所に受け入れられやすいかもしれません。というのも、これらの訴訟では、被害を被った特定の個人、すなわち許可なく顔をスキャンされ分析された個人をより明確に特定することができるからです。
例えば、2023年4月、Young v. NeoCortext, Inc. (Case No. 2:23-cv-02496 (C.D. Cal. 2023).) では、テレビタレントのKyland Youngが、ソフトウェア開発会社NeoCortext, Inc.(NeoCortext)に対し、カリフォルニア州中部地区連邦地方裁判所に集団訴訟を提起しました。NeoCortextのAIを搭載した「Reface」アプリケーションは、ユーザーが写真やビデオに写った有名人や公人と自分の顔をデジタル的に「入れ替える」ことを可能にするもので、カリフォルニア州のパブリシティ権法によって保護されているコモンロー上のパブリシティ権(肖像権)の侵害に当たると主張しています。これに対しNeoCortext社は、原告の州法上の請求は憲法修正第1条により禁止され、連邦著作権法により先取りされるとして、訴状の却下を求めました。この訴訟も現在係争中です。
同様の請求は、2023年2月にカリフォルニア州北部地区連邦地方裁判所に提起されたFlora v. Prisma Labs, Inc. (Case No. 3:23-cv-00680 (N.D. Cal. 2023).) でも主張されています。この訴訟では、インターネットユーザーの推定集団が、Prisma Labs, Inc.の肖像画生成アプリケーションであるLensaが、イリノイ州のデータプライバシー法に違反して、インターネットユーザーの同意なしに顔情報をスキャンしたと主張しています。
不法行為の事例
2023年6月、ラジオ司会者で公人であるマーク・ウォルターズが、AI企業に対する初の不法行為訴訟 (tort case) を起こしました。ウォルターズ氏は、OpenAIのChatGPTがウォルターズ氏に対する詐欺と横領を含むでっち上げの訴状を作成した後、名誉毀損でOpenAIを訴えました。この訴訟は、ChatGPTにワシントン州西部地区連邦地方裁判所で係争中の市民権訴訟の概要を提供するよう求めたジャーナリストに起因します。ChatGPTはその回答で、ウォルターズがその訴訟の被告であり、詐欺と横領で訴えられていると示しましたが、これは事実ではありませんでした。ウォルターズの訴えは、ChatGPTの虚偽の要約がChatGPTのユーザーに不適切に公表された名誉毀損にあたると主張しています。OpenAIは、AIが生成するコンテンツは確率に基づくものであるため、ChatGPTが時折虚偽の情報を提供することは広く知られており、これは「幻覚」(hallucinations) として知られる現象であると説明しました。最後に、OpenAIは、単にプロンプトに対する回答を提供するだけでは、名誉毀損法にいう「公表」にはあたらないと主張しています。この申し立てはまだ係属中であり、インターネット企業が第三者によって作成され、そのプラットフォーム上でホストされている情報に対する責任を免除する通信品位法第230条 (Section 230 of the Communications Decency Act) が本件に適用されるかどうかについては疑問が残ると言えます。
AI企業による抗弁のまとめ
ジェネレイティブAI訴訟において、被告がすでに効果的に主張している様々な抗弁があります。よくあるテーマとしては、被告適格の欠如、「フェアユース」の原則への依拠、いわゆる「データスクレイピング」の合法性などがあります。以下は、これらの有効と思われる抗弁の要約です。
原告適格の欠如 (Lack of Standing)
Dinerstein v. Google LLC
2023年7月、第7巡回区控訴裁判所は、Dinerstein v. Google LLC (The Second Amend. Found. v. Robert Ferguson., Case No. 2:2023-cv-00647 (W.D. Wash. 2023).) において、シカゴ大学医療センター(UCMC)の患者集団のために提起されたプライバシー侵害の請求について、原告適格がない (Lack of Standing)として棄却を支持しました。このDinerstein判決は、AIモデルを「訓練」するために著作物、消費者データ、または個人データを使用するだけで、法的に認識可能な損害を構成するということにはならない、ことを示す判例としてAI開発者に重宝されるかもしれません。というのも、このDinerstein判決では、選択された法理論にかかわらず、AIの「訓練」に使用された著作物、個人データ、または個人データの個々の所有者は、それらの法理論を追求する立場を確立するために、もっともらしく具体的な損害を証明しなければならないことを示唆しているからです。
Dinerstein判決で、原告側は、UCMC社が数年分の匿名化された患者の医療記録を、患者の将来の医療ニーズを予測するソフトウェアに使用可能なAIモデルを訓練するために使用することで、患者とのプライバシーに関する契約上の取り決めに違反し、患者のプライバシーを侵害し、イリノイ州の消費者保護法に違反したと主張しました。しかし、イリノイ州北部地区連邦地裁は最終的に、原告側が匿名化された患者データの開示に関連する損害や被告側の不法行為の意図を立証できなかったとして、原告側の請求を原告適格の欠如と請求の不存在により棄却しました。
棄却を支持した第7巡回区控訴裁判所は、「棄却の決定に同意」しましたが、分析は「立件に始まり、立件に終わる」べきであると指摘しました。具体的には、原告は患者データが集団の特定のメンバーを特定するために使用されたことを主張できず、被告は契約上、「個人を特定しないことに明示的に同意」したため、原告は「立件の根拠を提供」するために必要な「具体的かつ特定化された、実際または差し迫った」損害の存在を立証できなかったと説明しました。
この論理的根拠は、すでに紹介したAndersen事件とDoe事件の棄却申し立て(およびそれに対する裁判所の決定)に見られる、原告適格 (standing) に関する主張の根底にあるものです。つまり、もし原告が、自分たちの特定の情報や成果物が、問題のモデルによって不適切に使用されたことを証明できなければ、原告らの請求は、事実上の損害を立証できないとして、訴訟を継続できない可能性があります。
「フェアユース」 (“Fair Use”)
AI開発者が著作権侵害の主張に対して成功する可能性のあるもう一つの抗弁が、「フェアユース」 (“Fair Use”) というよく知られた法理です。フェアユースとは、著作物が 「変形的」(transformative) な方法で使用された場合に、侵害の主張に対する抗弁となるものです。変形的利用は、著作物が異なる市場の「機能」を提供したり、著作物の「有用性」を拡大したりするために使用される場合に起こり得ます。この法理は、AIのトレーニングプロセスに特に適しているように思われます。というのも、このAIのトレーニングプロセスでは、従来から許されてきた著作物のコピーや商業的複製は行われず、その代わりに、新しい「機能」や「アプリケーション」、すなわち大規模な言語モデルやその他の生成的AI製品を開発するために、著作物を分析してパターンを検出するからです。
現在までのところ、生成AIモデルやAIが生成したアウトプットに関する「フェアユース」法理の適切な適用について説明した米国の裁判所はありません。しかし、同法理は類似の状況において効果的な抗弁を提供してきました。例えば、Authors Guild v. Google, Inc. (804 F.3d 202 (2d cir. 2015)) において、第2巡回区控訴裁判所は、検索エンジンが著作権で保護された書籍の小部分を公開することは、その情報へのアクセスを改善するものであるため、変形的であると結論づけました。第9巡回区は、Kelly v. Arriba Soft Corp.事件 (336 F.3d 811 (9th Cir. 2002).) において、著作権のある視覚芸術作品の検索可能な画像に関しても同様の判断を下しています。
著作権侵害を主張する訴訟に対し、AI開発者の一部はすでにフェアユースの原則の適用可能性を示唆しています。例えば、ROSS事件では、Thomson Reutersとの著作権紛争において、トThomson Reutersの法律データベースを全く別の目的で使用しており、新しくユニークなコードを書くためにモデルを訓練していると主張し、この抗弁を明示的に主張しています。また、グーグルがアンドロイド・オペレーティング・システムを開発するためにオラクルのコードの一部を使用したことはフェアユースであると判断した、Google v. Oracleの最高裁判決 (141 S. Ct. 1163 (2021).) は、ROSSの理論を支持するものであるとの意見もあります。
また、GitHubとMicrosoftは、Doe v. GitHub, Inc.事件における原告は「フェアユースの原則に真っ向からぶつかる」ため、著作権侵害の主張はあえて行わかなったと主張しています。Stability AIも同様に、「これがフェアユースではないと考える人は、技術を理解しておらず、法律を誤解している」と述べ、自社のモデルの学習プロセスを擁護しています。
いわゆる「データスクレイピング」の合法性
ジェネレーティブAIの開発者は、自社製品のためのトレーニングデータセットを開発するためにインターネットのスクレイピングを行っていることが多く、訴訟でもそのようなスクレイピング行為が違法であるという主張を見受けます。
しかし、商業的に有用な情報を得るためにインターネットを「スクレイピング」した前例はすでにあり、AI企業によってもたらされた新しい問題ではありません。実際、データ・サイエンスやテクノロジー企業の間ではスクレイピングはよくあることです。たとえば、hiQ Labs, Inc.は、ビジネス・ネットワーキング・サイトLinkedInのオンライン・ユーザーの公開プロフィールから情報を「スクレイピング」し、採用候補者とその求職行動に関するデータと分析を雇用主に提供したことで有名です。hiQ Labs, Inc. v. LinkedIn Corp.事件 (Case No. 17-3301 (9th Cir. 2022).) において、第9巡回区控訴裁判所は、一般に入手可能なデータを「スクレイピング」する行為がプライバシーの侵害やCFAA違反にあたるという主張を退けました。判決において裁判所は、一般に入手可能なデータと “private “と表示されたデータとの区別に着目し、一般に入手可能なデータへのアクセスは、そのデータが “private “と表示されていない限り、CFAAの下で無許可のアクセスには当たらないとしました。
AI開発者は、hiQ Labsで確立された判例を利用して、自社のデータ収集慣行を擁護することができるでしょう。さらに、すでに紹介したカリフォルニア州北部地区連邦地方裁判所で係争中のP.M.およびJ.L.の訴訟において、hiQ Labsの判決は、今後提出される棄却の申し立てで大きく取り上げられることが予想されます。
今後の展開
これらの初期のジェネレーティブAI訴訟の結果はまだ定かではありませんが、これまでの動きを総合定期に判断すると、裁判所は外野の圧力に屈することなく、健全なレベルの懐疑心を持ってジェネレーティブAI関連の訴訟における原告・被告の両当事者による主張を考慮しています。同じような問題を審議した過去の判例は参考になるものの、抗弁の多くは、ジェネレーティブAIの文脈ではまだ検証されていません。そのため、今後数カ月間の裁判所の動向は、今後のジェネレーティブAI訴訟の基調を定める上で極めて重要な時期であり、生成AI業界にとって、目の離せないものとなるでしょう。
さらに、現在のジェネレーティブAI訴訟の波が裁判所を通過し続ける一方で、最近の傾向では、原告側弁護士はジェネレーティブAI開発者だけでなく、ジェネレーティブAI製品やソリューションを採用または使用する企業をターゲットに拡大するようなことも考えられます。そのため、ジェネレーティブAIの製品やサービスを検討または使用している企業は、採用しようとしている技術と、その技術がどのように機能するかに関連するリスクを確実に理解することが望ましいです。
参考記事:Recent Trends in Generative Artificial Intelligence Litigation in the United States