生成AIの規制と法的課題

生成AIは、テキスト、画像、音楽、ビデオ、コンピュータコードなど、さまざまな領域にわたって、人間が理解できる比較的単純なプロンプトを使用して、一見オリジナルに見えるコンテンツを作成する驚くべき能力を持っています。生成AIの創造力は、既存の市場に革命をもたらし、新たな市場に道を開く可能性を示しています。

しかし、当然ながら、こうしたテクノロジーの巨大なパワーと潜在力は、重大な倫理的、ひいては近い将来法的なリスクをもたらします。民事紛争に発展する可能性があることに加え、規制当局や法律家たちは今、この新しいテクノロジーに大きな注意を払い始めています。

関連記事:増えつつあるAI関連訴訟:米国におけるジェネレーティブAI訴訟の最新動向 – Open Legal Community 

これまで、規制当局や法律家はテクノロジーの進歩に追いつくのに苦労してきました。その結果、テクノロジー企業は明確なガイドラインや枠組みを持たずに事業を展開することになり(例えば銀行業務と比較して)、規制当局は新たな問題を解決する際に積極的なアプローチではなく、むしろ消極的なアプローチを取ることになりました。

私たちは最近、大手NFTマーケットプレイスであるOpenSeaの元プロダクト・マネージャーが「インサイダー取引」で有罪判決を受けたことで、明確なコンプライアンス・ルールがない領域でこのようなことが起こりうることを目の当たりにしました。さらに、テック業界のリーダーとしては前例のない動きとして、OpenAIのCEOであるサム・アルトマンは、世界中の規制当局に向けて講演を行い、「ますます強力になるAIモデルのリスクを軽減する」ために「各国政府による規制介入」を呼びかけています。この記事では、法律家や規制当局が生成AIに目を向ける理由を探ります。

関連記事:職場におけるAI導入のために雇用主が知っておくべき規制とリスク – Open Legal Community 

公共の安全

ChatGPTのような生成AIモデルは、通常、何らかの形でコンテンツモデレーションを行い、共有できる情報を制限しています。これは通常、ユーザーが違法行為に関する支援を求めたり、医療や金融に関するアドバイスを提供したり、個人情報を明らかにしたりするのを防ぐことを含みます。

しかし、早期利用ユーザーの一部は、これらの制限を迂回する方法を見つけており、特にこれらのモデルを欺く(「ジェイルブレイク」)ことで危険な物質のレシピを公開させる創造的な方法などがあります。これらの回避策は通常、開発者によって特定され、閉鎖されますが、ユーザーはこれらの回避策を特定しようとし、開発者はそれを閉鎖しようとするため、これらは事実上「モグラたたき」ゲームのようなものになります。

ChatGPTで使用するために自身の「ジェイルブレイク」を共有するサイバー犯罪者の活発なコミュニティを生成するだけでなく、WormGPTと呼ばれるツールは、最近SlashNextによる調査で暴露され、倫理的な制限が課されていない事実上ChatGPTのバージョンであるものにアクセスする手段を提供しています。

これらの 「ジェイルブレイク」と代替生成AIモデルは、有害な情報が広まる可能性のある手段を提示しています。これは、企業自身の責任問題はもちろんのこと、公共の安全に対するリスクを生じさせる可能性があります。世界の法律家や規制当局は、こうした懸念にどう対処するか、あるいは対処するかどうかを決定する必要があるでしょう。

データプライバシーとセキュリティ

注目度の高いデータ漏洩が定期的に報告されているため、データプライバシーの問題は頻繁にニュースで報道されています。

生成AIは、個人データが収集され、流出する可能性があるもう一つの接点を提供します。生成AIは、一般に入手可能なソースから得た膨大な量のデータを収集し、訓練することによってコンテンツを作成します。注目すべき点は、情報は生成AIモデルによって自動的に処理されるため、ユーザーがこのような形で個人データを使用することに同意する方法がないことです。さらに、一旦生成AIモデルが訓練されると、特定の情報のインスタンスを削除することが難しくなります。このようにきめ細かな管理ができないため、特定の情報の消去が必要な場合、忘れられる権利を行使することが難しくなります。このようなモデルの極めて複雑な性質と、個人データを解明することの難しさは、規制当局にとっても産業界にとっても大きな課題となるでしょう。

偽情報、誤報、詐欺

MITの研究者たちは2018年の研究で、虚偽の情報は真実よりも遠く、速く、深く、広く拡散することを発見しました。そして、生成AIは、誤った情報を作り出す、あるいは広めるために使用できる別のツールを提供します。

これらのツールは、誤解を招く、不正確な、あるいは捏造されたコンテンツを効率的に生成することを可能にします。最もよく知られているのは、「ディープフェイク」と呼ばれる偽のイベント画像の作成です。これは、3月に流行したローマ法王がパファージャケットを着ている画像のように無害な場合もあれば、消費者金融の専門家であるマーティン・ルイスの顔と声が怪しげな投資商品を勧めるために使われたように、弱い立場の人々をだます目的で使われることもあります。また、最近BANされたバイラル左翼ツイッター・ユーザーのエリカ・マーシュのケースで疑われたように、まったく新しい人物を作り出すことも可能です。

さらに、高度なチャットボットは、偽の物語やストーリーを、大規模に、速いペースで、最小限のコストで作り出すことができます。生成AIの普及が進むにつれて、偽情報や誤報の問題が悪化し、対処が一層困難になっていくでしょう。

偽情報を特定し、検証することは、多くの場合、その情報を作成するよりも検証や反論に時間がかかるため、困難です。さらに、情報の作成者(人間またはボット)を追跡することは困難な場合が多いです。このような説明責任の欠如は、責任者がその行動に対して責任を負えないため、誤ったシナリオを永続させる一因となっています。今後2、3年の間に一連の選挙が行われるため、この種の誤報に取り組むことの重要性はますます高まってきています。

競争

現在、生成AIの領域で競争力を持つプレーヤーは限られています。膨大な量の高品質データ、強力な計算リソース、高度に専門化された専門知識とスキル、多額の資本投資へのアクセスに関連する課題は、市場集中や独占の一因となる可能性さえある参入への大きな障壁となります。グーグル、メタ、アマゾン、マイクロソフトといった大手ハイテク企業は、大規模な言語モデル開発の最前線をリードする数少ない企業のひとつであり、それによってAI時代における有利な立場を確固たるものにしています。一方、イーロン・マスクが最近立ち上げたxAIのような他の企業は、キャッチアップに必死になっているのが現状です。

新しい技術が登場した場合、競争規制当局は、それらが既存の市場にどのような影響を与えうるかに留意する必要があります。私たちは過去に、(インターネット検索におけるグーグルのように)1つの企業が特定の空間で支配的になることがいかに容易であるかを見てきました。ネット歴の長い人なら、連邦取引委員会の介入にもかかわらず、マイクロソフトがOS市場での優位性を利用してネットを駆逐した「ブラウザ戦争」を思い出すことでしょう。

結論

まとめると、生成AIは私たちの生活に変革をもたらす可能性を秘めています。しかし、他の新しいテクノロジーと同様に、悪用される可能性もあり、ユーザーとして、消費者として、そして社会参加者として、私たちに害をもたらす可能性もあります。

立法がテクノロジーに遅れをとるのは定型句のようなもので、生成AIも今のところ例外ではないようです。議員や規制当局は現在、上述のような生成AIがもたらす課題やリスクに対処するための解決策を見出すことに取り組んでいます。

参考記事:Mind the (Regulatory) Gap – Part 1: The regulatory and legal challenges of GenAI, Tim Roberts, Colin Johnson, Vaibhav Asher, Jo Liao

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

こちらもおすすめ