ChatGPTのリスクと企業ポリシーの必要性

ChatGPTは瞬く間にビジネス、メディア、インターネットの話題となり、報道によると、1月だけで1億人以上の月間アクティブユーザーがこのアプリケーションを利用しています。ChatGPTやその他の新しい生成型人工知能アプリケーション(generative AI、GAI)のビジネスアプリケーションの可能性は多彩ですが、それと同時に、新しい問題やリスクの可能性が指摘されています。そこで、企業がGAIを職場で使用する際に、どのようなポリシーや技術的な制限を課すべきかを判断するために、問題やリスクを評価することをお勧めします。

どのようなリスクが考えられるか

守秘義務(Confidentiality

ビジネス戦略、ソフトウェア、その他の機密情報をさらに開発または改良するためにGAIを使用することは魅力的に思えるかもしれません。しかし、ChatGPTやその他のGAIに機密情報を入力することは、多くのリスクをもたらします。

  • ChatGPTは、入力された情報を基に学習する可能性があり、その結果、入力された機密情報の一部が何らかの形で後続のユーザに提供される可能性があります。実際、少なくとも1つの企業が、データセキュリティの懸念から、機密コードをアプリケーションに入力しないよう従業員に忠告したことが報告されています。
  • ビジネス上の機密情報の中には、第三者からライセンスを受け、守秘義務や使用制限を受けているものがあります。そのような情報をChatGPTに入れることで、企業はそれらの制限に違反する可能性があります。
  • 営業秘密法(Trade secret law)では、営業秘密であると主張する情報の秘密を保護するために合理的な手順を維持することが求められます。ChatGPTに情報を入れることは、そのような情報が実際には法律上、営業秘密として保護可能であるという企業の立場を弱めるかもしれません。
  • プライバシー法により、従業員、顧客、関連会社または消費者の個人情報をGAIに提出することが制限される場合があります。 

規制上の問題(Regulatory Issues)

規制対象事業者がChatGPTや他のGAIを業務で使用している範囲において、その使用の一部またはすべてが規制要件の対象となるかどうかを考える必要があります。 例えば、GAIの利用についてその一部は、何らかの方法でログ、記録、アーカイブされる必要があるかもしれません。この問題の分析は、適用される法律、契約、保険に基づく要件、さらには企業独自の内部方針によって対応が異なる場合があります。

知的財産権(Intellectual Property)

 GAIは、多くの興味深い新しい知的財産の問題を提示しています。以下は、具体的な問題の一例です。

  • ウェブのスクレイピングによるGAIのトレーニングは、CMI(copyright management information。著作権管理情報)の削除に関する知的財産権の侵害やDMCA違反となるか、もしそうなら、そのGAIのユーザーは何らかの責任を負うのか?
  • GAIが生成したアウトプットの知的財産はどうなっているのか?例えば、ソフトウェア開発者がChatGPTを使ってソフトウェアを作成した場合、その開発者はそのソフトウェアの全ての知的財産権を所有していることをユーザーに表明することができるのか?また、開発者は、侵害の問題に対してユーザーを補償することができますか?また、GAIで作成された画像の取り扱いはどうするべきか?特に、人間が作成した1つまたは複数のソースと認識できるほど類似している場合はどう対処するべきか?
  • GAIの使用が侵害となる範囲において、フェアユースや暗黙のライセンスの原則はどう適用されるのか?
  • GAIまたはGAIのユーザーは、特許法上の「発明者」、またはGAIが作成した作品の米国著作権の所有者となり得るのか?

これらの知的財産の問題は、程度の差はあるものの、すべて未解決の問題であり、訴訟当事者が訴訟を起こし、これらの問題について審議が始まったばかりというのが現状です。 しかし、現在のところの基本的な理解は以下の通りです:

  • GAIが生成したコンテンツ(特にAIが生成したアートワークや画像)に対して著作権を主張することは避けるのがベストプラクティスです。 ChatGPTの規約もアウトプットに関して自社の権利を主張するものではありません。実際のコンテンツの権利に関する規約を見てみると、「当事者間において、適用される法律で許可される範囲において、ユーザーはすべてのインプットを所有し、あなたが本規約を遵守することを条件に、OpenAIはここに、アウトプットに関するすべての権利、権原、利益をユーザーに譲渡します。」と書かれています。 このようなアウトプットに対するライセンスは、OpenAIのアウトプットに対する権利をユーザーに広く認めるものですが、その一方で、ChatGPTがそもそもアウトプットに対するなんらかの権利を持っていることを認めるものでもありません。
  • サードパーティのソフトウェア開発者やあらゆる種類のコンテンツ作成者が、その成果物においてChatGPTやGAIを使用することを許可されるべきかどうかについては、検討されるべきです。これは、それらの第三者との開発契約において対処されるべき問題です。
  • 著作権局の方針は、現在、 Compendium of U.S. Copyright Office Practices (3d Ed. 2021)に記載されているように、著作権局は、「人間の著作者からの創造的な入力や介入なしにランダムまたは自動的に動作する機械または単なる機械的プロセスによって生成された作品を登録しない」というものです。重要な問題は、『「作品」が基本的に人間の著作物であり、コンピュータ(またはその他の装置)は単に補助的な道具であるか、または、作品における伝統的な著作物要素が…実際には人間ではなく機械によって考案され実行されたものか』です」。したがって、この方針に基づけば、GAIが作成したコンテンツは著作権保護の対象とはならないということになります。

品質とアウトプットに関する問題

GAIのアウトプットの性質上、様々な問題が提示されています。

  • ChatGPTと他のGAIは、まだ多くの制限のある発展途上のツールです。OpenAIが自ら発言しているように「ChatGPTは、もっともらしく聞こえるものの、不正確な答えや無意味な答えを書くことがあります。したがって、現在のChatGPTのインターフェースはすぐに使えるようになっていますが、どのような成果物であっても、その正確性と真実性は、確認する必要があります。」
  • GAIが生成した分析は、それが訓練された偏ったまたは差別的なコンテンツを反映する可能性があります。 ChatGPTや他のGAI出力の真偽を確認するとともに、ユーザーは、そのようなソースのアルゴリズムマイニングの結果、差別的または偏った発言や結論に注意する必要があります。これは、雇用差別に関する法律や、雇用の決定における人工知能の使用を規制する法律との関連で、特に懸念される可能性があります。
  • 出版社やその他のコンテンツ制作者は、侵害やその他のリスクに基づく損害をカバーするために、「Errors and Omissions」保険に入ることが多いです。このような保険を結ぶためには、しばしば社内のコンテンツ制作慣行の調査が含まれます。GAIが作成したコンテンツは、従来のErrors and Omissions保険の適用範囲になるのでしょうか?
  • 通信品位法第230条(Section 230 of the Communications Decency Act)は、その範囲と適用において非常に議論されている条文です。GAIが作成したコンテンツがオンラインビジネスで使用される範囲において、そのコンテンツに関してCDA(Communications Decency Act)が適用されるかどうか、またどの程度適用されるかは不明です。CDA第230条は、「双方向コンピュータサービスのプロバイダまたはユーザ」が「他の情報コンテンツプロバイダが提供する情報の発行者または発言者として」責任を負うことを禁止しています。 GAIが作成したコンテンツが「他の情報提供者によって提供された情報」とみなされないような状況はあるのでしょうか?この種の第三者コンテンツに関する問題は、2023年2月21日に最高裁において、アルゴリズム機能に対するCDAの適用性を検討する訴訟で弁論が行ったばかりであるため、特に注意深く見る必要があります。
  • GAIが作成したコンテンツが公開される際に、GAIによって作成されたものであると識別されるべきかどうかについても考慮する必要があります。これは、顧客や従業員とのチャットボットによる会話など、コンテンツがリアルタイムで生成される場合に問題となることがあります。 また、組織は、そのような開示が顧客、ビジネスパートナー、または一般市民に対して適切かどうかを検討する必要があります。
  • GAIとのやりとりは、訴訟でディスカバリーの対象となる可能性があるのでしょうか?企業の文書保存ポリシーは、GAIで生成されたコンテンツにも言及するべきでしょうか?

人工知能のコンプライアンス問題

米国および海外では、人工知能の利用に対応した多くの法律や規制が存在し、さまざまな段階で制定されています。例えば、カリフォルニア州のチャットボット法(Bus. and Prof. Code § 17940)は、特に、特定の消費者とのやり取りにおいて、企業が、消費者がボットとやり取りしていることを明確かつ目立つように開示することを求めています。さらに、ニューヨーク市といくつかの州は、雇用の文脈における自動意思決定に影響を与える規制を設けており、FTCと州の検事総長は「不公正または欺瞞的」な取引慣行に対する執行権限を有しています。組織は、GAIの使用がこのような法律に準拠していることを確認する必要があります。

ポリシーに関する考え方

ChatGPTはリアルタイムで使われています。組織はこれを無視することはできませんし、近い将来、これらの技術がさらに広く使用されることは必至です。すべての組織は、GAIが提示する問題を評価し、それがどの程度、組織に重大なリスクをもたらすかを判断する必要があります。 各企業は、それぞれの特有のリスクプロファイルからGAIにアプローチしなければならないでしょう。実際、米国国立標準技術研究所(NIST)が最近発表したArtificial Intelligence Risk Management Framework 1.0で説明されているように、リスク許容度は、AIシステム、ポリシー、規範の進化に伴い、時間の経過とともに変化する可能性があります。

考えられる行動方針は以下の通りです:

  • 関連するコミュニティに対して、GAIの使用は許可されているが、GAIの威力とリスクについて概説し、コミュニティに警戒するよう求めるメッセージを発信する。
  • 以下の一部またはすべてに関してポリシーを制定する:
    • GAIの特定の利用を禁止する。ニュース報道によると、一部の企業はすでに従業員のChatGPTの利用を制限する措置をとっているようです。
    • 許可されたGAIの使用方法と、事前の承認が必要なケースを特定する。
    • GAI使用の内部追跡と、選択されたGAI生成コンテンツの追加的な人的レビューの義務化。
    • GAIおよびGAIアウトプットの使用に関する外部開示への対応。
    • 外部のビジネスパートナーやベンダーによるGAIの利用を規制すること。
    • GAIアプリケーションを自社サイトに埋め込む可能性への対応

まとめ

私たちは、EコマースやWeb 2.0の初期、あるいはWeb 3.0の現在のように、生成的AI技術とその企業や消費者への応用を取り巻くイノベーションのサイクルの始まりにいるに過ぎないと思われます。もちろん、この記事はGAIに関連する予備的な問題や懸念の一部を取り上げたに過ぎません。テクノロジーの進化に伴い、将来的にはもっと多くの問題を解明することになるでしょう。 GAIが上記のようなリスクをもたらすと考える組織や、GAIが自社のビジネスにとって他の問題をもたらすと考える組織にとっては、今すぐ適切な方針を打ち出すことが有効かもしれません。 

参考記事:ChatGPT Risks and the Need for Corporate Policies

こちらもおすすめ