OpenAIの論文から見るChatGPTの危険性

ChatGPTの開発元であるOpenAIが最近発表した論文を読むと、ChatGPTのような生成AIを使うことで起こりうる問題がわかってきます。無意味または偽のコンテンツを生成する「幻覚」を含む生成AI特有の問題の技術的な対策は難しく、使うユーザー側の判断にも大きな影響を与えるリスクもあります。そのため、今後、「正しく」AIツールを使うには、ツールの発展と共に、ユーザーのAIリテラシーの向上が求められ、それは差し迫った問題として捉えるべきです。

ーーー

ChatGPTは仕事や勉強のための強力なツールです。企業の立場からすると、プロンプトを入力するだけで複雑な質問に対する答えを見つけられるのは魅力的です。しかし、得られる情報の信憑性を考慮することは不可欠です。

ChatGPTの開発元であるOpenAIが最近発表した論文では、彼らのAIツールが生み出す様々な安全性、プライバシー、サイバーセキュリティの懸念と、潜在的な危害を軽減するためにOpenAIが取った行動について調査しています。その中で、いくつかの解決策が提案されているものの、多くの課題が残っており、ChatGPTや他の生成AIサービスのビジネス展開には、データの準備、プロンプト、ChatGPTの応答のスクリーニングに関する適切な管理が必要であることが強調されています。

幻覚はAIツールの性能が上がることで判断しづらくなる

OpenAIの言葉を借りれば、ChatGPTには「幻覚」(Hallucinations)を見る傾向があります。これは、特定のソースに関連して、無意味な、または真実でないコンテンツを生成することと定義されています。例えば、ある記事の要約を作成するよう要求されたとき、ChatGPTは、その内容に関する正しい情報の中に、元のソースにはない情報を含むでっち上げの内容をいくつか作成しました。

このような幻覚の意味は広範囲に及びます。

ChatGPTは、法律的な論証を要求されると、存在しない判例を完全に引用しました。情報を引き出すための具体的な文書(たとえば保険証書)が与えられた場合でも、回答に幻覚が現れる可能性は否定できないとのことです。

関連記事:連邦訴訟における不用意なChatGPTの活用で弁護士が非難される事態に

直感に反することですが、ChatGPTを使えば使うほど、幻覚が疑われなくなるリスクは高まります。OpenAIは、モデルが発展して説得力が増すにつれて、ユーザーはモデルが伝える情報をより信頼するようになり、正しいと認識していきます。これは、完全に捏造された判例を含む幻覚の「事実」が真実として扱われる可能性があることが示唆されています。

AIツールへの過度の信頼はユーザー側のリスク

上記のリスクと関連しているのが、過信の問題です。

ChatGPTの発展が進むにつれ、ユーザーに複雑で詳細な回答を与えることで、より信憑性が増し、その過程で権威を獲得していきます。特に、ユーザーが専門外の分野について調べている場合、チャットで提供された情報を確認することが難しくなってくるでしょう。

OpenAIはまた、このAIモデルが回答においてヘッジをかける傾向があり、そのアプローチが慎重であるように見えることも、ユーザーの信頼とその回答への依存を高める可能性があると警告しています。ChatGPTが 「慎重」に見えると、我々はそれを(そして幻覚を)信じやすくなります。

OpenAIは、ChatGPTのポリシーに違反するリクエストを拒否する際にその姿勢をより厳格にすることでこの問題に取り組もうとしています。しかし、今回発表された論文において、ツールを使っているユーザー側に責任を転嫁し、モデルの使い方とその限界についてのガイダンスを発行するような形を助言しています。つまり、ChatGPTが提供する情報を批判的にとらえ、事実と虚構を区別するのはユーザーの責任であるということを明確にしています。しかし、ここまでに話してきたように、AIモデルの幻覚の複雑さと詳細を考慮すると、その信憑性を判断するという作業は複雑な作業になる可能性があります。

有害コンテンツはAIツールの深刻的な問題

OpenAIは、ChatGPTが実世界に影響を及ぼし、個人を搾取し、傷つける可能性のある有害なコンテンツを生成できることを確認しました。

これには以下のようなものが含まれます:

  • ヘイトスピーチ、嫌がらせ、卑下、憎悪のコンテンツ
  • 違法コンテンツの見つけ方を含む、攻撃や暴力行為の計画方法に関する情報
  • グラフィック素材

OpenAIはシステムによる拒否の改善に取り組んでいますが、意図的なモデルの誘導がこのような結果を招く可能性があるとしています。OpenAIは、予測されるプロンプトや質問をブロックすることはできるが、すべての可能な質問の方法を推測することはできません

AIツールの普及に伴うリスク差し迫った問題

彼らは、AIモデルの能力が向上し、近い将来により多くの場面で実装され、使用されることは、この有害コンテンツ問題が大きくなる可能性があるだけではなく、私達の生活にとって差し迫ったものであることを意味すると認識しています。OpenAIは、これらのモデルの使用への円滑な移行を確実にするために、AIリテラシー、経済的・社会的レジリエンス、参加型ガバナンスのさらなる研究を奨励するとしています。

推奨されている対策は必要なものですが、AIツールの使用と常態化が進むにつれて、新しく起こる問題への対策の開発と実施は、AIツールの進化に遅れを取る可能性が高いです。ChatGPTのサービスが始まった時点で、ChatGPTが「幻覚」を見せる可能性があることを知っていた人は何人いたでしょうか?(今はAIツールを使うすべての人が知っていることを願いますが…)使用者がこのようなAIツールのリスクや使用におけるリスクを認識しているか否かは、職場でAIツールの使用を許可するかを決定する際に考慮すべき重要なポイントです。

参考記事:ChatGPT ‘hallucinates’ and other conclusions from OpenAI’s paper on safety concerns

ニュースレター、会員制コミュニティ

最新のアメリカ知財情報が詰まったニュースレターはこちら。

最新の判例からアメリカ知財のトレンドまで現役アメリカ特許弁護士が現地からお届け(無料)

日米を中心とした知財プロフェッショナルのためのオンラインコミュニティーを運営しています。アメリカの知財最新情報やトレンドはもちろん、現地で日々実務に携わる弁護士やパテントエージェントの生の声が聞け、気軽にコミュニケーションが取れる会員制コミュニティです。

会員制知財コミュニティの詳細はこちらから。

お問い合わせはメール(koji.noguchi@openlegalcommunity.com)でもうかがいます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

OLCとは?

OLCは、「アメリカ知財をもっと身近なものにしよう」という思いで作られた日本人のためのアメリカ知財情報提供サイトです。より詳しく>>

追加記事

特許出願
野口 剛史

USPTOによる効果的な審査官との面接方法

以前から現地の実務者と意見交換を行う際にインタビューの重要性は注目されてきました。今回は、特許庁の責任者が公式の立場で効果的な審査官との面接方法を紹介しているので、特に興味深い内容でした。オンラインでの申込みやビデオツールの導入によって、アメリカにおける権利化のためにインタビューがより重要になってくるのは間違いありません。

Read More »