OpenAIの論文から見るChatGPTの危険性

ChatGPTの開発元であるOpenAIが最近発表した論文を読むと、ChatGPTのような生成AIを使うことで起こりうる問題がわかってきます。無意味または偽のコンテンツを生成する「幻覚」を含む生成AI特有の問題の技術的な対策は難しく、使うユーザー側の判断にも大きな影響を与えるリスクもあります。そのため、今後、「正しく」AIツールを使うには、ツールの発展と共に、ユーザーのAIリテラシーの向上が求められ、それは差し迫った問題として捉えるべきです。

ーーー

ChatGPTは仕事や勉強のための強力なツールです。企業の立場からすると、プロンプトを入力するだけで複雑な質問に対する答えを見つけられるのは魅力的です。しかし、得られる情報の信憑性を考慮することは不可欠です。

ChatGPTの開発元であるOpenAIが最近発表した論文では、彼らのAIツールが生み出す様々な安全性、プライバシー、サイバーセキュリティの懸念と、潜在的な危害を軽減するためにOpenAIが取った行動について調査しています。その中で、いくつかの解決策が提案されているものの、多くの課題が残っており、ChatGPTや他の生成AIサービスのビジネス展開には、データの準備、プロンプト、ChatGPTの応答のスクリーニングに関する適切な管理が必要であることが強調されています。

幻覚はAIツールの性能が上がることで判断しづらくなる

OpenAIの言葉を借りれば、ChatGPTには「幻覚」(Hallucinations)を見る傾向があります。これは、特定のソースに関連して、無意味な、または真実でないコンテンツを生成することと定義されています。例えば、ある記事の要約を作成するよう要求されたとき、ChatGPTは、その内容に関する正しい情報の中に、元のソースにはない情報を含むでっち上げの内容をいくつか作成しました。

このような幻覚の意味は広範囲に及びます。

ChatGPTは、法律的な論証を要求されると、存在しない判例を完全に引用しました。情報を引き出すための具体的な文書(たとえば保険証書)が与えられた場合でも、回答に幻覚が現れる可能性は否定できないとのことです。

関連記事:連邦訴訟における不用意なChatGPTの活用で弁護士が非難される事態に

直感に反することですが、ChatGPTを使えば使うほど、幻覚が疑われなくなるリスクは高まります。OpenAIは、モデルが発展して説得力が増すにつれて、ユーザーはモデルが伝える情報をより信頼するようになり、正しいと認識していきます。これは、完全に捏造された判例を含む幻覚の「事実」が真実として扱われる可能性があることが示唆されています。

AIツールへの過度の信頼はユーザー側のリスク

上記のリスクと関連しているのが、過信の問題です。

ChatGPTの発展が進むにつれ、ユーザーに複雑で詳細な回答を与えることで、より信憑性が増し、その過程で権威を獲得していきます。特に、ユーザーが専門外の分野について調べている場合、チャットで提供された情報を確認することが難しくなってくるでしょう。

OpenAIはまた、このAIモデルが回答においてヘッジをかける傾向があり、そのアプローチが慎重であるように見えることも、ユーザーの信頼とその回答への依存を高める可能性があると警告しています。ChatGPTが 「慎重」に見えると、我々はそれを(そして幻覚を)信じやすくなります。

OpenAIは、ChatGPTのポリシーに違反するリクエストを拒否する際にその姿勢をより厳格にすることでこの問題に取り組もうとしています。しかし、今回発表された論文において、ツールを使っているユーザー側に責任を転嫁し、モデルの使い方とその限界についてのガイダンスを発行するような形を助言しています。つまり、ChatGPTが提供する情報を批判的にとらえ、事実と虚構を区別するのはユーザーの責任であるということを明確にしています。しかし、ここまでに話してきたように、AIモデルの幻覚の複雑さと詳細を考慮すると、その信憑性を判断するという作業は複雑な作業になる可能性があります。

有害コンテンツはAIツールの深刻的な問題

OpenAIは、ChatGPTが実世界に影響を及ぼし、個人を搾取し、傷つける可能性のある有害なコンテンツを生成できることを確認しました。

これには以下のようなものが含まれます:

  • ヘイトスピーチ、嫌がらせ、卑下、憎悪のコンテンツ
  • 違法コンテンツの見つけ方を含む、攻撃や暴力行為の計画方法に関する情報
  • グラフィック素材

OpenAIはシステムによる拒否の改善に取り組んでいますが、意図的なモデルの誘導がこのような結果を招く可能性があるとしています。OpenAIは、予測されるプロンプトや質問をブロックすることはできるが、すべての可能な質問の方法を推測することはできません

AIツールの普及に伴うリスク差し迫った問題

彼らは、AIモデルの能力が向上し、近い将来により多くの場面で実装され、使用されることは、この有害コンテンツ問題が大きくなる可能性があるだけではなく、私達の生活にとって差し迫ったものであることを意味すると認識しています。OpenAIは、これらのモデルの使用への円滑な移行を確実にするために、AIリテラシー、経済的・社会的レジリエンス、参加型ガバナンスのさらなる研究を奨励するとしています。

推奨されている対策は必要なものですが、AIツールの使用と常態化が進むにつれて、新しく起こる問題への対策の開発と実施は、AIツールの進化に遅れを取る可能性が高いです。ChatGPTのサービスが始まった時点で、ChatGPTが「幻覚」を見せる可能性があることを知っていた人は何人いたでしょうか?(今はAIツールを使うすべての人が知っていることを願いますが…)使用者がこのようなAIツールのリスクや使用におけるリスクを認識しているか否かは、職場でAIツールの使用を許可するかを決定する際に考慮すべき重要なポイントです。

参考記事:ChatGPT ‘hallucinates’ and other conclusions from OpenAI’s paper on safety concerns

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

追加記事

特許において、クレームの限定事項が明確に記述されているかどうかは、特許の有効性を左右する重要な要素です。今回、Maxell, Ltd.対Amperex Technology Limitedの判決は、特許クレームの解釈において、限定事項間の表面上の矛盾をどのように扱うべきかという問題を浮き彫りにしました。本文では、この重要な判決を深堀りし、一見矛盾すると思われる限定事項が、実際には特許の不明瞭性(Indefiniteness)を生じさせない理由について探求します。特に、連邦巡回控訴裁判所(CAFC)がどのようにこれらの限定事項を同時に満たすことが可能であると見做したか、その解釈の根拠と、特許クレームを起草する際の実務上の教訓に焦点を当てて考察します。
特許法における「組み合わせの動機」(Motivation to Combin)の概念は、発明が発明された時点でその分野の通常の技術者(PHOSITA)にとって自明であったかどうかを判断する上で不可欠な要素です。自明性の問題は、新しい発明が既知の技術要素の単純な組み合わせに過ぎないのか、それとも特許に値する独自の技術的進歩を表しているのかを区別するために重要です。このブログ記事では、特許請求の自明性を評価する際に中心となる「組み合わせの動機」の概念と最高裁判決であるKSR判例を解説し、Virtek Vision 対 Assembly Guidance Systemsの事件を例に、実際の訴訟におけるこの概念の適用方法について掘り下げます。
先月、米国特許商標庁(USPTO)が「Means-Plus-Function」に関するメモランダムを発行し、審査官に最新ガイダンスを提供しました。その内容は実務における大きな変更を意味するものではなく、既存の法的枠組みの下でより明確な指針を提供することを目的としています。しかし、このタイミングにおけるガイドラインの発行は、35U.S.C.112条(f)に基づく一風変わったクレームの形式であるMeans-Plus-FunctionがUSPTOにおける特許審査で注目されていることを示しており、改めてガイドラインに沿った適切なクレームドラフティングが求められることを意味します。