Professional individual working on confidential information in a secure office, with multiple encrypted computer screens and advanced security measures

生成AIの活用に潜む企業機密保護の問題

生成AIは、人間の言語を模倣し、対話やテキスト生成を可能にする先進技術です。例として、ChatGPTは会話型のAIであり、人間との対話を可能にするよう設計されています。この技術は急速に進化し、複雑な問題解決能力を拡張しています。しかし、生成AIは完全無誤ではなく、誤った情報の生成の可能性もあります。特に、企業秘密や機密情報の取り扱いにおいては、これらのAIシステムの利用に際して法的な慎重さが求められます。法律専門家として、これらの新たな技術がもたらす法的な課題と機会に注目し、適切なガイダンスを提供することが重要です。

生成AIの歴史と構造上の課題

ChatGPTとは「Generative Pre-Trained Transformer」の頭文字をとったものです。インターネット上の検索結果を返すだけの検索エンジンとは異なり、入力に反応するOpenAIが開発したAIツールです。この画期的なテクノロジーは、人間のようにコミュニケーションし、入力された内容を文脈に合わせて、テキスト、歌詞、詩、プログラミングコードなど、日々発見される様々なアウトプットを作成することができます。

2023年3月、OpenAIはGPT-4をリリースしました。GPT-4はChatGPTのコアテクノロジーを進化させ、チャットソフトウェアがより難しい問題をより高い精度で解くことを可能にします。GPT-4はまた、25,000語以上のテキストを扱うことができ、長文のコンテンツ作成、拡張会話、文書検索と分析を可能にします。

今日、生成AIは、そのプロセスの理由や仕組みを説明することなく結果を生成します。

チャットGPTが作られた歴史は重要です。オリジナルのチャットボットは、1966年にMITのコンピュータ科学者ジョセフ・ワイゼンバウムによって作成され、ELIZAと名付けられました。次に開発されたのは、入出力セットを通して学習された機械学習ニューロネットワークである大規模言語モデル(LLM)です。情報はLLMに入力され、出力はアルゴリズムが次の単語を予測したものでした。

今日、生成AIは、そのプロセスがなぜ、どのように機能するのかを説明することなく結果を出します。適切なデータを使用するためにLLMをトレーニングするには、大規模なサーバーファームとスーパーコンピューターを使用する必要があります。ChatGPTはLLMの一例で、当初は文中の次の単語やその他の自動補完タスクを予測するために訓練されました。

生成AIモデルには多くの問題があります。例えば、コンピュータ科学者は、LLMがあるプログラミング言語で訓練された後、見たこともない別のプログラミング言語でコードを生成する可能性があることを発見しました。不正解になることもしばしばです。

もうひとつの懸念は、AIによる情報の捏造です。AIは知識ベースに十分な実際の情報がない場合、アルゴリズムに従って正しいと思われるものでギャップを埋めてしまいます。

インプット/アウトプットの企業秘密で生成AIシステムを使用すると、人とコンピュータの間に存在しうる秘密関係がないため、企業秘密が担保されない可能性があります。

何兆もの変数を含む生成AIシステムにはランダム性の要素があり、生成AIシステムがどのようにして特定の出力に到達したかを分析することは困難か不可能です。機械学習アルゴリズムのレイヤーは非常に多く、人間がコードに入り込み、ソフトウェアがなぜそのような選択をしたのかを正確に追跡することはもはやできません。

また、AIは嘘をつきます。生成AIモデルは、あることが事実かどうかを判断することはできません。ですから、もしそのデータが「空は緑色だ」と言うのであれば、AIは石灰色の空の下で起こる裏話をするでしょう。

また、AIの幻覚という現象もあります。ユーザーが生成AIツールにリクエストした場合、ユーザーはそのプロンプトに適切に対応する出力(つまり正解)を望みます。しかし、AIアルゴリズムが、学習データに基づかない、トランスフォーマーによって誤ってデコードされた、または識別可能なパターンに従わない出力を生成することがあります。つまり、応答が「幻覚」になってしまうのです。もう一つの懸念はAIのバイアスです。これは、アルゴリズム開発プロセスで行われた偏見に満ちた仮定や、学習データの偏見に起因する機械学習アルゴリズムの出力の異常です。

AIの能力は固定的なものではなく、技術の進歩とともに指数関数的に拡大し続けています。AIモデルの複雑さは数カ月ごとに倍増しています。人工知能システムの能力は、その発明者でさえ未公開のままです。AIシステムは、その出所や行き先を理解することなく新たな能力を構築しています。

生成AIを活用する上での企業機密情報の保護の問題

企業機密を保護するには、企業機密情報の秘密を保護するために合理的な措置を講じる必要があります。保護されていない企業機密の第三者への開示は、その情報の企業機密としての地位を無効にします。

生成AIは入力と出力に基づいて構築されます。AIシステムの設計方法では、受信した入力が出力になります。そのため、A社が製品Xの公式に関する要求を入力した場合、AIシステムは機密情報と非機密情報を区別するように設計されていないため、出力はもはや企業機密として認められないものになります。入力は企業機密として認められず、出力も企業機密として認められず、製品Xの将来の入力または出力は企業機密保護の対象とはなりません。

特定の情報を企業機密として保護するためには、企業機密を開示する前に、開示を受ける側が守秘義務を明示的に約束する必要があります。これは、受信側が人ではないため、生成AIシステムを使用して実現することはできません。

あるいは、特定の情報が、開示を受ける側が秘密保持を意図していることを知っていた、または知る理由があった状況下で開示を受ける側に開示された場合、開示を受ける側が生成AIシステムであっても同じ結果が生じます。受信当事者が人ではないため、保護はありません。その代わり、保護されない第三者への開示により、企業機密としての情報の地位は無効となります。

企業機密はもろい資産です。一度失われた企業機密は永遠に失われます。人とコンピュータの間に存在し得る秘密関係は存在しないため、入力/出力の企業機密で生成AIシステムを使用することは、企業機密を失うことになります。残念ながら、企業機密を保護するには、今のところ生成AIツールの使用を全面的に禁止するというのが最善なのかもしれません。

参考記事:Artificial intelligence and trade secrets

Leave a Reply

Your email address will not be published. Required fields are marked *

こちらもおすすめ