製造業における生成AIツールの正しい使い方

本記事では、ChatGPTのような生成AIツールが、製造業を営む企業の作業効率と品質の向上を可能にする可能性と、AI統合を成功させるためのリスクについて考察します。新しいAIツールを導入する際、知的財産権の管理、機密保持、説明責任は、製造業が考慮すべき重要な課題です。

AIが知的財産権に与える影響の検討

生成AIは、知的財産(IP)の所有権とクリアランスに多くの影響を与えます。

その1つの例として、生成AIツールを使用して作成されたアウトプットを企業が必ずしも「所有」することができないという問題があります。この問題の大部分は、AIが生成したコンテンツは、その作成に実質的な人間の制御が関与していない限り、著作権保護の対象とならないことに起因します。

もう一つの重要な懸念は、AIのアウトプットが第三者の知的財産権を侵害しないようにすることです。ここでは、知的財産権保護の主なフレームワークに対する所有権の考慮事項に焦点を当てて考えていきます。

著作権: 製造業は、著作権侵害のリスクがあるため、日常業務で生成AIを使用することに懸念を持つかもしれません。生成されたアウトプットに著作権で保護された素材を組み込んだAIツールを無意識のうちに使用していることで、企業の製品設計や回路図をめぐる著作権紛争に発展する懸念があります。AIの出力は、企業が入力するプロンプトやクエリ(AI入力)と、使用する特定のAIモデルの組み合わせによって駆動されます。企業は、既存のアートワーク、著作権、音楽、デザイン(著作物)をコピーしたり、それと実質的に類似したものを入力することを禁止するポリシーを導入することで、AIの入力を制御することができます。

また、AIモデルに対して何らかの契約上のコントロールを及ぼすこともできます。例えば、企業はAIベンダーに対して、AI出力が著作物のコピーや実質的に類似した著作物を生成しないことを保証するよう契約上の要求をすることができます。

また、AIが生成したアウトプットを保護しようとする企業は、AIアウトプットがAIが生成したコンテンツに対して実質的な量の人為的制御を行わない限り、AIが生成した「著作物」は著作権で保護されない可能性があることに留意する必要があります。

商標: AIのアウトプットは、人による実質的な貢献がなければ著作権で保護することはできませんが、商標法では保護される可能性があります。例えば、AIツールは、名前のアイデアのワークショップ、ロゴの作成、製品パッケージの提案、またはユニークなデザインの作成に活用することができます。

商標は出所を識別するものであるため、企業がAIの出力をブランドのマークとして使用し続ける限り、AIの出力は登録される可能性があります。AIツールは、企業の登録商標を侵害する可能性のある同一または類似の商標を持つ製品を特定することによって、ブランドを監視し、取り締まるのにも役立ちます。AIツールのための強固なガバナンスと適切な手順を確立することで、企業の商標監視業務を最適化することができます。

営業秘密: AIツールを使用する場合、製造業者は営業秘密 (Trade Secrets) の保護を失うリスクに注意深く注意を払う必要があります。企業は、営業秘密情報の機密性を保持するために合理的な措置を講じる必要があります。

例えば、一般に利用可能なAIシステムに機密性の高い企業情報を入力すると、営業秘密の地位を失う可能性があります。これは、現在の生成AIツールが機密情報(confidential)、秘密情報(sensitive)、非機密情報(non-confidential)を区別していないためで、多くの生成AIツールの利用規約には、入力されたデータはAIのトレーニング目的で使用される場合があると記載されていることは言うまでもありません。いったん機密データが取り込まれると、そのような情報が一般に公開されている企業秘密情報を学習目的に使用することを止めることは非常に困難になります。企業秘密の保護を損なわないために、企業は全社的なAI使用ポリシーと手順を導入し、従業員が会社の承認を受けていないAIツールに機密情報や専有情報を入力することを禁止する必要があります。

秘密保持義務の認識を啓蒙する

企業は、ベンダーとの契約を含む既存の契約書を見直し、各取引先の情報の使用方法に関する条項を確認する必要があります。例えば、秘密保持契約(NDA)の対象となる情報は、AIツールでの使用に適さない可能性のある機密情報です。従業員は理解できないかもしれませんが、そのような機密情報をAIツールに入力すると、NDAの条項に基づく開示と解釈される可能性があります。NDAで保護された情報が入力されると、AIツールはそのデータを使用してアルゴリズムを訓練する可能性があります。AIアルゴリズムの性質上、そのような情報を削除したり、AIツールがその情報を学習解除したりすることは困難な場合があります。契約上の守秘義務を認識することが、AI時代を乗り切る鍵です。

透明性と責任

メーカーは、AIツールを使用する際、社内で透明性と説明責任を促進する必要があります。

企業は、AIの出力を表示したり、特定の意思決定におけるAIの使用について利害関係者に通知したりすることで、透明性を促進することができます。また、AIのインプットが企業の機密情報や専有情報から引き出されないことを保証する手順を導入することで、AIの責任ある利用を行うことができます。

同様に、企業は、第三者や個人情報をAIシステムに入力する前に、適切なライセンスや同意が得られるように注意する必要があります。AIの出力が不正確であったり、誤解を招くような結果(幻覚)でないかどうかを検証するプロセスを確立することは、誤った計算や仮定が誤ってビジネスに利用されないようにするために重要です。

AIガバナンス・プログラムを作る

企業にとってのベスト・プラクティスは、組織とその業務全体を通じて、あらゆる形態のAIをカバーする強固なAIガバナンス・プログラムを確立することです。製造業やその他の規制業種の場合、AIガバナンス・プログラムには、従業員に対する許容可能なAI使用ポリシーや、一般的なリスクと業界特有のリスクの両方に対処し、最終的にAIを成功に導くその他の保護が含まれます。

参考記事:Using Generative AI in Manufacturing: Three Key Considerations - Frost Brown Todd | Full-Service Law Firm

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

追加記事

特許において、クレームの限定事項が明確に記述されているかどうかは、特許の有効性を左右する重要な要素です。今回、Maxell, Ltd.対Amperex Technology Limitedの判決は、特許クレームの解釈において、限定事項間の表面上の矛盾をどのように扱うべきかという問題を浮き彫りにしました。本文では、この重要な判決を深堀りし、一見矛盾すると思われる限定事項が、実際には特許の不明瞭性(Indefiniteness)を生じさせない理由について探求します。特に、連邦巡回控訴裁判所(CAFC)がどのようにこれらの限定事項を同時に満たすことが可能であると見做したか、その解釈の根拠と、特許クレームを起草する際の実務上の教訓に焦点を当てて考察します。
特許法における「組み合わせの動機」(Motivation to Combin)の概念は、発明が発明された時点でその分野の通常の技術者(PHOSITA)にとって自明であったかどうかを判断する上で不可欠な要素です。自明性の問題は、新しい発明が既知の技術要素の単純な組み合わせに過ぎないのか、それとも特許に値する独自の技術的進歩を表しているのかを区別するために重要です。このブログ記事では、特許請求の自明性を評価する際に中心となる「組み合わせの動機」の概念と最高裁判決であるKSR判例を解説し、Virtek Vision 対 Assembly Guidance Systemsの事件を例に、実際の訴訟におけるこの概念の適用方法について掘り下げます。
先月、米国特許商標庁(USPTO)が「Means-Plus-Function」に関するメモランダムを発行し、審査官に最新ガイダンスを提供しました。その内容は実務における大きな変更を意味するものではなく、既存の法的枠組みの下でより明確な指針を提供することを目的としています。しかし、このタイミングにおけるガイドラインの発行は、35U.S.C.112条(f)に基づく一風変わったクレームの形式であるMeans-Plus-FunctionがUSPTOにおける特許審査で注目されていることを示しており、改めてガイドラインに沿った適切なクレームドラフティングが求められることを意味します。