top of page

生成AIに関する法的問題

  • tokuhata
  • 2023年10月24日
  • 読了時間: 5分

ゴッホ風エキノプシス属の花;Image Creator (DALL-E3)により生成




 生成AI(Generative Artificial Intelligence)は、テキスト生成から画像合成に至るまで、さまざまな応用が可能な強力なテクノロジーとして登場しました。しかし、その急速な発展により、慎重な検討を要する多くの法的問題やリスクが浮上しています。以下では、学習データ、出力結果、関連する訴訟事例に焦点を当てながら、生成型AIに関連する主要な法的課題について整理したいと思います。


I. 学習データに関する法的問題とリスク

学習データは個人情報や所有権が絡む情報を含んでいるため厳密に考えると以下に示すような複雑な問題を含んでいます。


データのプライバシーと同意:

生成AIにおける最も顕著な法的問題の一つは、モデルのトレーニングに使用されるデータに関するものです。AIモデルが大規模なデータセットで学習される場合、個人情報や機密情報が含まれることがあるからです。このようなデータの使用は、データのプライバシーに関する問題を引き起こす可能性があります。企業や組織は、学習データに含まれる情報に関して個人から適切な同意を得ていることを確認しなければなりません。


データの所有権と権利:

もうひとつの課題は、データの所有権と権利に関するものです。生成AIモデルのトレーニングに使用されるデータの所有者を決定することは、厄介で複雑な問題です。場合によっては、データが複数のソースから提供され、知的財産権をめぐる紛争に発展することもありえます。


バイアスと差別:

生成AIモデルは、学習データに存在するバイアスを受け継ぐ可能性があります。これは、AIが生成したコンテンツに差別的な結果をもたらす可能性があることを意味します。AIが生成したコンテンツが、人種、性別、宗教などの要因に基づいて個人やグループを差別した場合、法的な課題が生じます。このような差別的な出力は、これらのモデルを導入している組織に訴訟や風評被害をもたらす可能性があります。


知的財産の侵害:

生成AIモデルのトレーニングには、既存のコンテンツをベースとして使用することが含まれます。そのため、知的財産権に関する懸念が生じます。生成AIモデルが、著作権で保護された素材に酷似した、あるいは直接コピーしたコンテンツを作成した場合、知的財産権侵害の可能性があります。


ディープフェイク

生成AI技術をディープフェイクに適用すると、個人のリアルな動画や音声を生成することができます。こうしたディープフェイクが関係する個人の同意なしに生成された場合、プライバシー侵害や風評被害につながる可能性があります。同意とディープフェイクの作成に関連する法律は、法域によって異なるため、複雑な法的問題となります。



II. 出力結果に関する法的問題とリスク

名誉毀損:

AIが生成したテキストや画像などのコンテンツは、個人、組織、または製品を誹謗・中傷する可能性があります。生成AIモデルが、誰かの評判を傷つけるような虚偽の情報や有害な情報を生成した場合、名誉毀損につながる可能性があります。責任を証明することは困難ですがリスクであることに変わりはありません。


著作権侵害:

生成AIモデルの出力は、時として著作権で保護された素材に似ていることがあり、著作権侵害の申し立てにつながることがあります。AIが生成したコンテンツがフェアユースにあたるのか、それとも直接的な侵害にあたるのかを判断するのは複雑な問題です。


誤報と責任:

生成AIは、誤った情報や虚偽のコンテンツを生成する可能性があります。そのようなコンテンツが拡散し、被害をもたらした場合、AIモデルの導入に責任を負う当事者の責任が問われる可能性があります。このようなリスクを軽減するために、組織はセーフガードや免責事項を導入することが不可欠となります。


製造物責任:

生成AIが製品設計や製造に使用されている場合、AIが生成した設計や仕様の欠陥が製造物責任の請求につながる可能性があります。AIが生成した設計の結果、製品の不具合や人身事故が発生した場合、製造者が責任を問われる可能性があります。




III. 訴訟事例

生成AIに関する注目すべき訴訟事例として画像生成AIの例を紹介します:


訴訟は2023年1月13日付です。

原告:Sarah Andersen(漫画家); Karla Ortiz(コンセプト・デザイナー); Kelly McKernan(画家・イラストレーター)

被告:Stability AI Ltd. and Stability AI, Inc. ; Midjourney, Inc. ; and DeviantArt, Inc.

原告側によれば、これらの画像生成AIは世界中のアーティストが描いた数十億枚もの各種画像をウェブ上から収集し、これを機械学習のデータとして無断で使用している。著作物に関する排他的権利を定めた法律を侵害し、デジタルミレニアム著作権法や不正競争防止法違反だと主張している。問題は、インターネット上の無数の画像を作者に無断で盗用したことだ、としています。


訴訟対象になった3社は、Stability AIが開発したStable Diffusion上にAI画像ジェネレーターを構築しています。このモデルは、「diffusion」と呼ばれる手法によって、学習用画像のコピーから新たな画像を生成し出力できるよう訓練されたものです。訴状では、「このモデルの主な目的は、訓練に使われた画像に忠実な画像を出力すること。つまり、複製や派生作品であることを意味している」と原告は指摘しています。そして、学習用画像に使われたアーティストによるオリジナル画像のコピーが、派生作品の作成に利用されていると主張しています。


この訴訟は2023年10月25日時点で係属中ですが専門家がいくつか問題点を指摘しています。まず著作権法の保護対象は作風ではなく特定の画像だけだという点。コラージュは「批評、コメント、報道、教育(教室での使用、学術、研究のためのコピーを含む)、および変容的な創作といった目的のための」著作権法の例外である「フェアユース(公正使用)」で保護されます。AIで生成された画像が本当に著作物のフェアユースに当たるかどうかは、裁判官や陪審員の判断に委ねられます。


まとめ:

生成AIは、学習データと出力結果に関連する多数の法的問題とリスクをもたらします。これらの問題には、データのプライバシー、所有権、バイアス、知的財産権、同意、名誉毀損、著作権侵害、誤報、責任などが含まれます。AI技術が進歩し続ける中、組織や個人は、法律相談や関連規制の遵守を求めながら、これらの法的課題を慎重に乗り越えることが不可欠です。進化する生成AIの法的状況は、新たな問題に対処し、関係者に明確性を提供するために、法的枠組みの継続的な適応と開発を必要としています。



参考サイト:





 
 
 

Comments


Commenting on this post isn't available anymore. Contact the site owner for more info.
bottom of page