Newsletter

クリエイティブ・フランケンシュタイン:AIと著作権の法廷闘争

2025年2月:最初の裁判所がAIトレーニングのフェアユースを明確に否定。トムソン・ロイターが勝訴するも、2カ月後には他の判事も逆の判断を下す。その後、ディズニーとユニバーサルがミッドジャーニーを年間3億ドルの「無断コピー機」として訴える。パラドックス:何十億もの画像によって広がる経済的損害をどう証明するのか?欧州は透明性の義務化で対応し、米国は数億ドル規模の訴訟で対応する。2025年は明瞭さをもたらさず、混沌を明らかにした。

📧 **Newsletter 更新記事**
*この記事はもともと週刊newsletter 掲載されたもので、その後、バーツ対アントロピック、カドリー対メタ、ディズニー対ミッドジャーニー、トムソン・ロイター対ロス・インテリジェンスといった画期的な判決を含む2025年の動向に合わせて更新されたものである**。

**最終更新:** [2025年7月]。

人工知能と著作権法の交錯は、現代の法的状況において最も複雑で急速に進化している分野のひとつとなっている。2025年は、AIが生成したコンテンツが著作権の観点からどのように扱われるかを再定義する初の実質的な判決により、歴史的な転換点となった。

2025年の歴史的判決:断片的な法学

破滅的な判例:トムソン・ロイター対ロス・インテリジェンス事件

2025年2月11日、ステファノス・ビバス判事がAIトレーニングにおけるフェアユースの擁護を断固として否定する初の判決を下し、AI法における分水嶺となった。

トムソン・ロイター・エンタープライズ・センターGmbH対ロス・インテリジェンス社事件において、裁判所は、AIシステムを訓練するために著作権で保護されたヘッドノートを使用することはフェアユースには当たらないとの判決を下した。

判決の核心は、ロス・インテリジェンス社がウェストローのヘッドノート(トムソン・ロイター社が独自に開発した法律概要)を使用して、競合する独自のAI検索エンジンを開発したことである。裁判所は、Ross社がWestlaw社の直接的な「市場代替品」を作成していたことを強調し、フェアユースには決定的な不利があるとした。

トムソン・ロイターの法的分析を一般市民が利用する権利はない。著作権は、優れた法的調査ツールのように、社会に役立つものを開発することを奨励するものである。

2025年6月の双子の判決:法的パラドックス

わずか2日違いの2025年6月、カリフォルニア州の2つの連邦裁判所が、AI業界を揺るがす一見矛盾する判決を下した。

バーツ対アンソロピック(2025年6月23日):ウィリアム・アルサップ判事は、クロードが合法的に購入した書籍のトレーニングはフェアユースにあたるとし、そのプロセスを「目を見張るような変革」と呼ぶ判決を下した。しかし同判事は、LibGenやPirate Library Mirrorなどの海賊版サイトから700万冊以上の書籍をダウンロードしたAnthropicを非難し、この違法な入手はフェアユースでは保護されないと裁定した。トレーニングはフェアユースとなりうるが、それは合法的に入手されたものに限られる。

Kadrey対Meta(2025年6月25日):Vince Chhabria判事は、LLaMAによる著者の書籍のトレーニングはフェアユースにあたるとの判決を下したが、Anthropicとは異なる理由であった。著者たち(サラ・シルバーマンやTa-Nehisi Coatesを含む)は、MetaのAIが市場において実際に彼らの作品に取って代わっていることや、具体的な経済的損害を与えていることを証明できなかった。チャブリア判事は判決の中で、アルサップ判事がAIの「変革的」性質を強調したことを暗に批判し、代わりに重要な要素は実際の経済的損害の証拠であるべきだと強調した。

ハリウッドが戦いに参戦:ディズニーとユニバーサル対ミッドジャーニー

2025年6月、AIと著作権の法廷闘争にハリウッドの大手企業も参戦した。ディズニーとユニバーサルがMidjourneyを提訴し、ハリウッドメジャーがAI企業を著作権侵害で提訴した初めてのケースとなった。

巨人の重さ:110ページに及ぶ訴訟では、Midjourney社がダース・ベイダー、ホーマー・シンプソン、シュレックといった象徴的なキャラクターを含む「無数の」著作物を盗んでソフトウェアを開発したと非難している。TIMEが報じたように、この訴訟の重要性はディズニーとユニバーサルの規模、影響力、資源にある。"アメリカ経済の柱であるこれらの企業が争いに参加すればするほど、ここでの単純な真実を無視することが難しくなる"。

仮想配布マシン」:訴訟では、Midjourneyをディズニーとユニバーサルの作品の「無限の無断コピーを生成する仮想配布マシン」と表現している。登録ユーザー数が2000万人を超え、2024年までに3億ドルの収益を上げるMidjourneyは、世界最大級のAI画像生成ツールである。

アンデルセン対安定性AI:進化は続く

サラ・アンダーセンが率いるアーティスト・グループは、ウィリアム・オリック判事がStability AIやMidjourneyといった企業に対する著作権侵害の告訴を認め、引き続き大きな勝利を収めた。アーティストたちは、これらの企業が同意も補償もなく、自分たちのアートワークのコピーをトレーニングデータセットの中に違法に保存していると主張していた。

根本的な矛盾:このケースは、生成AIの本質的なパラドックスを浮き彫りにしている。モデルは人間の創造性を模倣するように設計されているが、人間の作品を消費することでしかそれを実現できない。

アドビの倫理的アプローチライセンスとフェアユースの比較

他のテクノロジー大手が著作権侵害訴訟に直面するなか、アドビはFirefly AIで自らを「倫理的な」代替品と位置づけようとした。アドビは、主にアドビストックからライセンスされた画像やパブリックドメインのコンテンツで学習させた「商業的に安全なAI」というコンセプトのもと、マーケティング戦略と製品の差別化を図った

倫理の約束:アドビは、そのモデルがライセンスされたコンテンツにのみ学習されることを強調することで、MidjourneyやDALL-Eなどの競合他社からFireflyを差別化し、論争の的となるインターネットスクレイピングを回避した。また、クリエイターが作品に「Do Not Train」タグを追加できるよう、Content Credentialsなどの技術を導入した。

複雑な現実:しかし、2024年4月にブルームバーグが明らかにしたところによると、ファイアフライのトレーニングデータセットの約5%には、ミッドジャーニーを含む競合AIによって生成された画像が含まれていた。Adobe Stock内では、5,700万枚の画像がAIによって生成されたと明示されており、これはデータベース全体の14%に相当する。

アドビの弁明:アドビは、AIによって生成されたものを含め、アドビストックにあるすべての画像は、知的財産、ブランド、または認識可能なキャラクターが含まれていないことを確認するための「厳格なモデレーションプロセス」を経ていると回答した。同社は、このアプローチは、完全にライセンスされていないデータを使用する競合他社よりも倫理的であると主張している。

エンドユーザーにとっての利点: アドビのアプローチにより、法的リスクや著作権侵害にさらされることなく、ホタルが生成したコンテンツを使用することが可能になります。矛盾やグレーゾーンが生じる状況においても、アドビの透明性、コンテンツの節度、アーティストの権利の尊重に対するコミットメントは付加価値となる。

2025年の法学的分裂

2025年には、20世紀の法律を21世紀のテクノロジーに適用することの複雑さを反映し、法律学が深く分裂していることが明らかになった。

合法的取得のパラダイム:すべての判決は、研修資料の合法的取得と違法取得の区別という基本原則に同意している。その後の使用がフェアユースであっても、海賊版教材のダウンロードは依然として違法であり、別途責任を問われる可能性がある。

第4の要因の争い:今回の判決では、フェアユースの第4の要因(市場への影響)が新たな法的争点となった。トムソン・ロイター社が明確な市場代替性を立証して勝利したのに対し、バーツ事件とカドリー事件は具体的な経済的損害を立証できなかった。

probatio diabolicaの問題:手続き上のパラドックスが浮上:影響が広範囲に及び、定量化が困難な場合、著者はAIシステムによる市場損害をどのように証明できるのか?私たちは、保護が、しばしば直感的に明らかなことを数学的に証明する能力に依存するシステムの出現を目撃している。

デジタルの深淵に直面する俳優たち

AIの時代における著作権の危機は、パフォーマーのアイデンティティそのものが職業の中心である演技の世界に特に影響を及ぼす。似顔絵、声、演技スタイルをクローン化できる可能性は、「演技」という概念をユニークな創造的行為から複製可能なテンプレートへと急速に変容させている。

解釈の溶解:俳優をデジタルで再現できるようになったら、解釈の芸術はどうなるのか?スタジオはすでに、亡くなった俳優を「復活」させ、既存の解釈をデジタル操作する能力を実証している。重要なのは、これが技術的に可能かどうかではなく、演技を意味あるものにする本質を維持できるかどうかである。

映画『Here』の前例:トム・ハンクスとロビン・ライトの主役を完全デジタルで再現した映画『Here』は、許諾された使用のモデルである。この映画制作会社は、明示的な同意を得て、関係する俳優に権利を支払った。これは、必ずしも技術そのものが問題なのではなく、作品やイメージを使用されるアーティストの同意と報酬が問題であることを浮き彫りにしている。

デジタルレプリカに関するディズニーのアジェンダ:重要なことに、ディズニーは、声優や肖像画俳優を無許可のAIレプリカから保護するための連邦法案「NO FAKES Act」の支持者でもある。これは、無許可のデジタル複製から俳優を保護すると同時に、既存の知的財産の無許可使用と闘うという協調戦略を示している。

逆価値のパラドックスキャリアが確立された(したがってAIのトレーニングに十分な素材が利用できる)最も有名な俳優が、逆説的にアルゴリズムによる代替に最も弱いという奇妙な経済現象が出現した。彼らの成功は、伝統的な芸術的キャリアの価値曲線を逆転させ、無許可のクローンのターゲットになりやすい。

規制のカウンターバランスとしての欧州:AI法の動き

米国がフェアユースの迷路を進む一方で、欧州は2024年8月に施行され、現在積極的に実施されているAI法によって、根本的に異なるアプローチを選択した。

透明性革命の義務化AI法は、一般的なAIモデルの提供者に対し、著作権で保護された素材を含む、学習に使用されたデータの「十分に詳細な要約」を公開することを義務付けている。2025年1月、欧州委員会は、提供者が必要な要約を作成するのを支援するためのテンプレートを公表した

AI法の柱

  • 透明性:企業はトレーニングデータの出所を開示しなければならない。
  • 著作権の尊重:研修がどこで行われるかにかかわらず、EU著作権法を尊重する義務
  • オプトアウト:拒否を表明する権利者の意向の尊重

域外適用:AI法は、「著作権に関連する行為が行われた司法管轄区に関係なく」、AIモデルをEU市場に投入するすべてのベンダーに適用される。これは、米国のフェアユース法理と抵触する可能性がある。

米国著作権局の新レポート(2025年)

2025年1月、米国著作権局はAIに関する報告書のパート2を発表し、AIが生成した著作物の保護可能性について重要な明確化を行った。

確認された基本原則

  • 著作権で保護されるのは、人間の著作者によって決定された表現要素を持つ作品だけである。
  • プロンプトを提供するだけでは、著作権保護には不十分である。
  • AIによる創作支援は、自動的に保護可能性を妨げるものではない
  • 完全にAIが生成した作品は著作権で保護されない

独創性の神話再考:報告書は、現代の著作権法において「独創性」という概念がいかに人為的なものであるかを裏付けている。何千ものAIの出力から選択するアーティストと、何千ものアルゴリズムから選択するプログラマーを本当に区別するものは何だろうか?この法的な区別は、実際的というよりは観念的なものであるように思われるが、著作権の対象となるものを決定する上では依然として重要である。

国際的視点:グローバルな乖離

中国北京の裁判所は2023年11月、AIが生成した画像の著作権保護を認めた。これは、米国のより制限的なアプローチとは対照的である。

チェコ共和国:2024年、チェコの裁判所は、AIが作成した著作権に関する欧州初の判決を下し、プロンプトによって作成された画像の保護を拒否。

世界的な法制度の偽善:興味深いことに、欧米の法制度は、AIが生成した作品に権利を与えることを拒否する一方で、人間の作品が同じシステムによって「食い尽くされる」ことを認めている。私たちは二重基準を目の当たりにしているのだ。人間の作品は、創作されたときには神聖視されるが、AIに消費されたときには消耗品とされる。

フェアユース論争:新たなフロンティア

AI企業はますます「変革的利用」の議論に頼るようになっているが、2025年の判決はこの戦略の限界を示している。

変容の幻想:「変容的利用」という議論は、産業規模で適用される場合、便利な法的虚構であることが証明されつつある。実際のところ、AIは著作物を「変形」させるのではなく、消化し再利用するのである。トムソン・ロイターのケースで示されたように、商業的利用が明白で直接的である場合、裁判官はこの区別を理解し始めるが、保護された著作物から人間が学習することが許容され、人工的な学習が許容されない理由を明確に説明するのはまだ難しい。

新たな決定的要因

  1. トレーニング教材の合法的入手と違法入手
  2. 直接的な市場代替と新市場の創造
  3. 経済的損害の具体的証拠と理論的損害の比較

エンドユーザーと開発者の責任リスク

アンダーセン事件では、AIの出力が訓練データと酷似している場合、エンドユーザーが責任を負う可能性があるとされたが、2025年の判決はこの状況をさらに複雑にしている。

億枚もの画像を含むトレーニングデータセットの内容を、エンドユーザーがどうやって知ることができるのだろうか。私たちは、一貫性のない国境を越えた規制環境の中で、平均的なユーザーが予見も回避もできない違反に対して罰則を受けるリスクのあるシステムを作ろうとしている。

追伸 - フランケンシュタインのパラドックス 更新:メアリー・シェリーの作品を読んだことのない人にありがちな間違いだが、フランケンシュタイン博士の場合と同様に、私たちは増幅されたパラドックスに陥っている。2025年の判決は、企業が責任を問われる場合でも、それはしばしば最も悪質な側面(『Anthropic』の海賊版など)に対してのみであり、保護された素材を組織的に使用した場合ではないことを示している。文化的な表層性が、デジタル時代における責任の解釈にも反映されていることを、さらに証明するものである。

産業界への影響と今後の方向性

2025年のケースは、ライセンスされたトレーニングデータセットの需要を加速させた。大手メディア企業は現在、音楽業界のASCAP/BMIモデルを反映した収益分配契約を交渉している。

異質な結末の確認:逆説的だが、個々のクリエイターを保護するために起こされた訴訟は、複雑なライセンス契約を結ぶ余裕のある、構造化された大企業に有利になっている。2025年の判決では、具体的な経済的損害(多くの場合、個々のクリエイターの手には余るもの)を証明する能力が、法的成功に不可欠になっていることが示された。しかし、ディズニーとユニバーサルの参入は、力学を変化させる。これらの巨大企業は、長期の法廷闘争を維持するための資源と、メディアや政治的注目を集める影響力の両方を持っている。

拡大するライセンス市場:トムソン・ロイター、ゲッティイメージズ、その他の大手コンテンツホルダーは現在、自社のアーカイブをトレーニングデータとして積極的に収益化しており、小規模な独立系クリエイターを排除しかねない新たな市場を形成している。ディズニーとユニバーサルの参入はこの傾向を加速させる可能性が高く、映画業界は法的な明確性が得られれば、「ライセンスされたコンテンツに基づいて構築されたAIモデルの利用を効果的に加速させる」可能性が高い

アドビの教訓:アドビのケースは、最も倫理的に見えるアプローチにも欠陥があり得ることを示している。しかし、これはAIの革新とクリエイターの権利の尊重の間でバランスを取ろうとする真の試みである。アドビが述べているように、「私たちの目標は、クリエイターがその才能を収益化できるようなジェネレーティブAIを構築すること」であり、この原則は、多くの競合他社の「先に奪って、後から聞く」アプローチとは対照的である。

アドビ対競合他社モデル:AnthropicやMetaのような企業が海賊版コンテンツの使用について法廷で抗弁する一方で、Adobeは少なくともライセンスの枠組みを作ろうとしている。不完全ではあるが、このアプローチは、クリエイターに対する透明性と補償を要求する将来の規制のモデルとして役立つだろう。

結論:2025年以降の不確実性をナビゲートする

ポスト2025年における人間の創造性の未来現在の法廷闘争は、単に知的財産権に関するものではなく、AI時代における人間の創造性の意味そのものに関するものである。2025年判決は、人間と人工的な創造性の間のますます人工的な区別を維持しようとしているが、このアプローチの実際的な限界も明らかにしている。

新常態としての断片化:2025年法制定時には、明確性の代わりに、根本的に異なるアプローチを反映した法理学的判断の寄せ集めが生み出された。いくつかの原則(違法コピーの違法性、市場に与える影響の重要性)については収斂しているが、基本的な問題については大きく異なっている。

真の新たな問題2025年の判決は、もはやAIが著作権を侵害するかどうかではなく、指数関数的に進化する技術を管理するために、各国の法制度が首尾一貫した枠組みを迅速に開発できるかどうかが問題であることを示している。ヨーロッパのAI法とアメリカの法学は、世界のAI市場を分断しかねない、互換性のない基準を作りつつある。ロビー活動力と政治的影響力を持つディズニーの参入は、米国の連邦法をより明確にするきっかけになるかもしれない。

ディズニーの教訓:ある業界専門家は、ディズニーとユニバーサルのケースについて次のように述べている。これは補償に関するものだ。この区別は極めて重要である。イノベーションを止めることではなく、クリエイターがその仕事に対して補償されることを保証することなのだ。

対照的なモデル:2025年は、根本的に異なる3つのアプローチを強調した。一方では、高価値の知的財産を保護するために裁判所を利用するディズニー、(不完全ではあるが)倫理的なエコシステムを構築しようとするアドビ、他方では、データへのアクセスを制限するよりも訴訟を起こすリスクを好む企業、そして最後には、AI法によって強制的な透明性を課すヨーロッパ。この対比が、おそらくAI規制の将来を決定づけるだろう。

21世紀のテクノロジーに20世紀の法律を適用しようとするとき、私たちは、もはやそれが守ると主張する利益を守らないばかりか、既存のカテゴリーに容易に当てはまらない創造的な表現の新しい形態の出現を積極的に妨げるシステムを擁護していることに気づくかもしれない。2025年は、人間と人工的な創造性の共存への道が、当初想定されたよりもはるかに複雑で矛盾したものになることを示している。

注:この更新記事は、最初の実質的判決や欧州AI法の施行など、2025年のAI-著作権分野における重要な進展を反映している。係争中の事件に関する最新情報は AI著作権に関する包括的判例トラッカーをご覧ください。法的状況は急速に進化し続けており、規制や判例の動向を常に監視する必要があります。

その他のリソース

ビジネス成長のためのリソース

2025年11月9日

消費者向けAI規制:2025年の新規制にどう備えるか

2025年、AIの「ワイルドウエスト」時代が終焉を迎える:EUのAI法は2024年8月から運用開始、AIリテラシーは2025年2月2日から、ガバナンスとGPAIは8月2日から義務付けられる。カリフォルニア州は、SB243(14歳のSewell Setzerがチャットボットと感情的な関係を築き自殺した後に生まれた)で、強制的な報酬システムの禁止、自殺念慮の検出、3時間ごとの「私は人間ではありません」というリマインダー、独立した公的監査、1違反につき1,000ドルの罰則を課している。SB420は、「リスクの高い自動化された決定」に対する影響評価を義務付け、人間によるレビューの上訴権を与える。実際の執行:Noomは2022年、ボットを人間のコーチと偽り、5,600万ドルで和解。全米の傾向:アラバマ、ハワイ、イリノイ、メイン、マサチューセッツがAIチャットボットへの通知義務をUDAP違反に分類。3段階のリスク・クリティカル・システム・アプローチ(ヘルスケア/運輸/エネルギー)展開前認証、消費者向け透明情報開示、汎用登録+セキュリティ・テスト。連邦政府の先取りがない規制のパッチワーク:複数の州にまたがる企業は、さまざまな要件に対応しなければならない。2026年8月からのEU: 明らかでない限り、AIとの相互作用をユーザーに通知し、AIが生成したコンテンツは機械可読と表示する。
2025年11月9日

創造されないものを規制する:欧州は技術的に無関連であるリスクを冒すのか?

欧州の人工知能への投資額は世界全体の10分の1に過ぎないが、世界的なルールを決めると主張している。これは「ブリュッセル効果」であり、イノベーションを促進することなく、市場力によって惑星規模のルールを押し付けることである。AI法は2027年まで時差をおいて施行されるが、多国籍ハイテク企業は創造的な回避戦略で対応している。学習データの公開を避けるために企業秘密を持ち出したり、技術的には準拠しているが理解不能な要約を作成したり、自己評価を使ってシステムを「高リスク」から「最小リスク」に格下げしたり、規制の緩い加盟国を選んでフォーラムショッピングをしたり。域外著作権のパラドックス:EUはOpenAIに対し、ヨーロッパ域外でのトレーニングであってもヨーロッパの法律を遵守するよう要求している。二重モデル」の出現:限定的なヨーロッパ版と、同じAI製品の高度なグローバル版。現実のリスク:欧州はグローバルなイノベーションから隔離された「デジタル要塞」となり、欧州市民は劣ったテクノロジーにアクセスすることになる。信用スコアリング事件の司法裁判所はすでに「営業秘密」の抗弁を否定しているが、解釈上の不確実性は依然として大きい。誰も知らない。EUは米国の資本主義と中国の国家統制の間に倫理的な第三の道を作っているのか、それとも単に官僚主義を競合しない分野に輸出しているだけなのか?今のところ:AI規制の世界的リーダーであり、その開発においては周縁である。大規模なプログラム。
2025年11月9日

Outliers:データサイエンスとサクセスストーリーの出会い

データサイエンスはこれまでのパラダイムを覆した。外れ値はもはや「排除すべきエラー」ではなく、「理解すべき貴重な情報」なのだ。外れ値1つで線形回帰モデルを完全に歪めることができる(傾きが2から10に変わる)。しかしそれを排除することは、データセットの最も重要なシグナルを失うことを意味する。機械学習は洗練されたツールを導入している:Isolation Forestはランダムな決定木を構築することで外れ値を分離し、Local Outlier Factorは局所的な密度を分析し、Autoencoderは正常なデータを再構築し、再現できないものを報告する。グローバルな外れ値(熱帯地方での気温-10℃)、文脈上の外れ値(貧困地区での1,000ユーロの出費)、集団的な外れ値(攻撃を示すトラフィックネットワークの同期スパイク)などがある。ポール・マッカートニーは、「多くのバンドがハンブルグで1万時間やったが成功しなかった。アジアの数学的成功は遺伝的なものではなく、文化的なものである:中国の数的システムはより直感的であり、稲作には絶え間ない改良が必要であるのに対し、西洋の農業は領土の拡大が必要である。実際の応用例:英国の銀行はリアルタイムの異常検知によって18%の潜在的損失を取り戻し、製造業は人間の検査では見逃してしまうような微細な欠陥を検知し、ヘルスケアは85%以上の異常検知感度で臨床試験データを検証する。最終的な教訓:データサイエンスが異常値を排除することから、異常値を理解することに移行するにつれて、我々は型破りなキャリアを修正すべき異常値としてではなく、研究すべき貴重な軌跡として捉える必要がある。