

欧州連合(EU)は、人工知能に関する世界初の包括的な法律であるAI法の発効により、歴史的な一歩を踏み出した。欧州をAIガバナンスの最前線に押し上げるこの画期的な法律は、イノベーションと基本的権利の保護のバランスを目指すリスクベースの規制枠組みを確立するものである。しかし、この規制は、いわゆる"ブリュッセル効果「EUは必ずしも技術革新を促進することなく、市場の力によって世界規模でルールを押し付ける傾向にある。
米国と中国が大規模な公共投資と民間投資(2024年の世界投資のそれぞれ45%と30%)を行ってAIの開発をリードしているのに対し、欧州はAIへの世界投資の10%しか集めていない。これに対してEUは、規制によって技術的な遅れを補おうとし、結局はグローバルなエコシステム全体に影響を及ぼす基準を課している。
中心的な疑問は、欧州は責任あるイノベーションを促進する環境を作っているのか、それとも単に官僚主義を輸出しているだけなのか、ということである。 官僚主義欧州は責任あるイノベーションを促進する環境を作っているのだろうか?
AI法は、欧州企業だけでなく、欧州市場で事業を展開する企業や、そのAIシステムがEU市民に影響を与える企業にも適用される。この域外管轄権は、GPAIモデルに関する規定で特に顕著であり、同法の説明106では、供給者は「モデルのトレーニングが行われる司法管轄権に関係なく」EUの著作権を尊重しなければならないとしている。
このアプローチは、一部のオブザーバーから強く批判されており、EUが自国の領土に拠点を置いていない企業に自国のルールを押し付けようとしていると見られている。批評家によれば、これはグローバルな技術エコシステムに亀裂を生む可能性があり、企業は欧州市場向けに別バージョンの製品を開発するか、追加的なコンプライアンス・コストを避けるためにすべての市場で欧州規格を採用せざるを得なくなるという。
したがって、多国籍テクノロジー企業は難しい立場に立たされている。欧州市場を無視することは実行可能な選択肢ではないが、AI法に準拠するには多額の投資が必要であり、イノベーションの余地が制限される可能性がある。この影響は、野心的な実施スケジュールと多くの条項の解釈上の不確実性によってさらに増幅される。
AI法は2024年8月1日に施行されたが、その施行は時差のあるスケジュールで行われる:
規制はリスクベースのアプローチを採用し、AIシステムを「許容できないリスク(禁止)」「高リスク(厳格な要求事項の対象)」「限定的リスク(透明性の義務あり)」「最小または無リスク(自由使用)」の4つのカテゴリーに分類している。この分類によって、開発者、サプライヤー、ユーザーの具体的な義務が決定される。
AI法の最も重要な革新のひとつは、「ブラックボックス」の性質に対処することを目的とした透明性義務に関するものである。ブラックボックス「AIシステムのこれらの義務には以下が含まれる:
これらの要件は、市民の権利を守るために設けられたものではあるが、企業、特に革新的な新興企業や中小企業に大きな負担を強いる可能性がある。開発プロセス、トレーニングデータ、意思決定ロジックを詳細に文書化する必要があるため、技術革新のサイクルが遅くなり、開発コストが増大する可能性があり、欧州企業は規制の緩やかな他地域の競合他社に比べて不利な立場に置かれることになる。

Case C-203/22の判決は、企業が当初どのように透明性義務化に抵抗していたかを浮き彫りにしている。電気通信事業者である被告は、自社の信用スコアリング・アルゴリズムのロジックを明らかにすることは企業秘密を暴露することになり、競争上の優位性を危うくすると主張した。6.CJEUはこの主張を退け、GDPR第22条は、たとえ簡略化されたものであっても、自動化された意思決定の背後にある「基準と論理」についての説明を受ける権利を個人に与えるとしている。6.
AI法の2段階制によれば、ほとんどの生成AIモデルは第1段階に該当し、EUの著作権の遵守と学習データの要約が求められる。2.著作権侵害の主張を避けるため、OpenAIなどの企業は要約データやライセンス供与されたコンテンツに切り替えているが、文書化のギャップは依然として残っている。
AI法には、EUの規制的影響力を国境をはるかに越えて拡大する、特定の著作権規定が含まれている。GPAIモデル・プロバイダーは以下のことをしなければならない:
AI法の説明106は、供給者は「モデルトレーニングが行われる司法管轄区に関係なく」EU著作権法を尊重しなければならないと述べている。この域外適用的なアプローチは、著作権法の領域性の原則との適合性に疑問を投げかけ、他の法域との規制上の軋轢を生む可能性がある。
グローバルなテクノロジー企業にとって、AI法は、「ブリュッセル効果」に適応して欧州基準をグローバルに遵守するのか、それとも異なる市場向けに差別化されたアプローチを開発するのか、という基本的な戦略選択を突きつけている。いくつかの戦略が浮上している:
大手テクノロジー企業の中には、「二重経営モデル」を展開しているところもある:
このアプローチは、コストはかかるものの、グローバルな技術革新を損なうことなく、欧州市場での存在感を維持することを可能にする。しかし、このような細分化は、欧州のユーザーが他地域のユーザーよりも先進的でない技術を利用することになり、技術格差の拡大につながる可能性がある。
欧州AI法はAI規制の転換点となるものだが、その複雑さと解釈の曖昧さは、この分野での技術革新や投資に悪影響を及ぼしかねない不透明な状況を生み出している。企業はいくつかの課題に直面している:
規制情勢の変化は、企業にとって重大なリスクとなる。十分に詳細な要約」や「高リスク」システムの分類といった重要な概念の解釈は、あいまいなままである。この不確実性は、以下のような結果を招く可能性がある:

ブリュッセル効果」をめぐる議論は、欧州の技術主権という広い文脈の中で展開されている。EUは、域内のイノベーションを促進する必要性と、主に非欧州の主体によって開発された技術を規制する必要性とのバランスを取らなければならないという難しい立場にある。
2024年には、欧州企業のAIへの投資額は世界全体のわずか10%にとどまり、米国と中国が巨額の公共投資と民間投資、イノベーションに優しい政策、ビッグデータへのアクセスの組み合わせでこの分野を席巻している。言語的、文化的、規制的に分断されている欧州は、グローバルに競争できるテクノロジーの「チャンピオン」を生み出すのに苦労している。
批判派は、欧州の規制重視のアプローチはイノベーションをさらに阻害し、投資を抑止する危険性があると主張する。一方、支持派は、信頼できる規制の枠組みの構築は、倫理的で安全な「バイ・デザイン」AIの開発を実際に刺激し、長期的な競争優位性を生み出すことができると考えている。
AI法の「ブリュッセル効果」は、テクノロジーに対する欧州のアプローチにおける根本的な緊張を浮き彫りにしている。この非対称性は、このアプローチの長期的な持続可能性に疑問を投げかけている。
欧州が自国が開発しない技術を規制し続ければ、欧州はますます技術依存の立場に陥り、急速に進化するグローバルなエコシステムにおいて、欧州のルールが意味をなさなくなる危険性がある。さらに、欧州以外の企業は、欧州市場から徐々に撤退するか、欧州で限定的なバージョンの製品を提供するようになり、世界の進歩からますます孤立した「デジタル要塞欧州」が形成される可能性がある。
一方、EUが規制的アプローチとイノベーションを促進する効果的な戦略とのバランスをとることができれば、技術開発の中心に人権と民主的価値を置き、アメリカの資本主義と中国の国家統制の間の「第三の道」を効果的に定義することができるだろう。バステ・プログラムは フランスでこう言うだろう。
欧州におけるAIの将来は、基本的権利の保護におけるAI法の有効性だけでなく、技術革新への適切な投資と規制を伴うものとし、規制の枠組みを簡素化して抑圧的でないものとする欧州の能力にかかっている。そうでなければ、欧州はAI規制の世界的リーダーでありながら、その開発と実施においては周縁的という逆説的な状況に陥る危険性がある。