ビジネス

アルゴリズムを超えて:人工知能モデルはどのように訓練され、改良されるか

"データが鍵。ジェネレーティブAIの聖杯」-アメリカン・エキスプレスCTO、ヒラリー・パッカー。AIプロジェクトでは、データ収集が労力の80%を占める。DeepSeekはルールを変えた:推論コストはOpenAIに比べて1/30。ダリオ・アモデイ:コストは年4倍下がる。「コストがゼロになることを期待している」-IntuitのCDO。蒸留とRAGの組み合わせは、ほとんどの企業にとって魔法のようなものだ。将来は?企業データに根ざした、具体的で安価なモデルの大量投入。

人工知能モデルのトレーニング方法

人工知能モデルのトレーニングは、現代の技術開発における最も複雑な課題のひとつである。モデルの効果的なトレーニングには、単純なアルゴリズムの問題以上に、データ、データサイエンス、ドメイン知識、ソフトウェアエンジニアリングを統合した、体系的かつ学際的なアプローチが必要です。ジェームス・ルークがその代表的なテキスト「Beyond Algorithms: Delivering AI for Business」で指摘しているように、AI導入の成功は、アルゴリズムそのものよりも、データ管理とシステム設計に大きく依存する。DeepSeek-R1モデルのようなイノベーションがコストとアクセシビリティを再定義するなど、状況は急速に変化している。

基礎:データの収集と管理

量より質

よく信じられていることに反して、データの量が必ずしも成功の決め手とはならない。データの質と代表性の方がはるかに重要である。この文脈では、異なる情報源を統合することが極めて重要である:

  • 専有データ:倫理的に収集され、既存の実装によって匿名化されたデータ
  • 正規のデータ:厳格な品質基準を満たす信頼できるサプライヤーから入手。
  • オープンソースのデータセット:多様性と正確性を確保するために慎重に検証された。
  • 合成データ:ギャップを埋め、プライバシー問題を解決するために人工的に生成されたデータ

この統合により、倫理とプライバシーの基準を維持しながら、実世界のシナリオを捉えた包括的なトレーニングベースが構築される。

データ準備の課題

人工知能プロジェクトで必要とされる労力の最大80パーセントは、「データ整理」のプロセスで占められている。この段階には以下が含まれる:

  • データクリーニング:不整合、重複、異常値の除去
  • データの変換:処理に適した形式への変換
  • データ統合:しばしば互換性のないスキーマやフォーマットを使用する異なるソースの融合
  • 欠損データへの対応:統計的インピュテーションや代理データの使用などの戦略

アメリカン・エキスプレスのヒラリー・パッカーCTOは次のように指摘した。世界で最も優れたモデルを選択することはできますが、データこそが重要なのです。検証と精度が、生成AIにおける聖杯なのです」。

モデル・アーキテクチャ:適切なサイジング

モデル・アーキテクチャの選択は、個人的な傾向や好みではなく、解決すべき問題の具体的な性質によって導かれなければならない。問題の種類によって、必要なアプローチは異なる:

  • 深い言語理解を必要とするタスクのための変換器ベースの言語モデル
  • 画像およびパターン認識のための畳み込みニューラルネットワーク
  • エンティティ間の複雑な関係を分析するためのグラフィカル・ニューラル・ネットワーク
  • 最適化と決定問題のための強化学習
  • 複雑なユースケースに対応する、複数のアプローチを組み合わせたハイブリッド・アーキテクチャ

アーキテクチャの最適化には、性能と計算要件のバランスに焦点を当てた、異なる構成間の体系的な評価が必要であり、この側面は、DeepSeek-R1のような、大幅に低いコストで高度な推論機能を提供するモデルの出現によって、さらに関連性が高まっている。

高度なトレーニング方法

モデル蒸留

ディスティレーションは、現在のAIエコシステムにおいて特に強力なツールとして浮上している。このプロセスにより、DeepSeek-R1のような大規模で複雑なモデルの推論能力を継承した、より小規模で具体的なモデルを作成することが可能になる。

DeepSeekのケースに示されているように、同社はMetaのLlamaファミリーやAlibabaのQwenファミリーのオープンソースモデルを含む、いくつかの小さなモデルに推論能力を抽出した。これらの小さなモデルは、その後、特定のタスクに最適化することができ、高速で特殊化されたモデルへの傾向を加速させる。

機械学習開発者のサム・ウィッテヴィーンは、「私たちは、人々が複数のモデルを使う世界に入り始めている。一つのモデルだけを使い続けるのではないのです」。これには、ジェミニ・フラッシュやGPT-4oミニのような低価格のクローズドモデルも含まれる。

マルチタスク学習

マルチタスク学習は、関連するスキルのために別々のモデルを訓練する代わりに、モデルが異なる機能間で知識を共有することを可能にする:

  • モデルは同時に複数の関連する目的に対して最適化する
  • 基本的な機能は、さまざまなタスクに広く触れることで恩恵を受ける
  • すべてのタスクでパフォーマンスが向上。
  • コンポーネント共有による計算効率の向上

スーパーバイズド・ファインチューニング(SFT)

言語モデルの学習に一般的に使用されるウェブや書籍で広く情報が入手できない、非常に特殊な領域で事業を展開する企業にとって、教師ありファインチューニング(SFT)は効果的なオプションです。

DeepSeekは、「数千」の質問と回答のデータセットで良い結果を得ることが可能であることを実証した。例えば、IBMのエンジニアであるクリス・ヘイ氏は、自身の数学に特化したデータセットを使って小規模なモデルを設定し、同じタスクでOpenAIのo1モデルのパフォーマンスを上回る非常に高速な回答を得たことを紹介した。

強化学習(RL)

例えば、カスタマーサポートのチャットボットを共感的でありながら簡潔なものにするなど、特定の嗜好にさらに沿ったモデルを訓練したい企業は、強化学習(RL)技術を導入したいと考えるだろう。このアプローチは、チャットボットがユーザーからのフィードバックに基づいて口調や推奨事項を適応させたい場合に特に有効です。

リトリーバル・アグメンテッド・ジェネレーション(RAG)

ほとんどの企業にとって、RAG(Retrieval-Augmented Generation)は最もシンプルで安全な方法である。これは比較的簡単なプロセスで、組織はデータベースに含まれる独自のデータでモデルを固定することができ、出力が正確でドメイン固有であることを保証する。

このアプローチはまた、DeepSeekのようなモデルに関連する幻覚の問題の一部を打ち消すのにも役立つ。Vectaraが実施した調査によると、OpenAIのo3モデルは8%であるのに対し、DeepSeekは現在14%のケースで幻覚を見る。

モデル蒸留とRAGの組み合わせは、ほとんどの企業にとって魔法のようなもので、データサイエンスやプログラミングのスキルが低い人でも、驚くほど簡単に実装できるようになった。

評価と改良:正確さの指標を超えて

効果的なAIとは、生の精度だけで測られるものではなく、包括的な評価の枠組みが必要である:

  • 機能精度:モデルが正しい結果を出す頻度
  • 頑健性:様々な入力や条件下での性能の一貫性
  • 公平性:さまざまなユーザーグループやシナリオで一貫したパフォーマンス
  • キャリブレーション:信頼度スコアと実際の精度との整合性
  • 効率:計算およびメモリー要件
  • 説明可能性:意思決定プロセスの透明性、これはDeepSeekの蒸留モデルが得意とする側面であり、推論プロセスを示す。

コストカーブの影響

DeepSeekのリリースによる最も直接的な影響は、その積極的な値下げである。テクノロジー業界では、時間の経過とともにコストが低下していくことは予想されていたが、それがこれほど早く実現するとは誰も予想していなかった。DeepSeekは、強力でオープンなモデルが安価かつ効率的であることを実証し、広範な実験と費用対効果の高い実装の機会を創出した。

VectaraのCEOであるAmr Awadallah氏はこの点を強調し、真の転換点はトレーニングのコストだけでなく、推論のコストであると指摘した。DeepSeekの場合、トークン1つあたりの推論コストはOpenAIのo1またはo3モデルの約30分の1である。「OpenAI、Anthropic、Google Geminiが獲得できたマージンは、このような高価格では競争力を維持できないため、少なくとも90%削減しなければならないでしょう」とアワダラ氏は言う。

それだけでなく、これらのコストは減少し続ける。AnthropicのCEOであるDario Amodeiは最近、モデルの開発コストは毎年約4倍のペースで減少し続けていると述べた。その結果、LLMサプライヤーがLLMを使用するために請求する料金も下がり続けるだろう。

「TurboTaxやQuickbooksといった税務・会計ソフトでAIを強力に推進しているIntuitのCDO、Ashok Srivastava氏は、「私はコストがゼロになることを十分に期待している。「レイテンシはゼロになるでしょう。これらは単に、私たちが使える基本的な機能になるでしょう」。

結論:エンタープライズAIの未来は、オープン、安価、データ駆動型である

OpenAIのDeepSeekとDeep Researchは、AIの新しいツールである以上に、企業が極めてコスト効率が高く、有能で、企業独自のデータとアプローチに根ざした、目的に応じたモデルを大量に導入するという、重大な変化の兆しである。

企業にとって、メッセージは明確だ。強力なドメイン特化型AIアプリケーションを構築するツールは手元にある。これらのツールを活用しなければ、遅れをとる危険性がある。しかし、真の成功は、データをどのように管理し、RAGや蒸留などのテクニックを活用し、事前学習段階を超えたイノベーションを行うかによってもたらされる。

アメックスのパッカーが言うように、データを正しく管理する企業が、AIにおける次の革新の波をリードすることになるだろう。

ビジネス成長のためのリソース

2025年11月9日

消費者向けAI規制:2025年の新規制にどう備えるか

2025年、AIの「ワイルドウエスト」時代が終焉を迎える:EUのAI法は2024年8月から運用開始、AIリテラシーは2025年2月2日から、ガバナンスとGPAIは8月2日から義務付けられる。カリフォルニア州は、SB243(14歳のSewell Setzerがチャットボットと感情的な関係を築き自殺した後に生まれた)で、強制的な報酬システムの禁止、自殺念慮の検出、3時間ごとの「私は人間ではありません」というリマインダー、独立した公的監査、1違反につき1,000ドルの罰則を課している。SB420は、「リスクの高い自動化された決定」に対する影響評価を義務付け、人間によるレビューの上訴権を与える。実際の執行:Noomは2022年、ボットを人間のコーチと偽り、5,600万ドルで和解。全米の傾向:アラバマ、ハワイ、イリノイ、メイン、マサチューセッツがAIチャットボットへの通知義務をUDAP違反に分類。3段階のリスク・クリティカル・システム・アプローチ(ヘルスケア/運輸/エネルギー)展開前認証、消費者向け透明情報開示、汎用登録+セキュリティ・テスト。連邦政府の先取りがない規制のパッチワーク:複数の州にまたがる企業は、さまざまな要件に対応しなければならない。2026年8月からのEU: 明らかでない限り、AIとの相互作用をユーザーに通知し、AIが生成したコンテンツは機械可読と表示する。
2025年11月9日

創造されないものを規制する:欧州は技術的に無関連であるリスクを冒すのか?

欧州の人工知能への投資額は世界全体の10分の1に過ぎないが、世界的なルールを決めると主張している。これは「ブリュッセル効果」であり、イノベーションを促進することなく、市場力によって惑星規模のルールを押し付けることである。AI法は2027年まで時差をおいて施行されるが、多国籍ハイテク企業は創造的な回避戦略で対応している。学習データの公開を避けるために企業秘密を持ち出したり、技術的には準拠しているが理解不能な要約を作成したり、自己評価を使ってシステムを「高リスク」から「最小リスク」に格下げしたり、規制の緩い加盟国を選んでフォーラムショッピングをしたり。域外著作権のパラドックス:EUはOpenAIに対し、ヨーロッパ域外でのトレーニングであってもヨーロッパの法律を遵守するよう要求している。二重モデル」の出現:限定的なヨーロッパ版と、同じAI製品の高度なグローバル版。現実のリスク:欧州はグローバルなイノベーションから隔離された「デジタル要塞」となり、欧州市民は劣ったテクノロジーにアクセスすることになる。信用スコアリング事件の司法裁判所はすでに「営業秘密」の抗弁を否定しているが、解釈上の不確実性は依然として大きい。誰も知らない。EUは米国の資本主義と中国の国家統制の間に倫理的な第三の道を作っているのか、それとも単に官僚主義を競合しない分野に輸出しているだけなのか?今のところ:AI規制の世界的リーダーであり、その開発においては周縁である。大規模なプログラム。
2025年11月9日

Outliers:データサイエンスとサクセスストーリーの出会い

データサイエンスはこれまでのパラダイムを覆した。外れ値はもはや「排除すべきエラー」ではなく、「理解すべき貴重な情報」なのだ。外れ値1つで線形回帰モデルを完全に歪めることができる(傾きが2から10に変わる)。しかしそれを排除することは、データセットの最も重要なシグナルを失うことを意味する。機械学習は洗練されたツールを導入している:Isolation Forestはランダムな決定木を構築することで外れ値を分離し、Local Outlier Factorは局所的な密度を分析し、Autoencoderは正常なデータを再構築し、再現できないものを報告する。グローバルな外れ値(熱帯地方での気温-10℃)、文脈上の外れ値(貧困地区での1,000ユーロの出費)、集団的な外れ値(攻撃を示すトラフィックネットワークの同期スパイク)などがある。ポール・マッカートニーは、「多くのバンドがハンブルグで1万時間やったが成功しなかった。アジアの数学的成功は遺伝的なものではなく、文化的なものである:中国の数的システムはより直感的であり、稲作には絶え間ない改良が必要であるのに対し、西洋の農業は領土の拡大が必要である。実際の応用例:英国の銀行はリアルタイムの異常検知によって18%の潜在的損失を取り戻し、製造業は人間の検査では見逃してしまうような微細な欠陥を検知し、ヘルスケアは85%以上の異常検知感度で臨床試験データを検証する。最終的な教訓:データサイエンスが異常値を排除することから、異常値を理解することに移行するにつれて、我々は型破りなキャリアを修正すべき異常値としてではなく、研究すべき貴重な軌跡として捉える必要がある。