ビジネス

アルゴリズムを超えて:人工知能モデルはどのように訓練され、改良されるか

"データが鍵。ジェネレーティブAIの聖杯」-アメリカン・エキスプレスCTO、ヒラリー・パッカー。AIプロジェクトでは、データ収集が労力の80%を占める。DeepSeekはルールを変えた:推論コストはOpenAIに比べて1/30。ダリオ・アモデイ:コストは年4倍下がる。「コストがゼロになることを期待している」-IntuitのCDO。蒸留とRAGの組み合わせは、ほとんどの企業にとって魔法のようなものだ。将来は?企業データに根ざした、具体的で安価なモデルの大量投入。

人工知能モデルのトレーニング方法

人工知能モデルのトレーニングは、現代の技術開発における最も複雑な課題のひとつである。モデルの効果的なトレーニングには、単純なアルゴリズムの問題以上に、データ、データサイエンス、ドメイン知識、ソフトウェアエンジニアリングを統合した、体系的かつ学際的なアプローチが必要です。ジェームス・ルークがその代表的なテキスト「Beyond Algorithms: Delivering AI for Business」で指摘しているように、AI導入の成功は、アルゴリズムそのものよりも、データ管理とシステム設計に大きく依存する。DeepSeek-R1モデルのようなイノベーションがコストとアクセシビリティを再定義するなど、状況は急速に変化している。

基礎:データの収集と管理

量より質

よく信じられていることに反して、データの量が必ずしも成功の決め手とはならない。データの質と代表性の方がはるかに重要である。この文脈では、異なる情報源を統合することが極めて重要である:

  • 専有データ:倫理的に収集され、既存の実装によって匿名化されたデータ
  • 正規のデータ:厳格な品質基準を満たす信頼できるサプライヤーから入手。
  • オープンソースのデータセット:多様性と正確性を確保するために慎重に検証された。
  • 合成データ:ギャップを埋め、プライバシー問題を解決するために人工的に生成されたデータ

この統合により、倫理とプライバシーの基準を維持しながら、実世界のシナリオを捉えた包括的なトレーニングベースが構築される。

データ準備の課題

人工知能プロジェクトで必要とされる労力の最大80パーセントは、「データ整理」のプロセスで占められている。この段階には以下が含まれる:

  • データクリーニング:不整合、重複、異常値の除去
  • データの変換:処理に適した形式への変換
  • データ統合:しばしば互換性のないスキーマやフォーマットを使用する異なるソースの融合
  • 欠損データへの対応:統計的インピュテーションや代理データの使用などの戦略

アメリカン・エキスプレスのヒラリー・パッカーCTOは次のように指摘した。世界で最も優れたモデルを選択することはできますが、データこそが重要なのです。検証と精度が、生成AIにおける聖杯なのです」。

モデル・アーキテクチャ:適切なサイジング

モデル・アーキテクチャの選択は、個人的な傾向や好みではなく、解決すべき問題の具体的な性質によって導かれなければならない。問題の種類によって、必要なアプローチは異なる:

  • 深い言語理解を必要とするタスクのための変換器ベースの言語モデル
  • 画像およびパターン認識のための畳み込みニューラルネットワーク
  • エンティティ間の複雑な関係を分析するためのグラフィカル・ニューラル・ネットワーク
  • 最適化と決定問題のための強化学習
  • 複雑なユースケースに対応する、複数のアプローチを組み合わせたハイブリッド・アーキテクチャ

アーキテクチャの最適化には、性能と計算要件のバランスに焦点を当てた、異なる構成間の体系的な評価が必要であり、この側面は、DeepSeek-R1のような、大幅に低いコストで高度な推論機能を提供するモデルの出現によって、さらに関連性が高まっている。

高度なトレーニング方法

モデル蒸留

ディスティレーションは、現在のAIエコシステムにおいて特に強力なツールとして浮上している。このプロセスにより、DeepSeek-R1のような大規模で複雑なモデルの推論能力を継承した、より小規模で具体的なモデルを作成することが可能になる。

DeepSeekのケースに示されているように、同社はMetaのLlamaファミリーやAlibabaのQwenファミリーのオープンソースモデルを含む、いくつかの小さなモデルに推論能力を抽出した。これらの小さなモデルは、その後、特定のタスクに最適化することができ、高速で特殊化されたモデルへの傾向を加速させる。

機械学習開発者のサム・ウィッテヴィーンは、「私たちは、人々が複数のモデルを使う世界に入り始めている。一つのモデルだけを使い続けるのではないのです」。これには、ジェミニ・フラッシュやGPT-4oミニのような低価格のクローズドモデルも含まれる。

マルチタスク学習

マルチタスク学習は、関連するスキルのために別々のモデルを訓練する代わりに、モデルが異なる機能間で知識を共有することを可能にする:

  • モデルは同時に複数の関連する目的に対して最適化する
  • 基本的な機能は、さまざまなタスクに広く触れることで恩恵を受ける
  • すべてのタスクでパフォーマンスが向上。
  • コンポーネント共有による計算効率の向上

スーパーバイズド・ファインチューニング(SFT)

言語モデルの学習に一般的に使用されるウェブや書籍で広く情報が入手できない、非常に特殊な領域で事業を展開する企業にとって、教師ありファインチューニング(SFT)は効果的なオプションです。

DeepSeekは、「数千」の質問と回答のデータセットで良い結果を得ることが可能であることを実証した。例えば、IBMのエンジニアであるクリス・ヘイ氏は、自身の数学に特化したデータセットを使って小規模なモデルを設定し、同じタスクでOpenAIのo1モデルのパフォーマンスを上回る非常に高速な回答を得たことを紹介した。

強化学習(RL)

例えば、カスタマーサポートのチャットボットを共感的でありながら簡潔なものにするなど、特定の嗜好にさらに沿ったモデルを訓練したい企業は、強化学習(RL)技術を導入したいと考えるだろう。このアプローチは、チャットボットがユーザーからのフィードバックに基づいて口調や推奨事項を適応させたい場合に特に有効です。

リトリーバル・アグメンテッド・ジェネレーション(RAG)

ほとんどの企業にとって、RAG(Retrieval-Augmented Generation)は最もシンプルで安全な方法である。これは比較的簡単なプロセスで、組織はデータベースに含まれる独自のデータでモデルを固定することができ、出力が正確でドメイン固有であることを保証する。

このアプローチはまた、DeepSeekのようなモデルに関連する幻覚の問題の一部を打ち消すのにも役立つ。Vectaraが実施した調査によると、OpenAIのo3モデルは8%であるのに対し、DeepSeekは現在14%のケースで幻覚を見る。

モデル蒸留とRAGの組み合わせは、ほとんどの企業にとって魔法のようなもので、データサイエンスやプログラミングのスキルが低い人でも、驚くほど簡単に実装できるようになった。

評価と改良:正確さの指標を超えて

効果的なAIとは、生の精度だけで測られるものではなく、包括的な評価の枠組みが必要である:

  • 機能精度:モデルが正しい結果を出す頻度
  • 頑健性:様々な入力や条件下での性能の一貫性
  • 公平性:さまざまなユーザーグループやシナリオで一貫したパフォーマンス
  • キャリブレーション:信頼度スコアと実際の精度との整合性
  • 効率:計算およびメモリー要件
  • 説明可能性:意思決定プロセスの透明性、これはDeepSeekの蒸留モデルが得意とする側面であり、推論プロセスを示す。

コストカーブの影響

DeepSeekのリリースによる最も直接的な影響は、その積極的な値下げである。テクノロジー業界では、時間の経過とともにコストが低下していくことは予想されていたが、それがこれほど早く実現するとは誰も予想していなかった。DeepSeekは、強力でオープンなモデルが安価かつ効率的であることを実証し、広範な実験と費用対効果の高い実装の機会を創出した。

VectaraのCEOであるAmr Awadallah氏はこの点を強調し、真の転換点はトレーニングのコストだけでなく、推論のコストであると指摘した。DeepSeekの場合、トークン1つあたりの推論コストはOpenAIのo1またはo3モデルの約30分の1である。「OpenAI、Anthropic、Google Geminiが獲得できたマージンは、このような高価格では競争力を維持できないため、少なくとも90%削減しなければならないでしょう」とアワダラ氏は言う。

それだけでなく、これらのコストは減少し続ける。AnthropicのCEOであるDario Amodeiは最近、モデルの開発コストは毎年約4倍のペースで減少し続けていると述べた。その結果、LLMサプライヤーがLLMを使用するために請求する料金も下がり続けるだろう。

「TurboTaxやQuickbooksといった税務・会計ソフトでAIを強力に推進しているIntuitのCDO、Ashok Srivastava氏は、「私はコストがゼロになることを十分に期待している。「レイテンシはゼロになるでしょう。これらは単に、私たちが使える基本的な機能になるでしょう」。

結論:エンタープライズAIの未来は、オープン、安価、データ駆動型である

OpenAIのDeepSeekとDeep Researchは、AIの新しいツールである以上に、企業が極めてコスト効率が高く、有能で、企業独自のデータとアプローチに根ざした、目的に応じたモデルを大量に導入するという、重大な変化の兆しである。

企業にとって、メッセージは明確だ。強力なドメイン特化型AIアプリケーションを構築するツールは手元にある。これらのツールを活用しなければ、遅れをとる危険性がある。しかし、真の成功は、データをどのように管理し、RAGや蒸留などのテクニックを活用し、事前学習段階を超えたイノベーションを行うかによってもたらされる。

アメックスのパッカーが言うように、データを正しく管理する企業が、AIにおける次の革新の波をリードすることになるだろう。

ビジネス成長のためのリソース

2025年11月9日

人工知能革命:広告の根本的変革

71%の消費者がパーソナライゼーションを期待しているが、76%はパーソナライゼーションがうまくいかないと不満を感じている。DCO(ダイナミック・クリエイティブ最適化)は、何千ものクリエイティブ・バリエーションを自動的にテストすることで、CTR +35%、コンバージョン率 +50%、CAC -30%という検証可能な結果をもたらします。ファッション小売業の事例:マイクロセグメントごとに2,500の組み合わせ(50の画像×10の見出し×5のCTA)を配信=3ヶ月で+127%のROAS。しかし、壊滅的な構造的制約:コールドスタート問題には2~4週間+最適化のための数千インプレッションが必要、68%のマーケターはAIの入札決定を理解していない、クッキーの非推奨化(Safariはすでに、Chromeは2024~2025年)によりターゲティングの再考を余儀なくされる。ロードマップ6ヶ月:データ監査と特定のKPI(「売上を増やす」ではなく、「CACを25%減らす」セグメントX)で基礎を固め、試験的に10-20%の予算でAI対手動のA/Bテストを行い、クロスチャネルDCOで60-80%スケールする。プライバシーの緊張が重要:79%のユーザーがデータ収集に懸念、広告疲労-5回以上の露出で60%のエンゲージメント。Cookielessの未来:コンテクスチュアル・ターゲティング2.0リアルタイムのセマンティック分析、CDP経由のファーストパーティデータ、個別トラッキングなしのパーソナライゼーションのための連携学習。
2025年11月9日

中堅企業のAI革命:彼らが実践的イノベーションを推進する理由

フォーチュン500社の74%がAIの価値を生み出そうと苦闘しており、「成熟した」実装を行っているのはわずか1%である。一方、中堅市場(売上高1億~10億ユーロ)は具体的な成果を上げている。AIを導入した中小企業の91%が測定可能な売上高の増加を報告しており、平均ROIは3.7倍、トップ・パフォーマーは10.3倍である。リソースのパラドックス:大企業は「試験的完璧主義」(技術的には優れたプロジェクトだが、スケーリングはゼロ)に陥って12~18カ月を費やすが、中堅企業は特定の問題→目標とするソリューション→結果→スケーリングに従って3~6カ月で導入する。サラ・チェン(メリディアン・マニュファクチャリング 3億5,000万ドル):「各実装は2四半期以内に価値を実証しなければならなかった。米国国勢調査:78%が「採用」を表明しているにもかかわらず、製造業でAIを使用している企業はわずか5.4%。中堅市場は、完全な垂直ソリューション対カスタマイズするプラットフォーム、専門ベンダーとのパートナーシップ対大規模な自社開発を好む。主要セクター:フィンテック/ソフトウェア/銀行、製造業 昨年の新規プロジェクトは93%。一般的な予算は年間5万~50万ユーロで、特定のROIの高いソリューションに集中。普遍的な教訓:卓越した実行力はリソースの大きさに勝り、俊敏性は組織の複雑さに勝る。