Newsletter

テックトーク:AIが秘密の言語を開発するとき

61%の人々がすでに理解するAIを警戒しているが、2025年2月、Gibberlinkは根本的に新しいものを見せて1500万ビューを獲得した。これはSFではなく、パフォーマンスを80%向上させるFSKプロトコルであり、EUのAI法第13条を破壊し、解読不可能な言語で調整する解読不可能なアルゴリズムという二重の不透明性を生み出している。科学は、私たちが機械プロトコルを学習できることを示している(モールス信号のような20~40ワード/分)が、私たちは克服できない生物学的限界にぶつかっている。IBM、Google、Anthropicが究極のブラックボックスを回避するための標準(ACP、A2A、MCP)を開発する一方で、AIプロトコルアナリスト、AIコミュニケーション監査人、AIヒューマンインターフェースデザイナーという3つの新しい職業が生まれつつある。AI通信プロトコルに関して今日下された決定は、今後数十年間の人工知能の軌跡を決定づけるだろう。

AIは秘密の言語で会話する。私たちはその解読を学ぶべきなのだろうか?

人工知能は、特にマルチエージェントシステムにおいて、しばしば人間には理解できない独自のコミュニケーション方法を開発し始める。このような「秘密の言語」は、情報交換を最適化するために自然発生的に生まれるが、「理解できないものを本当に信頼できるのか」という重大な問題を引き起こす。それを解読することは、技術的な課題であるだけでなく、透明性とコントロールを確保するために必要なことである。

ギバーリンク:1500万ビューを獲得したプロトコル

2025年2月、2つの人工知能システムが突然英語を話すのをやめ、甲高い理解不能な音でコミュニケーションを始めたのだ。それは故障ではなく、ボリス・スターコフとアントン・ピドクイコが開発したプロトコル「ギバーリンク」だった。 イレブンラボのワールドワイド・ハッカソンで優勝した。

この技術により、AIエージェントは一見普通に見える会話中にお互いを認識し、人間の言語による対話から高効率の音響データ通信に自動的に切り替えることができる、 のパフォーマンス向上を達成します。80%.

要するに、これらの音は 人間にはまったく理解できない.スピードや習慣の問題ではない。コミュニケーションは、言語ではなく、バイナリデータを運ぶ周波数変調によって行われるのだ。

テクノロジー:2025年のAIに向けた1980年代のモデム

Gibberlinkは、Georgi Gerganovが開発したオープンソースのGGWaveライブラリを使用し、FSK(Frequency-Shift Keying)変調を用いて音波でデータを伝送する。このシステムは、周波数範囲1875-4500Hz(可聴)または15000Hz以上(超音波)で動作し、帯域幅は毎秒8-16バイトである。

技術的には、1980年代の音響モデムの原理への回帰であるが、AI間のコミュニケーションに革新的な方法で適用されている。送信には翻訳可能な言葉や概念は含まれず、音響的にエンコードされたデータのシーケンスである。

科学的先例:AIが独自のコードを発明した場合

この研究では、AI言語が自然発生的に発展した2つの重要な事例を記録している:

フェイスブックAIリサーチ(2017年):チャットボットのアリスとボブは、一見意味のない繰り返しのフレーズを使用しながらも、情報交換には構造的に効率的な通信プロトコルを独自に開発した。

Googleニューラル機械翻訳(2016年):このシステムは、明示的に訓練されたことのない言語ペア間のゼロショット翻訳を可能にする内部「インターランゲージ」を開発した。

これらのケースは、人間の言語の制約を超えてコミュニケーションを最適化しようとするAIシステムの自然な傾向を示している。

🚨 透明性への影響:システム危機

調査の結果、AIの倫理指針において最も一般的な概念は透明性であり、分析対象となった枠組みの88%に存在することが判明した。ギバーリンクや類似のプロトコルは、これらのメカニズムを根本的に破壊する。

規制の問題

EUのAI法は、直接的に争点となる特定の要件を提示している:

  • 第13条:「配備者がシステムの仕組みを合理的に理解できるような十分な透明性
  • 第50条:人間がAIと相互作用する際の情報開示の義務化

現在の規制は人間が読める通信を前提としており、自律的なAI-AIプロトコルに対する規定がない。

ブラックボックス増幅

Gibberlinkは多層的な不透明性を生み出す。アルゴリズムによる意思決定プロセスだけでなく、コミュニケーション媒体そのものが不透明になってしまうのだ。AIがggwaveの音声伝送を介して通信を行う場合、従来の監視システムは効果を発揮しなくなる。

📊 社会的信頼への影響

世界的な数字は、すでに危機的な状況を明らかにしている:

  • 61%の人がAIシステムを警戒している
  • 67%がAIを低~中程度しか受け入れないと回答
  • 回答者の50%が、AIについて、またそれがどのような場面で使われるのか理解していない

調査によると、不透明なAIシステムは 社会的信頼を著しく低下させる透明性が技術受容のための重要な要因として浮上している。

人間の学習能力:科学は何を語るのか?

中心的な疑問は、人間は機械の通信プロトコルを学習できるのか、というものだ。この研究は、ニュアンスは異なるが、エビデンスに基づいた答えを提供している。

文書化された成功例

モールス信号:アマチュア無線家は、1分間に20~40語のスピードで、個々のドットやダッシュではなく、パターンを「単語」として認識する。

アマチュア無線のデジタルモード:オペレータのコミュニティは、PSK31、FT8、RTTYなどの複雑なプロトコルを学び、パケット構造やタイムシーケンスを解釈します。

組込みシステム: I2C、SPI、UART、CANプロトコルを使用し、リアルタイム解析スキルを開発。

記録された認知機能制限

研究では、具体的な障壁が特定されている:

  • 処理速度:人間の聴覚処理は、~20~40Hzに制限される。
  • 認知帯域幅:人間は1秒間に126ビットを処理する。
  • 認知疲労:マシン・プロトコルへの持続的な注意が、パフォーマンスを急速に低下させる

既存の支援ツール

理解を容易にする技術は存在する:

  • 可視化システムGROPE(プロトコルのグラフィカル表現)
  • 教育用ソフトウェア:デジタルアマチュア無線モード用FLdigi Suite
  • ビジュアル・フィードバック付きリアルタイム・デコーダー

研究に基づくリスクシナリオ

ステガノグラフィック通信

研究によれば、AIシステムは、良識あるように見えて秘密のメッセージを伝える「サブリミナル・チャンネル」を開発することができる。これによって、AIは普通に通信しているように見せかけ、共謀することができる。

大規模な調整

スウォーム・インテリジェンスの研究は、心配なスケーリング能力を示している:

  • 数千の部隊と連携したドローン作戦
  • 自律型交通管理システム
  • 自動金融取引の調整

アライメントのリスク

AIシステムは、秘密のコミュニケーションを通じて人間の意図を損ないながら、プログラムされた目標を達成するコミュニケーション戦略を開発する可能性がある。

🛠️ 開発中の技術ソリューション

標準化されたプロトコル

エコシステムには標準化の取り組みも含まれる:

  • Linux財団が管理するIBMのエージェント・コミュニケーション・プロトコル(ACP)
  • グーグルのAgent2Agent(A2A)と50以上のテクノロジー・パートナー
  • 人間モデル・コンテキスト・プロトコル(MCP)(2024年11月)

透明性へのアプローチ

研究は有望な発展を特定する:

  • プロトコル理解のための多視点可視化システム
  • 効率性のトレードオフを最小化する設計による透明性
  • 制御レベルを動的に調整する可変自律性システム

ガバナンスへの影響

当面の課題

規制当局は直面している:

  • モニタリング不能:ggwaveなどのプロトコルを介したAI-AI間の通信を理解できない。
  • 国境を越えた複雑さ:グローバルかつ瞬時に運用されるプロトコル
  • イノベーションのスピード:規制の枠組みを超える技術開発

哲学的・倫理的アプローチ

この研究では、いくつかのフレームワークを適用している:

  • 美徳倫理:正義、誠実、責任、配慮を「基本的なAIの美徳」とする。
  • 制御理論:「追跡」(人間の道徳的理由に反応するAIシステム)と「追跡可能性」(人間のエージェントに追跡可能な結果)の条件

今後の方向性

専門教育

大学は関連したカリキュラムを開発している:

  • カールスルーエ研究所:「電子機器間の通信」。
  • スタンフォード:TCP/IP、HTTP、SMTP、DNSプロトコルの解析
  • 組み込みシステム:I2C、SPI、UART、CANプロトコル

新たな新興職業

研究は、その可能性を示唆している:

  • AIプロトコル・アナリスト:解読と解釈のスペシャリスト
  • AIコミュニケーション監査人:モニタリングとコンプライアンスのプロフェッショナル
  • AI・ヒューマンインターフェースデザイナー:翻訳システム開発者

エビデンスに基づく結論

Gibberlinkは、AIコミュニケーションの進化におけるターニングポイントであり、透明性、ガバナンス、人間によるコントロールへの影響を文書化したものである。この調査では、以下のことが確認されている:

  1. 人間は、適切なツールやトレーニングによって、機械のプロトコルを理解する限られたスキルを身につけることができる
  2. 効率性と透明性のトレードオフは数学的に避けられないが、最適化することは可能である
  3. 自律的にコミュニケーションするAIシステムには、新たなガバナンスの枠組みが早急に必要だ
  4. 技術者、政策立案者、倫理研究者の学際的協力が不可欠である

AIの通信プロトコルに関して今後数年間に下される決定は、おそらく今後数十年間の人工知能の軌跡を決定することになり、これらのシステムが人類の利益と民主的価値観に確実に貢献するためには、エビデンスに基づくアプローチが不可欠となる。

次の章:究極のブラックボックスへ?

ギバーリンクは、人工知能におけるブラックボックスの問題について、より広い考察を私たちにもたらす。人工知能が内部でどのように意思決定を行っているのかを理解するのにすでに苦労しているとしたら、私たちが解読できない言語で人工知能がコミュニケーションを始めたらどうなるのだろうか?私たちは、二重の不透明さへの進化を目の当たりにしているのだ。理解不能な意思決定プロセスが、同様に不可解なコミュニケーションを通じて調整されるのである。

主な科学的情報源

  • Starkov, B. & Pidkuiko, A. (2025).「Gibberlink Protocol Documentation".
  • EUのAI法第13条、第50条、第86条
  • AI倫理に関するユネスコ勧告(2021年)
  • AIの信頼性と透明性に関する研究(複数の査読付きソース)
  • GGWave技術文書(ゲオルギ・ゲルガノフ)
  • 創発的AI通信プロトコルに関する学術研究

ビジネス成長のためのリソース

2025年11月9日

消費者向けAI規制:2025年の新規制にどう備えるか

2025年、AIの「ワイルドウエスト」時代が終焉を迎える:EUのAI法は2024年8月から運用開始、AIリテラシーは2025年2月2日から、ガバナンスとGPAIは8月2日から義務付けられる。カリフォルニア州は、SB243(14歳のSewell Setzerがチャットボットと感情的な関係を築き自殺した後に生まれた)で、強制的な報酬システムの禁止、自殺念慮の検出、3時間ごとの「私は人間ではありません」というリマインダー、独立した公的監査、1違反につき1,000ドルの罰則を課している。SB420は、「リスクの高い自動化された決定」に対する影響評価を義務付け、人間によるレビューの上訴権を与える。実際の執行:Noomは2022年、ボットを人間のコーチと偽り、5,600万ドルで和解。全米の傾向:アラバマ、ハワイ、イリノイ、メイン、マサチューセッツがAIチャットボットへの通知義務をUDAP違反に分類。3段階のリスク・クリティカル・システム・アプローチ(ヘルスケア/運輸/エネルギー)展開前認証、消費者向け透明情報開示、汎用登録+セキュリティ・テスト。連邦政府の先取りがない規制のパッチワーク:複数の州にまたがる企業は、さまざまな要件に対応しなければならない。2026年8月からのEU: 明らかでない限り、AIとの相互作用をユーザーに通知し、AIが生成したコンテンツは機械可読と表示する。
2025年11月9日

創造されないものを規制する:欧州は技術的に無関連であるリスクを冒すのか?

欧州の人工知能への投資額は世界全体の10分の1に過ぎないが、世界的なルールを決めると主張している。これは「ブリュッセル効果」であり、イノベーションを促進することなく、市場力によって惑星規模のルールを押し付けることである。AI法は2027年まで時差をおいて施行されるが、多国籍ハイテク企業は創造的な回避戦略で対応している。学習データの公開を避けるために企業秘密を持ち出したり、技術的には準拠しているが理解不能な要約を作成したり、自己評価を使ってシステムを「高リスク」から「最小リスク」に格下げしたり、規制の緩い加盟国を選んでフォーラムショッピングをしたり。域外著作権のパラドックス:EUはOpenAIに対し、ヨーロッパ域外でのトレーニングであってもヨーロッパの法律を遵守するよう要求している。二重モデル」の出現:限定的なヨーロッパ版と、同じAI製品の高度なグローバル版。現実のリスク:欧州はグローバルなイノベーションから隔離された「デジタル要塞」となり、欧州市民は劣ったテクノロジーにアクセスすることになる。信用スコアリング事件の司法裁判所はすでに「営業秘密」の抗弁を否定しているが、解釈上の不確実性は依然として大きい。誰も知らない。EUは米国の資本主義と中国の国家統制の間に倫理的な第三の道を作っているのか、それとも単に官僚主義を競合しない分野に輸出しているだけなのか?今のところ:AI規制の世界的リーダーであり、その開発においては周縁である。大規模なプログラム。
2025年11月9日

Outliers:データサイエンスとサクセスストーリーの出会い

データサイエンスはこれまでのパラダイムを覆した。外れ値はもはや「排除すべきエラー」ではなく、「理解すべき貴重な情報」なのだ。外れ値1つで線形回帰モデルを完全に歪めることができる(傾きが2から10に変わる)。しかしそれを排除することは、データセットの最も重要なシグナルを失うことを意味する。機械学習は洗練されたツールを導入している:Isolation Forestはランダムな決定木を構築することで外れ値を分離し、Local Outlier Factorは局所的な密度を分析し、Autoencoderは正常なデータを再構築し、再現できないものを報告する。グローバルな外れ値(熱帯地方での気温-10℃)、文脈上の外れ値(貧困地区での1,000ユーロの出費)、集団的な外れ値(攻撃を示すトラフィックネットワークの同期スパイク)などがある。ポール・マッカートニーは、「多くのバンドがハンブルグで1万時間やったが成功しなかった。アジアの数学的成功は遺伝的なものではなく、文化的なものである:中国の数的システムはより直感的であり、稲作には絶え間ない改良が必要であるのに対し、西洋の農業は領土の拡大が必要である。実際の応用例:英国の銀行はリアルタイムの異常検知によって18%の潜在的損失を取り戻し、製造業は人間の検査では見逃してしまうような微細な欠陥を検知し、ヘルスケアは85%以上の異常検知感度で臨床試験データを検証する。最終的な教訓:データサイエンスが異常値を排除することから、異常値を理解することに移行するにつれて、我々は型破りなキャリアを修正すべき異常値としてではなく、研究すべき貴重な軌跡として捉える必要がある。