2025年9月、OpenAIは、世界のテックコミュニティを震撼させる発表を行いました。ChatGPTはユーザーの会話を積極的に監視し、犯罪の可能性のあるコンテンツを法執行機関に通報しているということです。
企業ブログの記事でほぼ偶然に明らかになったこのニュースによると、自動システムが「他者に危害を加えることを計画している」ユーザーを検知した場合、その会話は、利用規約について訓練を受けた少人数のチームが審査を行う専門のパイプラインに送られるという。 人間の審査員が「他者に深刻な身体的危害を加える差し迫った脅威」が存在すると判断した場合、その事案は法執行機関に通報される可能性がある¹。

ChatGPTは、あなたの心の内をぜひ共有してくださいと心からお願いしています。ご安心ください、すべては秘密厳守です…まあ、だいたいね。
情報源
心理学者、弁護士、医師、または司祭と話すとき、私たちの言葉は確立された法的メカニズム、すなわち職業上の秘密によって保護されています。何世紀にもわたる法的伝統に根ざしたこの原則は、刑事捜査の場合でも、特定の会話は不可侵であると定めています。
伝統的な職業上の秘密の特徴:
一般的な認識とは異なり、職業上の秘密は絶対的なものではありません。職業カテゴリーごとに明確に定義された例外が存在します:
弁護士(弁護士倫理規定第28条)について:開示は、以下の目的のために必要な場合に限り許可されます:
批判的な例:依頼人が弁護士に殺人を犯す意図を表明した場合、弁護権の保護と生命の保護のどちらが優先されるかといえば、後者が優先され、弁護士は守秘義務から解放される。
心理学者について(倫理規定第13条):以下の場合には守秘義務が破られることがある:
重要な区別:民間心理士は公的心理士よりも裁量権が大きく、公的心理士は公的職員としてより厳しい通報義務を負っている³。
情報源
ChatGPTはまったく異なるグレーゾーンで活動しています:
法的特権の欠如:AIとの会話は法的保護の対象外です。OpenAIのCEOであるサム・アルトマンも認めているように、「セラピストや弁護士、医師にそれらの問題について話した場合、法的特権が適用されます。 医師と患者の守秘義務、弁護士の守秘義務など、あらゆる守秘義務が適用されます。しかし、ChatGPT と話す場合、この問題はまだ解決されていません」²。
自動化されたプロセス:ケースバイケースで評価を行う人間の専門家とは異なり、ChatGPTはアルゴリズムを使用して「問題のある」コンテンツを特定し、初期スクリーニング段階から人間の専門家の判断を排除します。
情報源
この状況は憂慮すべきパラドックスを生み出しています。何百万人もの人々がChatGPTをデジタル上の相談相手として利用し、人間には決して打ち明けることのない内面の思い、疑問、恐怖、さらには犯罪的な妄想さえも共有しています。サム・アルトマンが報告しているように、「人々はChatGPTに自分の人生で最も個人的なことを話します。特に若い人たちは、ChatGPTをセラピストやライフコーチとして利用しているのです」⁴。
犯罪的自己検閲のリスク:会話が監視されている可能性があるという認識は、逆説的に:
批評家たちが指摘する重要な点は、最終決定権を持つ者の能力に関するものである。
人間の専門家は以下を備えています:
ChatGPTシステムは以下で動作します:
問題のある例:アルゴリズムは以下をどのように区別するのか:
情報源
情報源
OpenAIのこの発言は、これまでの立場と明らかに矛盾している。同社は、プライバシー保護を理由に、訴訟におけるユーザーデータの開示要求に断固として抵抗してきた。ニューヨーク・タイムズ紙に対する訴訟では、ユーザーのプライバシー保護のためにチャットログの開示に強く反対した⁴。
皮肉な状況:OpenAIは法廷でユーザーのプライバシーを擁護しながら、同時にデータを監視し外部当局と共有していることを認めている。
裁判所がOpenAIに対し、プライベートチャットやAPIデータを含むChatGPTのすべてのログを無期限に保存するよう命じたことで、状況はさらに複雑化しました。これは、ユーザーが一時的なものと考えていた会話が、現在では永久に保存されていることを意味します⁵。
情報源
サム・アルトマンが示唆したように、「AI特権」という概念、つまり従来の専門家と同様の法的保護を開発する必要があるかもしれません。しかし、これは複雑な疑問を投げかけます。
可能な規制オプション:
「区画化された」人工知能:
「三者」アプローチ:
他の分野からの教訓:
情報源
OpenAIの事例は、人工知能業界全体にとって重要な先例を確立しています:
会話型AIを開発する企業向け:
AIを利用する企業向け:
核心的なジレンマ:実際の犯罪の防止と、プライバシーおよびデジタル上の機密保持の権利とのバランスをどう取るか?
この問題は単なる技術的な問題ではなく、基本的な原則に関わるものです:
OpenAIの発表は人工知能の進化における分水嶺となる出来事ですが、問題は発表が絶対的に正しいか間違っているかではなく、それを効果的で公平かつ権利を尊重する形で実現する方法にあります。
必要性は現実的なものです:具体的な暴力の脅威、テロ計画、その他の重大な犯罪は、介入を必要とします。問題は、通報すべきかどうかではなく、責任を持って通報する方法です。
解決すべき根本的な相違点:
教育と能力:
透明性と管理:
比例性:
この分野の企業にとっての課題は、社会を効果的に保護しつつ、無差別な監視ツールとならないシステムを開発することです。ユーザーの信頼は不可欠ですが、社会的責任と両立させなければなりません。
ユーザーにとって、この教訓は二重である:
会話型AIの未来には、以下の要件を満たす新たなフレームワークが必要です:
適切な質問は、機械が犯罪を通報すべきかどうかではなく、機械が(少なくとも)人間の専門家と同じ知恵、訓練、責任感をもって通報を行うようにするにはどうすればよいかということです。
目標は、現実の危険に対して「盲目」なAIに戻るのではなく、技術的な効率性と倫理観、そして人間の能力を兼ね備えたシステムを構築することです。そうすることで初めて、安全と個人の権利の保護という、両方の世界の最良の部分を手に入れることができるのです。