principledrive

information

コラム

コラム:「透明性」の目的化と「コンプライ・オア・エクスプレイン」のジレンマ

 ――手段が目的化する危うさとソフトローの構造的限界

 2026年1月26日まで、内閣府において「AIプリンシプル・コード(仮称)」のパブリックコメントが募集されている 。このコードは、急速に普及する生成AIに対し、法律による画一的な規制(ハードロー)ではなく、民間の自主的な取り組み(ソフトロー)によって規律を図ろうとするものだ。その柱となるのが「透明性の確保」であり、運用手法として採用されたのが「コンプライ・オア・エクスプレイン(Comply or Explain)」である。
 しかし、筆者らの著書『答えのないリーガル的分野の歩き方』での考察を補助線に読み解くと、この枠組みには二つの重大な懸念が見え隠れする。一つは「透明性が確保されれば、本質的な問題は解決するのか」という根本的な疑問。もう一つは、日本社会特有の土壌において、この「コンプライ・オア・エクスプレイン」という枠組み自体が、企業を身動きの取れない板挟み(ジレンマ)に追い込む悪夢である。

 AIプリンシプル・コード(仮称)が求めるもの
 議論の前提として、今回政府が提示したルールの骨子を整理しておこう。対象となるのは、文章や画像などを生成するAIの開発者やサービス提供者である。彼らに対し、主に以下の対応が求められている。

 1. 学習データの透明性確保:どのようなデータを学習に使ったか(Web公開データか、購入データか等)の概要を公表すること。
 2. オプトアウトの尊重:権利者が「学習禁止(Do Not Train)」の意思表示(robots.txt等)をしている場合、それを尊重する措置をとること。
 3. 侵害時の協力:権利侵害の疑いがある場合、ログの提供などで協力すること。

 最大の特徴は、これらが絶対の義務ではない点だ。技術的・実務的に実施(Comply)できない場合は、その理由を説明(Explain)すればよい、という柔軟な設計になっている。

 「透明性」は解決策ではなく、ただの「アリバイ作り」になりかねない
 まず、今回のコードが最重要視している「透明性」について考えてみたい。政府案は、情報の非対称性を解消するために「学習データの概要」を開示させることを主眼に置いている。一見すると適切な措置に見えるが、ここで立ち止まって考える必要がある。「透明性」はあくまで手段であり、それ自体が目的ではないはずだ。
 クリエイターや権利者が真に懸念しているのは、「自分の作品が無断で利用され、類似した生成物によって市場が奪われること」や「正当な対価が還元されないこと」である。仮に事業者が「あなたのデータを学習に使いました」と透明性高く公表したとしても、それによって生じた経済的な不利益や権利侵害の事実が消えるわけではない。むしろ、透明性の確保が「公表したのだから文句はないだろう」という一種の免罪符(アリバイ作り)として機能してしまう恐れすらある。透明性は、問題の所在を明らかにするための第一歩にはなり得るが、それだけで権利調整や利益分配といった本質的な課題が解決されるわけではない。この点を看過したまま、お題目のように「透明性」と唱えて形式的な対応をしても意味がないのである。

 「遵守」と「説明」の板挟み
 さらに、「透明性」を担保するための手段として採用された「コンプライ・オア・エクスプレイン」も、日本企業にとっては出口のない迷路になりかねない。そもそもこの概念は、英国のコーポレートガバナンス・コードに由来するもので、例外を選択する際には、なぜその代替手段が妥当なのかを明確かつ注意深く説明することが求められる。政府は今回のパブコメ資料で、「契約上の守秘義務があるため名称を開示できない」といった説明の記載例を示している。
 しかし、AI開発の現場では、形式的な理由だけでは説明しきれない課題が多い。例えば、「膨大なWebデータから個別のオプトアウトを完全に排除することは、技術的・経済的に困難である」といった事情だ。欧米的な文脈では「合理的な説明」として受け入れられるかもしれないが、今の日本社会ではどうだろうか。著書でも指摘した通り、不確実性を異常に嫌う日本の市場や社会においては、こうした説明が「開き直り」や「コンプライアンス軽視」と受け取られ、炎上するリスクが常につきまとう。説明する力も説明を聞く力も十分に育っていないこの国で、形だけ欧米の真似事をしてもうまくいかないのではないか。
 そして、「遵守(Comply)」と「説明(Explain)」のどちらの選択肢も選べない状況に追い込まれたとき、真面目な日本企業が取る行動は、「開発そのものの見合わせ」という沈黙である。答えのない分野では本来、例外を認め、理由を説明して進むしかないはずだが、そのルートが機能不全に陥れば、イノベーションそのものが止まってしまう。

 小手先の修正ではなく本質的な議論を
 今回のパブリックコメントで問うべきは、単なる記載例の追加や微修正ではない。
 第一に、「透明性の確保」が問題解決のゴールではなくスタート地点に過ぎないことを認識し、その先にある権利保護の実質的な議論を避けないことである。EUが良し悪しはともかくとして価値判断の議論をしたように、日本社会にとって何が最も重要かという価値基準を明確にする過程が不可欠である。
 第二に、不確実性を恐れる日本企業が安心して「説明」を選択できるよう、どのような説明であれば社会的・法的な責任を果たしたとみなされるのか、予見可能性のある合意形成(セーフハーバーの明確化)を行うことだ。
 手段としての「透明性」や「説明」を目的化してはならない。形式的なルール整備に終始せず、AIと日本社会が共存するための価値判断という本質的な議論が求められている。