何が起きたのか
2026年3月25日、米国の陪審員がMetaとGoogleのYouTubeを「過失あり」と認定する画期的な評決を下した。ソーシャルメディアプラットフォームのアルゴリズム設計が10代の若者に依存症をもたらすとして提訴された裁判で、原告側の主張が認められた形だ。証拠として提出されたMetaの内部文書が、陪審員を原告側に傾けた決定打となったと報じられている。
裁判では、Metaのエンジニアやプロダクトチームが「エンゲージメント最大化」を設計の最優先目標に置いた結果、若年ユーザーの精神的健康が意図的に二の次にされていたことが明らかになった。無限スクロール設計、深夜にかけての通知頻度の意図的な増加、承認欲求を刺激するいいね数の表示——これらは偶然の産物ではなく、エンゲージメントを引き上げるための計算された設計選択であることが内部メッセージで証明された。
この評決で特筆すべきは、ソーシャルメディア依存症をめぐる集団訴訟が陪審員評決にまで至った初のケースであることだ。米国50以上の州が提訴している集団訴訟にとって、今回の評決は強力な先例となる。直前の3月24日にはニューメキシコ州がMetaに対し子ども安全問題で史上初の陪審員評決を獲得しており、同週に2件の陪審員敗訴が確定した。
Metaの株価は評決後に下落。同週はさらに「数百人規模のリストラ(Reality Labs含む)」報道も重なり、投資家心理を冷やした。
なぜ重要なのか
最大の意義は、Section 230(通信品位法230条)の免責壁を実質的に突き破った点だ。従来、プラットフォームはユーザーが投稿したコンテンツについて法的免責を享受してきた。しかし今回の評決は「コンテンツそのものではなく、コンテンツを推薦するアルゴリズムの設計過失」を問うものであり、Section 230の適用範囲を根底から揺るがす。
テクノロジー業界への連鎖効果は計り知れない。Meta以外にも、TikTok(ByteDance)・YouTube(Google)・Snapが同種の訴訟を抱えており、今回の評決は一気に形勢を変える可能性がある。仮にMeta敗訴が確定した場合の業界推計賠償額は数百億ドル規模とも言われ、エンゲージメント広告モデルの存続そのものが問われる。
AIアルゴリズムとの接点も見逃せない。現代のレコメンデーションシステムは機械学習によるエンゲージメント最適化が核にある。今後、「エンゲージメント最大化」と「ユーザー福祉」のトレードオフを設計段階で文書化し開示することが法的義務となる可能性が生まれた。これはAIアルゴリズムが人間の行動に意図的に影響を与える全サービスに波及する。
背景と文脈
Deep Signalでは先日、AnthropicがClaude利用禁止措置に対して仮処分命令を取得した事例を報じた。あの裁判はAI企業対政府機関という構図だったが、今回のMetaは異なる。「プラットフォーム対被害を受けたユーザー」という構図であり、企業の設計判断が直接的に個人に被害をもたらしたと認定された点で、AIガバナンス論議に新たな次元を加えた。
背景として、2021年のFacebook Papersがある。元従業員フランシス・ホーゲンが議会に提出したこの内部文書は、Metaがグローバルネットワーク上でのヘイトスピーチ拡散問題やInstagramの10代女性への精神的悪影響を把握しながら対策を後回しにしていたことを示していた。今回の評決はその延長線上にある。
AIの文脈では、2024年以降に急加速した「エンゲージメント型レコメンドAI」の社会的影響評価がこれから本格化することを意味する。YouTube ShortやTikTokのFYPが示すように、LLMが直接関与しなくとも機械学習アルゴリズムが人間の行動パターンを変容させる力は十分立証されている。
今後の展望
Metaは当然控訴するとみられるが、それとは別に議会での動きが加速するだろう。「Kids Online Safety Act(子どもオンライン安全法)」など、青少年保護法案の優先度が上がることは確実だ。Section 230改正の議論も再燃し、プラットフォームに対してアルゴリズムの透明性開示を義務付ける方向の立法が前進する可能性がある。
長期的には、ソーシャルメディアの設計哲学そのものの転換を迫る判例となりえる。無限スクロール、強制的なプッシュ通知、中毒性を高めるゲーミフィケーション要素——これらを「過失ある設計」として立証できる法的フレームワークが確立すれば、AIとテクノロジーの設計倫理が法的義務として組み込まれる時代が来る。
テック企業の法的リスクと規制圧力の連鎖
今回のMetaとGoogleへの陪審員評決は、孤立した出来事ではなく、テック企業が直面する多方向からの法的・規制的圧力の一断面だ。Deep Signalでは先日、SunoとUniversal Music Group・Sony Musicが著作権交渉で合意に至れず、AI音楽生成における「許諾なし学習」問題が業界全体に波及していることを報じた。どちらの事例も共通する構造を持つ——企業が「技術的に可能なこと」を「法的・倫理的に許されること」と無意識に等置した結果、被害を受けた当事者から司法の場で問い直されている。
政策・規制環境という観点では、ホワイトハウスのAIツァーだったデービッド・サックスの退任も重要な文脈を提供する。規制より促進を推進してきたサックス体制が終わり、後任次第でAI規制の方向性が変わる可能性がある中で、今回の陪審員評決は「規制なき自己規制」への不信任票として機能する。MetaとGoogleが受けた打撃は議会にとって格好の追い風となり、Section 230改正に再び焦点が当たるのも時間の問題だろう。
さらに広い視野で見ると、WikipediaがAI生成コンテンツを全面禁止した決定も同じ文脈に置かれる。あの決定は規制当局が動く前に、コンテンツ品質と信頼性を守るために組織が自衛策を講じた事例だ。今回のMeta訴訟が示す「アルゴリズム設計の過失」という法理は、プラットフォームが提供する体験の質と影響に対する説明責任の新しい軸を形成している。Metaの控訴が最終的にどう決着するかにかかわらず、テック企業がその設計判断を法廷で問われる時代が本格的に始まった。



