こんにちは、中澤です。
デリケートな話題ですが、避けて通れないテーマを扱います。生成AIで "実在しない子ども" の性的画像が大量に作れるようになってしまった —— これが今、世界中で深刻な問題になっています。日本IGF 2025 国内事前会合でも重点テーマとして議論されました。
ニュースで見かけるけど仕組みがよくわからない、という方にもわかるように、技術・法律・国際比較の3つの角度 からまとめます。
会場の雰囲気(公式写真より)
CSAMって何?
CSAM(シーサム)は Child Sexual Abuse Material(児童性的虐待コンテンツ)の略。児童ポルノを国際的に指すときの正式な呼び方です。近年、世界ではこの呼称に統一されつつあります。
従来CSAMは 実在の被害児童を写した写真・動画 を指していました。それを作る・持つ・送ることは、ほぼ全世界で違法です。ところが——
生成AIが生む新しい問題
生成AI(画像生成AI)が誰でも使えるようになったことで、実在しない "架空の子ども" の性的画像 が技術的に簡単に作れてしまう状況が生まれました。これが近年爆発的な問題に。
- 被害児童が物理的には存在しないので、「被害者不在」と解釈される場合がある
- しかし実在の児童写真をモデルにして学習されていることも多く、間接的な被害 が発生
- 海外の違法サイトで生成AI画像が大量流通し、捜査が追いつかない
- 悪質な加害者が「これはAIで作ったから合法」と主張するケースも
技術の進歩が、法律の前提を根底から揺るがしているのです。
日本と国際基準の "ずれ"
日本IGF 2025で最も議論が白熱したのがここ。日本と国際基準にはCSAMの定義に差 があります。
- 国際的な潮流:被害児童が実在しなくても、外見上 "子ども" と認識できる性的表現はCSAMとみなす方向
- 日本の現行法:被害児童の実在が前提。実在しない生成AI画像は現行法でカバーしづらい
このズレは、日本が "CSAMが作り放題の国" と国際的に見られるリスク を抱えています。国外サイトで日本発のAI画像が流通するケースも指摘されており、国際協調の観点から日本の法整備が急がれる状況です。
日本IGFで出た主な意見
議論では、次の4つの立場が出ました。
- 厳格規制派 — 実在有無に関係なく、子どもに見える性的画像は禁止すべき
- 表現自由派 — 創作物・アニメ・マンガ文化との線引きを慎重にすべき
- 技術対応派 — AIモデル側でフィルタリング・検知技術を強化
- 国際協調派 — 日本の法律を国際基準に合わせる議論を急ぐ
多くの参加者が 「創作物と実在風AI画像は別物」として分けて考える必要 を指摘。単純な二項対立ではなく、技術の進化に合わせた精緻な議論が求められています。
技術で対応できること
規制の議論と並行して、技術的な対策も進んでいます。
- 入力プロンプトのフィルタ — 生成AIが不適切な指示を受け付けない
- 出力画像の検知 — CSAM的な画像を自動判定して削除
- 電子透かし — 生成AI画像に見えない印をつけて追跡可能に
- ハッシュマッチング — 既知のCSAMデータベースと照合
ただし、 技術だけでは完全な対策は不可能。法律・教育・プラットフォーム運営の協調が不可欠、というのがIGF議論の共通認識でした。
私たちにできること
「重い話すぎて自分には関係ない」と思う方へ。一般ユーザーにもできることがあります。
- 不審な画像を見かけたら インターネット・ホットラインセンター に通報
- 子ども本人・親・教員が SNSの年齢制限機能 を正しく使う
- 身近な人と "AIで何を作っていいか" について日常的に話す
- 法改正のパブリックコメントに意見を送る
被害を減らすには、社会全体の "空気づくり" が必要です。IGFの議論を知ることも、その一歩です。
まとめ
生成AI×CSAM問題は、技術の進歩が法律・倫理・国際協調の "追いつき" を求めている 典型例です。日本IGFは、こうした問題を国際的な議論に接続するための貴重な場。次の記事では、もうひとつの重要テーマ「違法オンラインカジノ対策」を紹介します。
関連リンク
- Japan IGF: https://japanigf.jp/
- インターネット・ホットラインセンター: https://www.internethotline.jp/
- JPNIC: https://www.nic.ad.jp/
- 参考:中澤祐樹ブログ https://nkzw.jp/category/igf/japanigf/
更新履歴
第1稿投稿 2026年4月22日 18時54分(記事コンテンツアップ)
— 中澤祐樹

