「スマホ無規制世代」が生む新たなリスク
──SNSと脳、そして若年犯罪の構造(全4回)第1回
第2回 第3回 第4回
世界で広がる「子どものSNS規制」
近年、子どものスマートフォンやSNS利用をめぐる政策は、世界的に大きな転換点を迎えている。
多くの国で、子どもの精神的健康や依存の問題を理由に、スマートフォンやソーシャルメディアの利用を法的に制限する動きが急速に広がっている。
世界ではいま、「児童のSNS利用は規制すべきか」という問題が、酒やタバコと同じように公共政策のテーマとして扱われ始めている。
規制の広がり
各国の規制は細部こそ異なるが、基本的な枠組みは共通している。
多くの場合、Facebook、Instagram、TikTokなどのソーシャルメディア・プラットフォームに対して
- 一定年齢未満の利用を禁止する
- 親の同意を義務づける
- 年齢確認を企業に義務づける
といった制度が導入されている。
企業が年齢確認を怠った場合には、罰金などの行政制裁を科す仕組みが採用されることも多い。
こうした規制の背景には主に次の3つの懸念がある。
- SNS依存や過度なスクリーンタイム
- 不安・うつ・睡眠障害など精神的健康への影響
- サイバーブリング(ネット上のいじめ)や有害コンテンツへの接触
以下では、主な国の政策を見ていく。
各国での規制の現状
オーストラリア
オーストラリアは2024年11月、16歳未満のソーシャルメディア利用を全国レベルで制限する法律を可決した。これは、子どものSNS利用を法的に規制する制度としては世界で初めての全国的措置であり、国際的に大きな注目を集めた。
この法律は、児童のSNS利用を国家レベルで制限する先例となり、各国で規制を検討する動きを後押しする契機となった。現在、EU諸国やアジア諸国(インドネシア、マレーシアなど)で進む子どものSNS規制の議論において、先行モデルの一つとして参照されている。
制限内容:
- 16歳未満の子供が対象の「ソーシャルメディアプラットフォーム(age-restricted social media platforms)」でアカウントを作成・保持することを禁止(全国規模)。新アカウント作成不可、既存アカウントは無効化・削除対象。
- 対象プラットフォーム:Facebook, Instagram, Snapchat, Threads, TikTok, X (旧Twitter), YouTube, Reddit, Kick, Twitchなど(主にユーザー間交流を可能にするもの)。WhatsApp、YouTube Kids、Robloxなどは除外(ただし、将来的に追加可能)。
- プラットフォーム企業には、利用者の年齢を確認するために「合理的な措置(reasonable steps)」を講じる義務が課されている。具体的には、顔認証、公式ID(運転免許証など)、クレジットカード確認、第三者年齢検証サービスなどの複数方法を組み合わせた方法が用いられる。親の同意は無効(16歳未満は完全に禁止)。
- 「禁止(ban)」ではなく「アカウント保有の遅延(delay to having accounts)」と表現されるが、実質的な禁止。
- 違反プラットフォームには最大4,950万豪ドルの罰金。子供や親への罰則はない。
- 法的根拠:Online Safety Amendment (Social Media Minimum Age) Act 2024(2024年11月可決)。これはOnline Safety Act 2021の改正したもので、監督機関として、eSafety Commissionerがプラットフォームの遵守を監視・評価する。2026年現在、4,000人以上の子供・家族を追跡する2年超の長期評価研究を実施中。
- 施行日:2025年12月10日から効果発揮。施行後、プラットフォームは数百万件のアカウントを無効化(例: 施行直後で470万件以上、Snapchatだけでも41.5万件以上)。
規制導入の背景:
オーストラリアでは、早くから、子どものSNS利用が精神的健康に与える影響が大きな社会問題として議論されてきた。政府のオンライン安全規制機関であるeSafety Commissionerの調査によれば、10〜15歳の子どもの約7割がオンライン上で有害なコンテンツに接触した経験があると報告されている。そこには、暴力的動画、女性蔑視的な投稿、摂食障害や自傷行為を助長する内容などが含まれる。
また、UNICEFオーストラリアの調査でも、10代の約3分の2が暴力的コンテンツを視聴した経験があることが報告されており、子どもがSNS上で有害情報に接触する機会が非常に多いことが示されている。
専門機関や若者支援団体は、ソーシャルメディアの設計そのものにも問題があると指摘している。無限スクロールやアルゴリズムによる推薦などの仕組みは、子どもを長時間画面に引きつけ、過度なスクリーンタイムを生み出しやすい。その結果、不安や抑うつ、自尊感情の低下といった精神的健康への悪影響が生じる可能性が指摘されている。
さらに、SNSの普及とともに、サイバーブリング(ネット上のいじめ)、性的接触や性的グルーミング(性搾取)、詐欺被害などのリスクも問題視されている。実際、オーストラリアの調査では、子どもの相当数がオンライン上でいじめや不適切な接触を経験していることが報告されている。
こうした懸念を背景に、オーストラリア政府も子どものSNS利用に対する規制の必要性を強く意識するようになっている。
アンソニー・アルバニージ首相は、子どものソーシャルメディア利用について「子どもが発達的に十分な準備が整い、必要なスキルや回復力を身につけるまでアクセスを遅らせることが重要だ」と述べ、子どもの健康と福祉を最優先に考える姿勢を示している。
また、eSafety Commissionerのトップであるジュリー・インマン・グラント(Julie Inman Grant)も、子どもがオンライン環境で直面するリスクの深刻さを指摘し、「子どもの安全を最優先に監視と対策を進める」と強調している。
こうした政府と規制当局の姿勢は、SNSをめぐる問題を単なる家庭内の教育の問題ではなく、公共政策として取り組むべき課題と位置づける流れを象徴している。
今後の課題:
オーストラリアの措置は、全国規模の包括的制度となったが、その実効性を支える鍵となるのが、年齢確認技術の多層的な導入と違反企業に対する強い罰則である。プラットフォーム企業には利用者の年齢確認を行う義務が課され、違反した場合には高額の罰金などの制裁が科される仕組みが想定されている。
もっとも、この制度には課題も残されている。例えば、VPNを利用した規制回避の可能性や、年齢確認のために身分証明書の提出を求めることによるプライバシーへの懸念などが指摘されている。
そのため、規制の実効性と個人情報保護をどのように両立させるかが、今後の重要な論点となっている。
フランス
フランスは2026年1月、SNSへのアクセス規制に関する法案を可決した。フランス政府は、この制度を欧州における先駆的な児童保護政策として位置づけている。
この政策は、マクロン大統領の主導のもとで進められている。大統領は「子どもの脳は売り物ではない」と強調し、この規制を科学者や国民の多数が支持する措置であると説明。また、ソーシャルメディアのアルゴリズムが子どもの注意や行動を収益化し、結果として不安、うつ、自尊心の低下、集中力の低下などの精神的健康問題を深刻化させているとの認識を示している。
制限内容:
- 15歳未満の子供がソーシャルメディアプラットフォームを利用することを禁止(全国規模)。新アカウント作成不可、既存アカウントも年齢確認でブロックまたは無効化の対象。
- 対象プラットフォーム:主にSnapchat, Instagram, TikTok, Facebook, YouTube, Xなどのソーシャルネットワーク、および「ソーシャルネットワーキング機能」を含むプラットフォーム(有害と判断された企業をリストで指定)。
- 年齢検証方法:プラットフォーム側にEU法準拠の厳格な年齢確認を義務づけ(顔認証、公式ID、クレジットカード確認など)。親の同意は一部例外的に可能だが、基本的に禁止。
- インターネット上の違法コンテンツの拡散防止を目的としたEUのデジタルサービス法(DSA:Digital Services Act)を活用しつつ、年齢検証の強化で実効性を確保。
- 追加措置:高校(lycée)での携帯電話使用を禁止(既存の小中学校での禁止を拡大)。
- 2026年9月の新学期から新規アカウントの禁止、2026年末までに既存ユーザー全員の年齢検証を完了予定。
- 違反プラットフォームには罰則(巨額罰金など)が科される。ARCOM(視聴覚・通信規制当局)が監督。
- 法的根拠:2026年1月26日に提案法 Proposition de loi relative à la régulation de l’accès des mineurs aux réseaux sociaux(Laure Miller議員主導)が国民議会で可決(130対21の圧倒的多数)。上院審議中、政府は高速手続き(procédure accélérée)で推進し、2026年9月から施行。
導入背景:
フランス国民議会は、2025年9月にSNS利用に関する調査報告書を公表した。これは、約6か月にわたる調査を経て作成されたもので、TikTokが若者に与える心理的影響を分析した300ページ以上の報告書である。主な指摘は以下の通り。
第一に、若者の心身への深刻な影響。
報告書は、TikTokを若者にとって最も有害なSNSの一つと位置づけ、自殺リスクの増加、摂食障害、睡眠障害、注意力の低下など、精神的・身体的健康への悪影響が確認されると指摘している。
第二に、アルゴリズムの高い中毒性。
特に「For You(おすすめ)」フィードの仕組みは、ユーザーの関心に合わせた動画を無限に提示する構造となっており、利用時間の長期化と依存を誘発しやすいと分析している。
この報告書は、その後の政策議論の重要な根拠となり、最終的にフランスにおけるSNS規制法案の可決へとつながった。
デンマーク
デンマーク政府は、2025年11月、SNS規制に関する新法(社会メディア最低年齢要件)について与野党での政治的合意を発表。デジタル化省(Ministry of Digitalization)が主導し、EUの「一般データ保護規則」(GDPR:General Data Protection Regulation)やデジタル権利保護と連動を目指す。
2026年中盤頃に法律化・施行の見込み。現在は詳細な施行計画と技術テスト段階。
制限内容:
- 15歳未満の子供がソーシャルメディアプラットフォームを利用することを禁止(全国規模)。新アカウント作成不可、既存アカウントも年齢確認でブロックまたは無効化の対象。
- 例外として、13歳以上(13〜14歳)は親または保護者の「明示的かつ検証済みの同意」(opt-in consent)でアクセスを許可することが可能。13歳未満は完全に禁止。
- 対象プラットフォーム:主に子供に人気のもの(Snapchat, Instagram, TikTok, YouTube, X, Facebookなど)。有害コンテンツや中毒性機能を持つプラットフォームが重点的に規制。
- 年齢検証方法:国家の電子IDシステム「MitID」やデジタル証拠アプリ「digital evidence」を活用予定。プラットフォーム側に厳格な年齢確認ツールの導入を義務づけ。違反プラットフォームには罰則(巨額罰金など)が科される。
導入背景:
SNSの利用が子どもの心理的発達や生活習慣に悪影響を及ぼしているとの懸念が広がるなか、デジタル化大臣のキャロライン・ステージ・オルセンは、ソーシャルメディアについて「子どもの時間、幼少期、そして幸福を盗んでいる」と批判し、子どもを守るための政策対応の必要性を指摘した。
同様の認識は政府首脳にも共有されている。首相メッテ・フレデリクセンは議会開会演説で「ソーシャルメディアは子どもの幼少期を盗んでいる」と述べ、子どもの保護を重視した規制の必要性を強調した。政府は、プラットフォーム企業の商業的利益よりも子どもの保護を優先すべきだという立場を明確にしている。
また議会は、2025年12月に施行されたオーストラリアの16歳未満SNS利用禁止制度も参考にしつつ、EUの中で先駆的となる規制の導入を検討している。
制度設計にあたっては、子どもの福祉を最優先としながらも、家族の選択権とのバランスを重視する方針。具体的には、親の同意による例外を認めるなど、柔軟な仕組みの導入が想定されている。
ノルウェー
ノルウェー政府は、2024年10月にSNS利用規制に関する提案を発表、2025年6月に公衆相談(public consultation)を開始し、2025年10月に相談締め切りを経て、現在は法案の最終調整と議会審議の段階に入っている。法律化・施行時期は2026年中盤から後半と見込まれている。
ノルウェーはEU加盟国ではないが、欧州経済領域(EEA)を通じてEU法の適用を受けるため、この規制はEUのデジタルサービス法(DSA:Digital Services Act)と連動した、より厳格な制度になるとみられている。
制限内容:
- 15歳未満の子供がソーシャルメディアプラットフォームを利用することを禁止(全国規模)。新アカウント作成不可、既存アカウントも年齢確認でブロックまたは無効化の対象。
- 対象プラットフォーム:Instagram, TikTok, Snapchat, Facebook, YouTube, Xなど、主に子供に人気のソーシャルネットワーク(有害コンテンツや中毒性機能を持つものが重点)。
- 年齢検証方法:厳格な電子年齢確認をプラットフォームに義務づけ。BankID(銀行ID)や国家電子IDシステム(eIDAS 2準拠)を活用した検証を想定。
- Personal Data Act(個人データ法)の改正で、ソーシャルメディアの個人データ処理同意年齢を13歳から15歳に引き上げ、これを事実上のアクセス障壁とする。
- 追加措置:年齢制限回避防止のための技術的障壁の開発、DSAに基づく子供向け保護強化(パーソナライズド推薦の制限など)。
- 法的根拠:Personal Data Act改正と新法提案。GDPR/DSAのEEA適用を基盤に、ノルウェー独自の青少年保護を強化。
導入背景:
- Norwegian Media Authorityの調査で、9〜12歳の7割が13歳制限にもかかわらずアカウント保有と判明し、現行制限の実効性不足を指摘。
- 政府は「子供の睡眠、精神的健康、学業、集中力への深刻な影響」を強調。オーストラリアの16歳未満禁止に影響を受け、EU諸国と連動して先駆的な措置を目指す。75%の国民が電子年齢検証を支持、60%が政府主導の年齢制限を望む世論も背景。
- 施行後も回避対策(VPNなど)やプライバシー懸念(ID提出のデータ収集)が課題だが、子供保護を最優先に位置づけ。デジタル大臣Karianne Oldernes Tungは「オンライン害から子供を守る」ことを繰り返し主張。
ドイツ
現在(2026年3月)時点で、ドイツはソーシャルメディアの年齢制限を全国的に強化する方向で与党(CDU/CSUとSPDの連立政権)が合意に近づいているが、法案の可決・施行はまだ完了しておらず、2026年中盤以降の見込み。2026年2月に両党が党大会や提案で14歳未満の禁止を支持し、政府への圧力が強まっている。
EUのDigital Services Act(DSA)とJugendschutz(青少年保護法)を基盤に、ドイツ独自の厳格な規制を実施することが見込まれる。
制限内容:
- 14歳未満の子供がソーシャルメディアプラットフォームを利用することを禁止(全国規模の提案)。新アカウント作成不可、既存アカウントも年齢確認でブロックまたは無効化の対象。
- 14〜16歳については、プラットフォームに強制的な「Jugendversion」(青少年版)の提供を義務づけ:アルゴリズムによるパーソナライズド推薦、無限スクロール、自動再生、プッシュ通知などの依存促進機能を排除した制限版。
- 対象プラットフォーム:Instagram, TikTok, Snapchat, Facebook, YouTube, Xなど、主に子供に人気のソーシャルネットワーク。
- 年齢検証方法:厳格なデジタル検証(公式ID、顔認証、クレジットカード確認など)をプラットフォームに義務づけ。EUのDSA準拠で、プライバシー保護を考慮した多層的な年齢確認を想定。
- 施行スケジュール:2026年2月にCDU(保守党)とSPD(社会民主党)の両与党が党大会・提案で支持を表明(CDUは2月21-22日のシュトゥットガルト党大会で可決、SPDは2月上旬の政策論文)。連立政権として連邦政府に法案提出を求め、現在は議論・法案策定段階。施行は2026年後半以降の見込みで、EUレベルでの調和も視野に。違反プラットフォームには罰則(巨額罰金など)が科される可能性。
- 法的根拠:Jugendmedienschutz-Staatsvertrag(青少年メディア保護州間条約)の強化と新法提案。与党の政治的合意に基づき、連邦デジタル化・交通省や家族省が主導。
導入背景:
- CDUのフリードリヒ・メルツ首相は「子供の保護を最優先」と強調し、SPDも同様に「アルゴリズムによる中毒」を問題視。
- オーストラリアやフランスの15歳未満禁止に影響を受け、EUで先駆的な措置を目指す。国内研究やUNICEF報告で、子供の精神的健康悪化が確認されており、プラットフォームの商業的利益より子供保護を優先。14〜16歳の「Jugendversion」導入で、完全禁止の急激さを緩和しつつ保護を強化。
- 世論調査では12歳未満禁止に71%支持がある一方、16歳未満完全禁止には77%が反対と分かれており、段階的アプローチが現実的。法的課題(EU法との整合性、データ保護、言論の自由)があり、施行には慎重論も存在。
イギリス
現在(2026年3月時点)、イギリスは、児童のソーシャルメディア完全禁止は未施行。2026年3月9日に下院が、Children’s Wellbeing and Schools Billへの改正案(16歳未満のソーシャルメディア利用禁止)を307対173で否決。政府は全面禁止に反対し、柔軟な権限を求める代替案を支持した。
代わりに、政府は2026年3月2日から5月26日までの公衆相談(consultation)を実施中。内容は、ソーシャルメディアの最低年齢設定(例: 16歳以上)、有害・中毒性機能の制限(無限スクロール、自動再生のオフ)、夜間の利用禁止(overnight curfews)、AIチャットボットやゲームプラットフォームへの年齢制限、デジタル同意年齢の引き上げ(現在13歳から16歳へ)など。
制限内容:
- 2025年7月25日から施行中のOnline Safety Actに基づき、18歳未満の子供を有害コンテンツ(ポルノ、自傷・自殺促進、ヘイトスピーチ、暴力など)から保護。プラットフォームは顔認証、写真ID、クレジットカード確認などの「highly effective age assurance」を義務づけ、違反時はOfcom(規制当局)から巨額罰金(最大1800万ポンドまたはグローバル収益の10%)が科される。
- パイロット試験として、13〜15歳の約150人を対象にソーシャルメディア完全禁止、1日1時間制限、夜間スクリーンカーフューをテスト中。施行は2026年夏以降の政府決定次第で、2027年頃の本格施行の見込み。
- 上院(House of Lords)は2026年1月21日に16歳未満禁止を支持(改正案通過)したが、下院で否決。政府は二次立法で年齢別制限や機能制限を可能にする柔軟な権限を確保。
導入背景:
- スターマー首相は、ソーシャルメディアのアルゴリズムが子供を過度に引きつけ、精神的健康を害する「最大の無制御実験」と指摘。Online Safety Actの強化で、既存の13歳最低年齢を厳格化し、子供の脳発達保護を優先する姿勢を示している。
- オーストラリアの16歳未満禁止に影響を受け、EU諸国(フランスなど)の動きを参考。相談では、親・子供の意見を募り、全面禁止が「規制の少ない闇サイトへ追いやる」「16歳で急激にアクセス可能になるcliff-edge効果」を懸念する声も。子供保護慈善団体(NSPCCなど)は慎重論を展開しつつ、既存法の徹底を求める。
- Ofcomのリスク評価で、プラットフォームが子供の安全を優先せず、中毒性デザインが問題視。罰則強化で実効性を高め、プライバシー保護とバランスを取る。
イギリスは慎重で段階的なアプローチを取っており、2025年のOnline Safety Actで有害コンテンツブロックを先行させる方策を取っている。2026年の相談結果(夏頃発表)で、16歳未満禁止が導入される可能性が高いが、現在は機能制限・年齢検証強化が中心。施行には年齢確認技術(顔認証など)の課題と、VPN回避対策が残っており、EU圏やオーストラリアに追随する形で進展中。他のヨーロッパ諸国と比べると、規制の柔軟性と公衆参加が特徴的。
ポルトガル
ポルトガルでは、2026年2月、16歳未満のソーシャルメディア利用を制限する法案が、議会の初回読会(generalidade)で承認され、現在は専門委員会での詳細審議中。施行は2026年後半〜2027年初頭の見込み。
制限内容:
- 16歳未満:自主的に(autónomo)アクセスすることを制限。16歳以上が自主アクセスの最低デジタル年齢。
- 13〜15歳:親または保護者の明示的かつ検証済みの同意(consentimento expresso e verificado)が必要。同意なしではアクセス不可。
- 13歳未満の子供がソーシャルメディアプラットフォームにアクセスすることを完全に禁止。新アカウント作成不可、既存アカウントも年齢確認でブロックまたは無効化の対象。
- 対象プラットフォーム:Instagram, Facebook, TikTok, Snapchat, YouTube, X, Twitch, Redditなどソーシャルネットワーク、ビデオ共有サービス、オープン通信サービス(有害コンテンツや交流機能を持つもの)。WhatsAppなどのメッセージングアプリは除外(親子間コミュニケーションを考慮)。
- 年齢検証・同意方法:国家の公的システム「Chave Móvel Digital(DMK、デジタルモバイルキー)」を活用。親がDMKで同意を電子的に検証・付与。プラットフォーム側に有効な年齢確認システムの導入を義務づけ(顔認証、ID確認など)。違反プラットフォームには罰則(巨額罰金など)が科される。
- 法的根拠:PSD(社会民主党)提出のプロジェクト法(Proposta de Lei que altera o regime de acesso de menores às redes sociais e plataformas digitais)。既存のデジタル同意年齢13歳を16歳に引き上げ、青少年保護法とGDPR/DSAを基盤に強化。
導入背景:
- EU議会の2025年11月非拘束決議(16歳未満の無制限アクセスを推奨)を背景に、EU諸国と連動。
- ソーシャルメディアが子供に深刻な害を及ぼすとの認識のもと、政府・議会は「子供の保護を最優先」と強調し、オーストラリアの16歳未満禁止に影響を受け、EUで先駆的な措置を目指す。
スペイン
スペインでは、2026年2月、ペドロ・サンチェス首相が16歳未満のソーシャルメディア利用を全国的に禁止する計画を発表した。発表は、国際会議である World Governments Summit の場で行われた。
サンチェス首相はこの政策の背景について、「子どもたちは、本来一人で航行すべきではない空間にさらされている」と述べ、ソーシャルメディアを「デジタルのワイルドウェスト」と表現し、子どもをその環境から守る必要性を強調。
現在、スペイン政府は、この方針を実現するための法改正を議会承認を前提に進めている。制度が成立した場合、施行は2026年中頃以降になる見込み。また、この規制はEUの Digital Services Act(DSA) と連動し、年齢確認やプラットフォーム責任を含む包括的な児童保護政策の一部として導入されるとされている。
制限内容:
- 2024年6月にデータ保護同意年齢を14歳から16歳に引き上げ。
- 16歳未満の子供がソーシャルメディアプラットフォームにアクセス・利用することを禁止(全国規模)。新アカウント作成不可、既存アカウントも年齢確認でブロックまたは無効化の対象。
- 対象プラットフォーム:TikTok, Instagram, Facebook, Snapchat, YouTube, Xなど、主に子供に人気のソーシャルネットワーク(有害コンテンツや交流機能を持つもの)。
- 年齢検証方法:プラットフォーム側に「実効的な年齢検証システム」(effective age verification systems)の導入を義務づけ。「単なるチェックボックスではなく、実際に機能する障壁」(not just checkboxes, but real barriers that work)と強調。顔認証、公式ID(DNI国民IDカードなど)、クレジットカード確認などの多層的な方法を想定。
- 親の同意:一部の議論で14〜16歳に親同意を条件としたアクセスを認める可能性があるが、基本は禁止(完全禁止が主軸)。
- 施行スケジュール:2026年2月3日に首相が発表、Council of Ministers(閣議)で法案改正を承認。現在は議会(Congreso de los Diputados)での審議・修正段階で、Projecto de Ley Orgánica para la protección de las personas menores de edad en los entornos digitales(未成年者のデジタル環境保護のための有機法プロジェクト)を基に改正。施行は2026年中盤以降の見込みで、プラットフォームの遵守を段階的に強制。違反プラットフォームには罰則(巨額罰金、経営陣の刑事責任など)が科される。
- 追加措置:プラットフォーム経営陣の「違法・有害コンテンツ」未除去に対する刑事責任導入、アルゴリズム操作の犯罪化など、5つの包括的対策の一部。
- 法的根拠:EUのGDPR/DSAを基盤に、スペイン独自の青少年保護を強化。
ギリシャ
ギリシャでは、2026年2月時点で、年齢による段階的なソーシャルメディア利用を制限する制度の導入が検討されている。政府は現在、具体的な政策案を準備しており、近く発表される見通しと報じられている。
検討されている制度では、15歳未満のユーザーについてはソーシャルメディアへのアクセスを原則無条件で遮断する仕組みが想定されている。また、15〜18歳の未成年については、広告表示の制限など、利用規制を課す案が議論されている。
制限内容:
- 15歳未満の子供がソーシャルメディアプラットフォームを利用することを禁止(全国規模)。新アカウント作成不可、既存アカウントも年齢確認でブロックまたは無効化の対象(無条件・普遍的適用)。
- 対象プラットフォーム:Instagram, TikTok, Snapchat, Facebook, YouTube, Xなど、主に子供に人気のソーシャルネットワーク(有害コンテンツや中毒性機能を持つものが重点)。
- 年齢検証方法:プラットフォーム側に厳格な年齢確認を義務づけ。国家のデジタルツール「Kids Wallet」アプリ(昨年導入、元々タバコ・アルコール販売制限用)を活用し、親の監督下での年齢検証・ブロックを実現。顔認証、公式ID確認などの多層的方法を想定し、親のオプトアウト(同意による例外)は認めない完全禁止型。
- 施行スケジュール:2026年2月3日に政府が「発表間近」と公表。現在は監督省庁による法枠組み最終化中。施行は2026年後半以降の見込みで、プラットフォームの遵守を段階的に強制。違反プラットフォームには罰則(巨額罰金など)。
- 追加措置:学校での携帯電話禁止(既存措置)の拡大、デジタル依存対策としての国家戦略(2024年末発表)の延長。EUレベルでの年齢制限議論を先導。
- 法的根拠:新法提案(社会メディア最低年齢要件)。GDPR/DSAのEEA適用を基盤に、ギリシャ独自の青少年保護法を強化。刑事責任年齢(15歳)と連動。
導入背景:
- 世論調査では、15歳未満のソーシャルメディア利用を禁止する措置に約80%の国民が賛成。一方で、約57%は子どもが技術的に規制を回避する可能性があると懸念しており、制度の実効性を課題とする見方も示されている。
- 強い世論を背景に、政府は子どもの福祉を最優先とする立場から対策を検討している。まずはプラットフォーム企業との対話を通じた改善を模索しているが、それでも十分な対応が得られない場合には、法的規制の導入も辞さない姿勢を示している。
- 首相キリアコス・ミツォタキスは、ソーシャルメディアのアルゴリズムについて「子どもの脳に対する史上最大の無制御の実験」と指摘し、その影響に強い懸念を表明している。
インドネシア
インドネシアは、16歳未満のソーシャルメディア利用を全国的に禁止する規制の導入を決定した。2026年3月6日に通信・デジタル大臣Meutya Hafidが政府規制(Ministerial Regulation No. 9 of 2026)を発表し、施行は2026年3月28日から段階的に開始される。これはオーストラリアに次ぐアジアでの先駆けで、非西洋国として初の包括的規制。
制限内容:
- 16歳未満の子供が「high-risk digital platforms」(高リスクデジタルプラットフォーム)でアカウントを作成・保有することを禁止(全国規模)。新アカウント作成不可、既存アカウントは年齢確認で段階的に無効化・削除の対象。
- 対象プラットフォーム:YouTube, TikTok, Facebook, Instagram, Threads, X, Bigo Live, Robloxなど(主にユーザー間交流や有害コンテンツが懸念されるもの)。低リスクプラットフォーム(例: メッセージングアプリなど)は一部例外的に13歳以上で許可の可能性あり(年齢別グラデーションアプローチ)。
- 年齢検証方法:プラットフォーム側に厳格な年齢確認システムの導入を義務づけ。標準ベースの年齢保証(standard-based age checks)を想定し、ID確認や顔認証などの方法を要求。MCMCに相当するKominfo(通信・デジタル省)が監督。
- 施行スケジュール:2026年3月6日に大臣が署名・発表。2026年3月28日から段階的施行開始(まず主要プラットフォームでアカウント無効化を開始、以後全プラットフォームの遵守義務化)。違反プラットフォームには罰則(巨額罰金など)が科される。
- 法的根拠:Ministerial Regulation No. 9 of 2026(政府規制第9号2026年)、Government Regulation No. 17 of 2025(電子システム管理および児童保護に関する政府規制)の派生規則。PP Tunas(児童保護関連規制)を基盤に、子供のデジタル保護を強化。
導入背景:
- 大臣Meutya Hafidは「インドネシアは非西洋国として初めて年齢に応じたデジタル空間アクセスを遅らせる国になる」と強調。子供が直面するオンライン脅威が「ますます現実的」として、ポルノグラフィ、サイバーブリング、オンライン詐欺、デジタル依存(addiction)を最優先に挙げる。
マレーシア
マレーシアの規制は、オーストラリアの政策に強く影響を受け、アジアでインドネシア(16歳未満禁止、2026年3月施行)に続く形で進んでいる。施行の鍵はeKYCの実効性とVPN回避対策で、現在MCMCがプラットフォームとの協力・テストを進めている段階。完全施行は2026年中盤の見込みで、親・子供の意見やプライバシー議論が並行して続いている。
制限内容:
- 16歳未満の子供がソーシャルメディアアカウントを作成・利用することを禁止(全国規模)。既存アカウントも年齢確認でブロックまたは無効化の対象。
- プラットフォーム(Facebook, Instagram, TikTok, YouTube, Xなど)は、登録時に年齢検証を義務づけ。主な方法は電子Know-Your-Customer(eKYC)で、公式ID(MyKad国民IDカード、パスポート、MyDigital ID)を用いたデジタル検証。
- 18歳未満に対しては、年齢に適したコンテンツ制御(有害コンテンツの制限・フィルタリング)を強化。
- 施行スケジュール:2025年末から「reasonable steps」(合理的な措置)の要求開始。2026年上半期(特に第2四半期末、7月頃)にeKYCの本格導入と完全施行を目指し、現在「regulatory sandbox」(規制サンドボックス)でテスト中。親管理アカウントは一部例外的に許可の可能性あり。
- 法的根拠: Online Safety Act 2025(2026年1月1日施行)に基づき、8百万ユーザー以上の主要プラットフォームは自動的にライセンス対象(deemed licensed)となり、MCMC(Malaysian Communications and Multimedia Commission)が監督。違反時はプラットフォームに罰則(巨額罰金など)。
導入背景:
- 学校でのスマホ禁止(一部地域)や最近の若者関連暴力事件の増加が背景。また、ソーシャルメディアによって子供に深刻なオンライン被害(サイバーブリング、性的グルーミング、詐欺、不適切コンテンツへの曝露)も急増。
- UNICEFの報告では、マレーシアの子供の4人に1人が性的・有害コンテンツにさらされている。
- Communications Minister Fahmi Fadzilは、オーストラリアの先行事例を参考に「子供の安全を最優先」と強調。プラットフォームの責任を強化。
- プライバシー懸念(ID提出のデータ収集)もあるが、子供保護を優先し、EUやオーストラリアの規制に追随。
インド
インドではカルナータカ州が16歳未満のソーシャルメディア利用を禁止する方針を発表し、インド初の州レベル規制として注目されている。全国レベルの完全禁止は未施行だが、連邦政府(中央政府)が年齢別段階的制限を検討中。2026年モンスーン議会セッション(通常7-8月)での新法導入が視野に入っている。
制限内容:
- カルナータカ州(インドのITハブ、バンガロール所在)は2026年3月に16歳未満のソーシャルメディア利用を禁止する方針を発表(インド初の州レベル規制)。首席大臣Siddaramaiahが予算演説で表明し、施行準備中。
- アンドラ・プラデーシュ州も13歳未満を対象に同様の禁止を発表。
- 連邦政府は、新法(separate law)の制定を目指す。既存のIT ActやDigital Personal Data Protection Act(DPDP Act)を基盤に、Economic Survey 2025-26の勧告(年齢別制限の検討)を反映。8〜12歳、12〜16歳、16〜18歳の3段階で年齢別段階的(graded)制限が議論されており、完全禁止ではなく年齢帯ごとの厳格ルール(例: 広告制限、時間制限)を導入予定。
導入背景:
- カルナータカ州は「子供の悪影響防止」を最優先する姿勢を示し、全国的な議論を先導する形で、インドのデジタル大国としての責任を強調。
- 連邦政府は、Economic Surveyで「デジタル中毒」の問題を指摘し、年齢別制限を推奨。IT大臣Ashwini Vaishnawはソーシャルメディア企業と協議し、「適切な方法」を模索中。
- オーストラリアの16歳未満禁止やEU諸国の動きに影響を受け、インドの巨大市場(10億インターネットユーザー)での子供保護を優先。州レベルの動き(カルナータカなど)を全国法で統一する狙い。完全禁止は「デジタル格差を拡大する」と慎重論もあり、段階的アプローチを選択。
アメリカ
アメリカは連邦レベルでの全国的な完全禁止は未施行だが、州レベルで多様な規制が急速に進んでおり、一部の州で施行中・一部で訴訟中。連邦ではKids Online Safety Act (KOSA) や Kids Off Social Media Act などの法案が議会で議論されている。
制限内容:
1)連邦政府
完全禁止ではなく、プラットフォームへの安全義務強化と年齢別制限を求める法案が複数議論中。主なものは以下のもの。
- Kids Online Safety Act (KOSA):17歳未満のユーザーを有害コンテンツから保護。プラットフォームにデフォルトで厳格なプライバシー・安全設定を義務づけ、アルゴリズム推薦の制限、親コントロールの強化、有害報告メカニズムの導入。無限スクロールやプッシュ通知の制限も含む。
- Kids Off Social Media Act:13歳未満のソーシャルメディアアカウント作成・保有を禁止。17歳未満へのパーソナライズド推薦(アルゴリズム推薦)の禁止。学校ネットワークでのソーシャルメディア制限も義務づけ。
2)州政府
アメリカの規制は州主導で多岐にわたり、2026年現在、少なくとも17州がソーシャルメディアの未成年アクセス制限や「addictive feeds」規制を施行・推進中。一部は訴訟で一時停止。
- フロリダ州 (Florida): 14歳未満のソーシャルメディアアカウント保有を禁止。14-15歳は親同意必須。年齢検証義務。2024年施行だが、訴訟で一部一時停止・現在執行中(11th Circuit Court審理中、2026年3月口頭弁論)。
- バージニア州 (Virginia): 16歳未満のユーザーを1日1時間に制限(親が調整可能)。年齢確認義務。2026年1月施行中。
- ユタ州 (Utah): 未成年への親同意必須、アルゴリズム推薦制限。2024年改正法施行だが、訴訟で一時停止・再施行中。
- ネブラスカ州 (Nebraska): 18歳未満への親同意必須(厳格)。2026年7月施行予定。
- カリフォルニア州 (California): 「addictive feeds」の未成年禁止(親同意で例外)。学校でのスマホ制限(2026-27学年度施行)。Newsom知事が年齢制限法案を支持(2026年2月)。
- その他:アーカンソー州・オハイオ州など一部永久ブロック。ジョージア・ルイジアナなど一時停止中。多くの州で親同意・年齢検証を義務づけ。
導入背景:
- ソーシャルメディアが子供の精神的健康を深刻に害する「公衆衛生危機」と位置づけ(Surgeon General報告)。自殺率の上昇や不安障害を招くため。
- 州レベルの根拠は共通で、精神的健康被害防止。施行には年齢確認技術の課題(プライバシー侵害、VPN回避)とFirst Amendment訴訟が最大の障壁。2026年現在、州の動きが連邦を先導する形で進んでいる。
参考
・Tracking Efforts To Restrict Or Ban Teens from Social Media Across the Globe – Tech Policy. Press
・UK launches consultation asking for views on under-16s social media ban – BBC
規制の背景にある「精神健康の危機」
児童のSNS利用規制は、2024年から2026年にかけて急速に進んでおり、特にEU諸国を中心に広がりを見せている。
各国政府が共通して挙げている理由は、子どもの精神的健康への影響である。
政策の根拠として頻繁に引用されているのが、米国公衆衛生局長官(医務総監)ヴィヴェック・マーシー(Vivek H. Murthy)による報告書
Social Media and Youth Mental Health: The U.S. Surgeon General’s Advisory である。
この報告書は、ソーシャルメディアが若者の心理や行動に与える影響について警告を発している。
報告書によれば、現在の青少年のSNS利用は非常に高い水準に達している。
米国では、青少年の最大95%がSNSを利用しており、約3分の1が「ほぼ常時オンライン」の状態にある。また、1日3時間以上の利用は精神的健康の悪化リスクの増加と関連していると指摘されている。
さらに報告書は、SNS利用に関連する主なリスクとして次の点を挙げている。
- 不安や抑うつ症状の増加
- 自尊心の低下(特に女子)
- 睡眠障害
- サイバーいじめへの曝露
- 問題的・依存的な利用行動
報告書は次のように警告している。
ソーシャルメディアは、子どもや青少年の精神的健康と幸福に対して深刻なリスクをもたらす可能性があることを示す多くの証拠が存在する。
“There are ample indicators that social media can also have a profound risk of harm to the mental health and well-being of children and adolescents.”
そのうえで、政府、企業、保護者に対し、
- 年齢に応じた安全設計
- アルゴリズムの透明性の向上
- 青少年を保護するための規制の整備
といった対策を求めている。
もちろん、SNSがすべての若者に悪影響を与えるわけではない。しかし、長時間利用や特定のコンテンツへの過度な接触が精神的健康に悪影響を及ぼす可能性があることは、多くの研究で指摘されている。
とりわけ近年問題視されているのが、SNSのアルゴリズム設計である。
現代のソーシャルメディアは、ユーザーの利用時間を最大化することを目的として設計されている。そのため、
- 無限スクロール
- 通知機能
- レコメンド機能
- 変動報酬に基づくアルゴリズム
といった仕組みが組み込まれている。これらの機能は、ユーザーが次々とコンテンツを閲覧し続けるよう設計されたものであり、結果として利用時間を長引かせる効果を持つ。
多くの政府は、このような設計を単なるサービス機能ではなく、利用者の行動を誘導する仕組みと捉えている。とりわけ、判断力が十分に発達していない子どもに対しては、依存的な利用を促す可能性があると指摘されている。
こうした認識から各国政府は、ソーシャルメディアを全面的に禁止するのではなく、年齢制限や保護措置を設けることで子どもを守る必要があると判断している。
つまり現在のSNS規制は、単にスマートフォンの使いすぎを防ぐという発想ではない。
アルゴリズムによって設計されたデジタル環境から子どもを保護するという、新しいタイプの消費者保護政策として位置づけられているのである。
その結果、多くの国では、企業の利益やサービスの利便性よりも、子どもの福祉と発達を優先すべきだという考え方が強まりつつある。
出典
・Vivek Murthy, Social Media and Youth Mental Health: The U.S. Surgeon General’s Advisory, 2023 (PDF) – Office of the U.S. Surgeon General



コメント