近年、AI(人工知能)の進化が止まりません。画像生成や自動翻訳、会話AIなど、私たちの暮らしにどんどん入り込んでくる中、「これって本当に安全なの?」「誰がルールを決めてるの?」と感じたことはないでしょうか。
そんな中、日本で2025年に成立したのが「AI推進法」。これは、日本初となるAIに特化した法律です。ところがこの法律、「罰則なし」「企業の自主性重視」「リスク管理は今まで通り」という、世界でもかなり“ゆるい”内容となっています。
この記事では、「AI推進法とは何か?」という基本から、なぜあえて“推進”に振り切ったのか、その背景にある日本の戦略、そして他国と比べて何が違うのか――一歩踏み込んで、深掘り解説していきます。
果たしてこの法制度は、日本にとって“成長エンジン”となるのか?それとも“ブレーキなしの危うい加速”なのか?
世界がAI規制に踏み出す中、日本の選んだ道の意味を一緒に考えてみましょう。
AI推進法とは何か?
日本のAIは世界に遅れている?
まず知っておきたいのは、日本がAIの分野で世界から遅れをとっているという現状です。2023年、世界のAIへの民間投資額は以下のようになっていました。
- アメリカ:約672億ドル(1位)
- 中国:約78億ドル(2位)
- イギリス:約38億ドル(3位)
- 日本:約7億ドル(12位)
これは、AIの研究や開発にお金がほとんど使われていないことを意味しています。また、AIを日常生活や仕事に使っている人の割合も、他の国と比べてとても低いです。
AI利用の現状 | 個人利用 | 企業利用 |
---|---|---|
中国 | 56% | 84% |
アメリカ | 46% | 85% |
ドイツ | 35% | 73% |
日本 | 9% | 47% |
技術が進んでいく一方で、多くの人がAIに不安を抱いていることも事実です。KPMGの調査によれば、日本人の77%が「AIには規制が必要」と答え、わずか13%しか「今の法律で十分」と感じていませんでした。これは他の国と比べても非常に低い数字です。
つまり、「便利そうだけど、なんか怖い」「悪用されたらどうなるの?」という気持ちが多くの人にあるということです。
このような背景から、日本政府は新しい法律を作る必要があると考えました。それが「AI推進法」です。この法律のポイントは次のようになります 。
- AIを使ったイノベーション(技術革新)をもっと進めたい
- でも、リスクや悪用にもきちんと対応したい
- 今ある法律だけでは足りないので、新しい枠組みが必要
たとえば、AIで作られた「フェイク動画(偽の映像)」がSNSで広まってしまったら? 子どもたちの顔を勝手に使った「性的ディープフェイク」が出回ったら? こうした事態に、きちんと対応できるような仕組みが必要だったのです。
ただし、今回の法律には「罰則」はありません。つまり、「悪いことをしたら刑務所に行く」というような規制ではなく、「国が調査・助言を行う」程度にとどまっています。これについては、「それじゃあ効果が弱いんじゃないか?」という批判の声もあります。
弁護士の楊井人文さんは、「この法律は“推進”が目的であって、“規制”ではない」と述べています 。たしかに、「AIを悪用した人を罰するための法律」ではなく、「AIを正しく広めるためのルール」を作る法律と考えた方が正確です。
世界との比較と今後の課題
他の国と比べてみましょう。たとえば、ヨーロッパ(EU)では、AIに関する「規制法」がすでに整備されています。企業に対して、「AIで作られたものはちゃんと明示しなさい」「ルールを破ったら罰金ですよ」といった厳しいルールがあるのです 。
アメリカは、規制よりも開発の自由を優先していますが、それでも一定の指導枠組みは持っています。
日本だけが、まだ「ガイドライン」でなんとかしてきたという状況。今回のAI推進法で、ようやく「法律による枠組み」ができたわけですが、内容は「ソフト路線」にとどまっています。
この法律で何が変わるのか?
一番の変化は、政府の「司令塔」ができることです。内閣総理大臣をトップとした「AI戦略本部」がつくられ、そこでAIの開発や活用に関する「基本計画」を作っていきます 。
つまり、「どこに力を入れるか」「どう育てていくか」という方向性を、国全体でしっかり決めるための仕組みができたのです。
AI推進法は、「これから日本がAIをどう使っていくか」のスタートラインに立ったことを意味します。ですが、これはあくまで“推進”のための法律であって、“悪用”をしっかり止めるための規制までは整っていません。
したがって、これからの課題は:
- 実効性のあるルール作り
- 罰則を含む規制の検討
- 国民の不安に応える透明性の確保
などが挙げられます。
日本が「AIを最も活用しやすい国」になるためには、次のステップとして“責任ある使い方”を促す制度作りが求められるのです。
AI推進法の中身を深く知ろう
AI推進法は、「AIってすごいね!」で終わらせず、国がどう動き、企業がどう参加し、人々がどう関わるべきかを、法律のかたちでしっかり決めたものです。ここでは、その仕組みを順番に、より深く掘り下げて見ていきましょう。
AIはもはや「科学技術」だけの話ではない
この法律の一番のポイントは、「AIを科学技術の一部としてではなく、国家の基盤技術と位置づけた」ことです 。
「経済社会の発展の基盤」「安全保障の観点からも重要な技術」
とまで書かれているように、AIは単なる便利ツールではありません。国の経済成長や安全保障(=国を守る力)に直結する存在になったのです。
たとえば…
- 災害時の避難誘導や監視カメラ分析
- 自動運転や医療診断
- サイバー攻撃の防止
これらを支えるのがAI。そのため、国としても「方針を決めて育てていく」ことが必須になったのです。
AI戦略本部は「総理直属の司令塔」
この法律の心臓部は「AI戦略本部」の設置です。
- 本部長:内閣総理大臣(=国のトップ)
- 構成員:すべての大臣(外務大臣、厚生労働大臣など)
つまり、国の全機能をAI政策に動員するための枠組みができたということです 。
なぜここまで大げさにするのか?
それは、AI政策が一省庁だけでは対応できないほど横断的で複雑だからです。
たとえば、AIによるフェイク画像拡散は「総務省」、個人情報の扱いは「個人情報保護委員会」、医療用AIは「厚労省」、防衛技術は「防衛省」…と複数の省庁が関わります。
だからこそ、総理がトップの戦略本部が必要なのです。
「AI基本計画」は国のAI憲法のようなもの
法律には「政府はAI基本計画を作らなければならない」とあります。
この計画では、
- どんなAI研究を支援するか
- どうやって人材を育てるか
- どんなリスクに備えるか
- 企業や自治体とどう連携するか
といった内容を総合的・計画的に整理して、今後数年間の道筋を決めます。
注意したいのは、この計画が国会の承認を必要としない点です。
計画は「閣議決定」で確定し、国会は関与しない
つまり、民主的な議論が不足するリスクがあります。ここに、「推進だけで暴走しないか?」という不安が残ります。
誰が何をする?「責務」の明文化
この法律は、単に国の計画だけでなく、関係するすべての主体の行動指針も定めています。
国
- AI研究に投資する
- 法制度や予算を整える
- 教育や啓発も行う
地方自治体
- 地域の特性を活かしてAIを使う
- 国の方針に沿って独自施策も行う
研究機関(大学など)
- 研究だけでなく、成果の社会実装・人材育成も担う
- 分野横断的な研究を進める(例:倫理×技術)
企業(活用事業者)
- AIを積極的に活用
- 国・自治体の方針に協力しなければならない
国民
- AIについて関心を持ち、理解を深める努力
- 国や自治体の施策に協力するよう努める
ここでの大きなポイントは、「企業には協力義務」があることです。任意ではありません。
リスク対応は「調査・助言」止まり
フェイク動画や詐欺、差別的なアルゴリズム——AIのリスクも現実のものとなっています。そこで法律では、次のような仕組みを設けています:
- 国が調査・分析を実施
- 企業に原因究明を求める
- 必要に応じて指導・助言を行う
ですが、注意が必要です。
罰則は一切なし
たとえば、企業が無視しても、「勧告」や「公表」などにとどまり、それ以上の強制力はありません。
これには次のような懸念があります:
- 指導だけで企業が従うとは限らない
- 対策が後手に回る恐れ
- 世界の規制強化の流れに逆行
「世界のモデル」に本当になれるのか?
法律の最後には、「見直し規定」があります。
「必要な場合には所要の措置を講ずる」と明記
これはつまり、「実際に運用してみて、不足があればルールを強化する可能性もある」という意味です。
たとえば将来的には:
- 重大なリスクを引き起こした企業への罰則
- AI倫理監査の義務化
- AI説明責任の明確化
といった規制的ルールへの進化もあり得るのです。
AI推進法は、あくまで「推進のための土台」を築いたものです。その意義は大きいですが、課題も多く残されています。
- AI開発を促すが、暴走の歯止めが弱い
- 実効性のあるリスク管理が未整備
- 国民の声が制度に反映されにくい構造
今後必要なのは、推進と規制のバランスです。言い換えると、
「アクセルだけでなく、ブレーキも準備する法制度」
が求められるのです。
AI推進法をどう評価すべきか?
2025年、日本で「AI推進法」が成立したことは、一見すると「時代に合った前向きな法整備」に見えます。しかし、実はこの法律は多くの意味で“歯がゆい”構造をしています。
AI推進法とは「加速装置」であり「制動装置」ではない
まず最初に理解しておくべき重要な点は、「AI推進法」は“規制法”ではなく、“推進法”であるということです。
これが意味するのは次のようなことです:
- AIによる技術革新を国として応援し、加速させる
- それに伴うリスク管理は“努力義務”レベルでしか規定されていない
- 悪用や被害の再発防止に向けた直接的な罰則や制裁措置は存在しない
この構造は、「交通インフラを整えたが、信号機や速度制限はあとで考える」といった状態に似ています。これは“成長重視”の政策とも言えますが、同時に“制御の弱さ”を内包しています。
なぜ罰則がないのか?――政治的な選択の背景
「なぜ罰則を入れなかったのか?」という問いには、技術的な理由だけでなく、政治的な駆け引きが存在します。
実は、自民党内では2023年にすでに、AI事業者に一定の体制整備義務を課し、監督・是正できる制度を求める提言が出されていました。しかし、岸田内閣はこの提言をスルーして推進寄りの法案に仕立てました。
背景には以下のような事情があります:
- 国際競争力強化を急ぐ産業界の意向
- IT・スタートアップ企業からの「過剰規制反対」の圧力
- 日本が世界のAI市場で周回遅れとなっているという焦り
つまり、「規制を強めて産業を萎縮させたくない」という思惑が、結果的に“規制なき推進”という構図を生み出したのです。
どこまでが「法律」で、どこからが「行政」任せなのか?
AI推進法の内容は実はほとんどが“宣言的”です。たとえば、「AI基本計画をつくる」とは書かれていますが、その中身は法律ではなく、政府(内閣)が自由に決められる内容です。
これにより次のような構図になります:
項目 | 誰が決めるか | 国会の関与 |
---|---|---|
戦略本部の構成 | 法律で規定 | ○ |
AI基本計画の中身 | 閣議決定 | ✕(国会関与なし) |
企業への指導方針 | 行政指導レベル | ✕(任意ベース) |
調査・是正措置 | 国の判断に基づく | △(事後報告) |
つまり、この法律は「政府がAIにどう関わるかを自己決定できる仕組み」を与えただけであり、民主的統制=市民や議会による監視と調整の力が弱いのです。
世界のAI法制度と日本の違い:構造で見る「異常なゆるさ」
ここで、世界のAI法制度と比較してみましょう。
欧州連合(EU)
- 2024年発効のAI規制法(AI Act)では、リスクレベルに応じて義務が異なる。
- 高リスクAI(顔認証や医療診断AIなど)には、説明責任、データ品質保証、監査記録の保存義務がある。
- 違反した企業には最大3500万ユーロ(約55億円)の罰金。
アメリカ
- 現在は連邦法としての規制はないが、州レベル(例:カリフォルニア州)でプライバシー・AI差別などを規制。
- バイデン政権時代には「AI原則」の行政命令を発出し、政府調達における倫理基準を設定。
日本
- リスク分類なし
- 違反定義なし
- 罰則なし
- 倫理監査なし
- 強制開示義務なし
これは一目瞭然です。日本の法律はリスク・ルール・罰則の3つがごっそり欠けている構造なのです。
本当にこのままでいいのか?今後の3つの重要課題
では、この推進法を「本当に意味ある制度」に進化させるために、どんな論点が今後重要になるのでしょうか?
罰則と規制の導入は避けて通れない
企業の自主努力だけに頼るのでは限界があります。最低限以下の措置は検討すべきです:
- AIが関与する事故やトラブルの強制報告制度
- 差別的・違法なアルゴリズムの禁止と制裁
- リスクの高いAIへの事前審査制度の導入
「AI倫理」の法制度化
現在は倫理が“道徳”レベルにとどまっていますが、これを具体的な法的義務へと格上げする必要があります。たとえば:
- 説明責任(なぜその結果になったかを説明する)
- 合理性(偏見や差別を含まない)
- 公平性(特定の層に不利益をもたらさない)
国会と市民社会の関与の強化
AI基本計画や戦略本部の議論に、市民・研究者・NPOなどの意見を反映する正式な仕組みが必要です。いまは閣議決定で一方的に決まり、市民は情報すら知らされないことが多いのが現実です。
AI推進法は間違いなく、「AIに本気で取り組むぞ」という国家の意思表示です。ですが、それは土台にすぎません。現在の状態では、あまりにスカスカな構造です。規制が甘く、制御装置がなく、民主的なチェック機能も不十分。
今後の日本が、
- 技術を活かしつつ
- 人権や自由を守り
- 世界に信頼されるAI国家
になるためには、この法律のアップデートこそがカギになります。
AI推進法は私たちの生活にどう関係する?
AI推進法という名前を聞くと、「国の政策」「産業の話」など、自分の生活から遠い存在に思えるかもしれません。しかし、実際にはこの法律が支える仕組みは、学校、職場、病院、SNSなど、私たちの日常生活の中にすでに入り込んでいます。今回は、具体的な生活シーンを通じて、AI推進法がどう私たちと関わっているのかを深く考えてみましょう。
AIに「採用」を決められる時代がくる?
就職活動やアルバイトの面接で、AIが応募者の表情や声のトーン、履歴書の文章から性格や能力を判断する仕組みが使われ始めています。AIが評価の一部、あるいはすべてを担当し、誰を通過させるかを決める。これが近年増えている「AI面接」や「AI書類選考」です。
便利で効率的に見えますが、問題はその判断の過程が見えにくいことです。AIに不採用とされた場合、「なぜ?」と理由を聞いても、システムが自動的にそう判断した、としか答えが返ってこないことが多いのです。
AI推進法は、こうした場面で重要な役割を果たします。この法律の中には、「AIを活用する際は透明性を確保し、適正な方法で行うべき」とする理念が書かれています。つまり、AIが人の人生に大きな影響を与える場面では、その仕組みが不公平にならないよう、また説明できるようにするという考え方が基本にあるのです。
将来的には、この理念に基づき「なぜこの人が落とされたのか」や「AIが参考にした評価基準は何か」を企業が説明できるようなルールが基本計画に盛り込まれる可能性があります。これは、人間が自分の人生に関わる重要な判断に対して、納得できる理由を求める権利を支える制度でもあります。
- AIが判断に使ったデータの開示
- 差別的な評価のチェック体制
- 落選理由の説明の義務化(いわゆる説明責任)
SNSの「フェイク動画」は誰が止めるのか?
AIの発展とともに問題となっているのが、フェイク画像やフェイク動画、いわゆる「ディープフェイク」です。AI技術によって、実際には起きていないことを、本物のように見せる動画が作られ、それがSNSで急速に広まってしまうというケースは、すでに世界中で発生しています。
例えば、有名人の顔を使って偽の発言動画を作ったり、一般の女性や子どもの顔写真を使って性的な動画を作成するような悪質なケースも出ています。これに巻き込まれた人の名誉や心の傷は計り知れません。
AI推進法では、こうした悪質な利用に対して、政府が事業者に調査を行い、指導や助言を行うことができると定めています。つまり、動画を作ったAI事業者や、それを広めるプラットフォームを国が監視し、必要に応じて是正を促すというわけです。
ただし、ここには明確な罰則がないため、「あくまで助言」で終わってしまう恐れもあります。だからこそ、この法律の理念を活かして、実効性ある対応策――たとえば違法なコンテンツを迅速に削除できる仕組み、悪質なAI開発者への営業停止処分など――を今後の議論で具体化する必要があります。
「ChatGPTで宿題」も問題になる?
ChatGPTのような生成AIを使って、文章の要約や感想文、プログラムなどを簡単に作れるようになりました。これを学校の課題やレポートにそのまま使ってしまうケースもあるでしょう。しかし、これは単なる“カンニング”以上の問題を含んでいます。
AIが出力する文章には、知らず知らずのうちに他人のアイデアや表現が紛れ込んでいることがあります。つまり、「著作権侵害」や「情報の捏造」といった問題につながる可能性があるのです。
AI推進法には、AIを適正に使うための「教育の振興」や「研究成果の透明性確保」も掲げられています。これは、学校や教育現場で「AIを使うことの良し悪し」をただ禁止するのではなく、どうすれば適切に使えるかを学ぶ環境を整えることが重要だという方向性を示しています。
たとえば、「AIを参考にしたら、どの部分かを明示する」「出典を確認する習慣をつける」など、デジタル時代の“情報リテラシー”を育てる授業づくりも、今後ますます求められていくでしょう。
- 研究動向を把握し
- 問題事案を分析し
- 必要に応じて指導・情報提供を行う
病院や介護施設で使われるAIにも関わってくる
最近では、病院での画像診断や問診チャットボットなど、AIを使った医療支援が進んでいます。介護施設では、見守りAIや会話支援AIが導入され、高齢者のケアを支える役割も果たしています。
ここで注意しなければならないのは、AIがすべての人に対して公平に機能しているか?という点です。もしAIが特定の性別、年齢、人種などに偏ったデータで学習していた場合、誤診や不適切な判断をする危険性があります。
AI推進法では、このような場面に対して、「適正な研究開発」や「倫理性・透明性の確保」が必要とされています。たとえば、医療AIに使うデータセットは偏りがないように点検し、どんな基準で判断しているのかを医師や患者が理解できるようにする――これが法律の理念に基づく対応の一例です。
こうした配慮が制度として実現すれば、AIが人命に関わる現場でも安心して使える環境が整っていくでしょう。
- 高リスク分野(医療、司法、安全保障など)では、AI開発において説明責任や検証義務が必要になる
- 政府の基本計画に「医療分野におけるAIの活用ルール」が盛り込まれる
法律と日常がつながる時代へ
AI推進法は、すぐに目に見える効果をもたらす法律ではありません。しかし、学校、職場、家庭、地域社会、医療の現場など、あらゆる場所で使われ始めたAIに対して、「安全に使える道しるべ」を作るための“はじめの一歩”です。
私たち一人ひとりの暮らしが、AIによって便利になる一方で、傷ついたり、不利益を受けたりすることがないようにするためには、こうした法律が必要不可欠なのです。
そして、法律は一度作って終わりではなく、現場の声や変化に応じて見直され、進化していくものです。だからこそ、市民である私たちも「AIを使うとき、どんなルールがあれば安心できるか?」「どこが不十分なのか?」という視点で、この法律に関心を持ち続けることが求められます。
日本のAI政策はどこへ向かう?
AI推進法によって、日本はようやく「AIに関する国家戦略を持つ国」になりました。しかし、世界に目を向けると、他の国々はすでにAIをめぐるルール作りに本格的に乗り出しています。ここでは、日本と主要国の制度を比較しながら、日本のAI政策が今後どこへ進むべきかを探ります。
欧州は「AI規制先進国」――人権と倫理を最優先
EU(ヨーロッパ連合)は、世界で最も厳格かつ網羅的なAI規制を導入した地域です。2024年に発効した「AI Act(AI規制法)」は、AIを「低リスク」「中リスク」「高リスク」「禁止」と4つに分類し、それぞれに応じた義務を定めています。
例えば、顔認証技術や信用スコアシステムのように、差別や監視につながるリスクの高いAIには、極めて厳しい制限がかけられます。企業は、透明性の確保や人による監督、説明責任、監査体制を整えなければならず、違反した場合には数千万円から数十億円に及ぶ罰金が科されることもあります。
このような姿勢の背景には、欧州が「個人の尊厳」「自由」「人権」を技術より優先させる文化的・歴史的価値観を強く持っていることがあります。技術が暴走して社会に害を与えるリスクを恐れ、その“歯止め”を法によってあらかじめ用意しておくというわけです。
アメリカは「技術主導」――自由と競争を軸にした政策
一方でアメリカは、AI政策の方向性がEUとは大きく異なります。アメリカ政府は「過剰な規制はイノベーションを妨げる」と考え、民間主導でのAI開発を後押しする姿勢が強いのが特徴です。
とはいえ、まったくルールがないわけではありません。2023年にはバイデン政権が「AIの責任ある開発のための大統領令」を発表し、政府調達におけるAI基準の導入や、高リスクAIの事前評価制度の導入を打ち出しました。さらに州ごとには、カリフォルニア州などでAIによる差別やプライバシー侵害を取り締まる法制度が進められています。
つまりアメリカは、「まず開発を進めてから、必要なところだけ規制をかけていく」――言い換えれば“後追い型の対応”を取っています。これには、シリコンバレーを中心とする巨大IT企業群が政治・経済に与える影響も無視できません。
中国は「統制主義」――国家主導で一元管理
中国はまた異なる道を進んでいます。AIの急速な普及と同時に、それを徹底的に国家が管理する体制を整えつつあります。たとえば生成AIの利用には登録制が導入され、サービス提供企業は政府のガイドラインに従って検閲や情報管理を行うことが義務づけられています。
また、AIを活用した監視カメラや顔認証システムが公共空間に大量に設置され、市民の行動や信用スコアを日常的にチェックする社会システムも構築されています。このように、中国ではAIが「個人を管理し、国家統治の効率を上げる手段」として使われている点が非常に特徴的です。
もちろんこの体制には、プライバシーや表現の自由が大きく制限されるという深刻な問題もあります。民主主義や個人の権利を重視する日本や欧米とは、根本的にAIの使い方に対する考え方が異なるのです。
日本の位置づけ――「何も決めない自由主義」
さて、ここで日本に目を戻してみましょう。AI推進法によって、日本はAIを「安全保障や経済にとって重要な技術」と位置づけましたが、制度面では非常に“ソフト”な構造にとどまっています。
AI推進法には「倫理」「透明性」「調査」などの言葉は多く登場しますが、それを強制する義務や罰則は一切ありません。つまり、「何か起きたときに調査はするけれど、基本は企業の自主努力に任せます」という立場なのです。
この「何も決めない自由主義」は、たしかにイノベーションのスピードは落とさないかもしれません。しかし、もし悪質なディープフェイクやAIによる差別的処遇が起きたとしても、被害者は泣き寝入りするしかない――そんな状態に陥るリスクも高いのです。
望まれる方向性――“バランスの取れた”法整備へ
日本が今後進むべき道は、単なるEU型の厳格規制でも、アメリカ型の放任主義でもなく、「人権を守りながらイノベーションを育てる」中庸のルートを築くことです。
そのためには、いくつかの具体的な改善が求められます。たとえば、高リスク分野(医療、教育、選挙、司法など)に限定して、最低限の倫理審査や事前説明義務を導入すること。また、AIで生じたトラブルや事故については、企業に報告義務を課す仕組みも必要です。
さらに、AIに使われるデータがどこから来たのか、どう加工されたのかが見える「データトレーサビリティ制度」の整備も、信頼性を高めるカギになるでしょう。これらはすべて、現行のAI推進法の枠組みに、規制的要素を段階的に追加する形で実現可能です。
AI政策の最終目標は何か?
日本のAI政策がめざすべき究極のゴールは、単に「開発競争に勝つこと」ではありません。人間が安心してAIを使いこなし、共存できる社会をつくることこそが本質です。
AIに頼る社会は、時に便利すぎて思考停止を生みます。だからこそ、制度の側では「説明を求める権利」「同意を拒否する自由」「差別されない仕組み」を整え、使う側の私たちも「疑い」「問い直す力」を持ち続ける必要があります。
この2つが両輪となって動くことで、初めて「技術の進歩」と「人の幸福」が両立する社会が実現するのです。
AI推進法は、日本がようやく「AIを国としてどう扱うか」に向き合い始めた第一歩です。ただし、それは決して完成形ではなく、いわば“骨組みだけの家”。これから私たちは、その中にどんな壁をつくり、どんな窓を開け、どうやって守るのかを選び続けなければなりません。
世界の国々が、技術革新と人権のバランスを模索する中で、日本は「緩やかな推進」を選びました。それが吉と出るか、凶と出るかは、私たちがこの法律にどれだけ関心を持ち、どれだけ声をあげるかにかかっています。
AIはもはや“専門家のもの”ではありません。暮らしのそばにあるからこそ、「知らなかった」では済まされない時代が、すぐそこまで来ています。
この法律が、希望ある未来の足場となるのか、それとも空回りの象徴となるのか――。
今後のアップデートに、私たち一人ひとりの目と判断が求められているのです。