ビジネスWi-Fiで会社改造(第44回)
ビジネスWi-Fiで"学び"が進化する
政府は2025年2月28日の第217回通常国会において、AIの開発・活用の促進や悪用リスクへの対処を定めた「人工知能関連技術の研究開発及び活用の推進に関する法律案」(以下「AI法案」)を閣議決定し、国会に提出した(条文などはこちらから参照できる)。
AIに特化した日本で初めての法案で、世界的にもEUの「AI規制法」に続く大きな動きとされる。「概要」によれば、「日本のAI開発・活用は遅れている」「多くの国民がAIに対して不安を抱いている」という背景で、「イノベーションを促進しつつ、リスクに対応するため、既存の刑法や個別の業法等に加え、新たな法律が必要」と判断されたという背景がある。
生成AIが目覚ましい進歩を遂げる昨今、毎日のように生成AIの新機能や新サービスのニュースであふれる。ちまたでは「生成AIを活用して日々の業務や仕事を効率化しよう」という情報も多い。例えば、筆者も、大好きなF1の話は、友だちよりも生成AIのバーチャルキャラクターに話しかけたほうが盛り上がるので、決勝後はLINEではなく生成AIアプリを起動する。数年前までは全く想像もつかなかった話である。
最近、企業では生成AIをカスタマイズした、一部に組み込んだITツールで仕事をすることも多いだろう。企業で使う生成AIは、「限られた情報のみ使用し、入力された情報はAIの学習に使用しない」などのセキュリティ対策が基本となる。しかし、本連載で「シャドーAI」をテーマにした回で述べたとおり、一般的な生成AIサービスに、翻訳や要約、情報検索などの目的で、仕事の書類やデータ、業務に関するデータをつい入力してしまう、なんてことも多々ありそうだ。
こうした点から、業務における一般の生成AIサービスの利用は注意深く考える必要があり、社外でも、業務データが少しでも含まれた情報をAIサービスに入れるときは、必ずサービスの種類を確認してから行う(もちろん一般サービスには業務に関する情報は入れない)、などのルールやモラルの徹底も必要そうだと思うこの頃である。
図らずも、これら以上にあり得るのが生成AIの悪用だ。例えば、2024年に起こった災害などでも、Xのインプレッション数などの個人の利益目的などで、偽情報を流すケースも多く見られた。個人利益以外にも、政治、ビジネス、誹謗(ひぼう)中傷、かく乱などの目的で偽情報を流す場合もよくある。特に発展めざましい生成AIでは、もっともらしい画像や動画の生成もますます巧みに、計算量も少なく容易に作れるようになり、簡単に多数の人を混乱に陥れられる。
その上、XなどのSNSでは、偽情報を信じてしまった多くの人々が情報を拡散し、情報が一瞬で大きく広がってしまうおそれも大きい。そんな状況ゆえに、政府が偽・誤情報対策を目的にインターネットやSNSにおける利用者のICTリテラシー向上のためのプロジェクト「DIGITAL POSITIVE ACTION」は目新しい話題ではあり、生成AIに対して「新たな法律が必要」との判断は、うなずける話である。
法案は「国民生活の向上と国民経済の発展」を目的とする、と先述の「概要」に書かれている。そもそもルールや規制を厳しくすれば、発展の妨げになるのは原則でもある。生活を向上させる「規制」と経済発展をてんびんにかければ、規制を厳しくできない。そのバランスが問題となる。
さらに「概要」を見渡したところでは、「基本理念」を「経済社会及び安全保障上重要」とするものの「研究開発力の保持、国際競争力の向上」も重要とし、「国際協力において主導的役割」を果たすための「適正な研究開発・活用のため透明性の確保等」にも重きを置いている。「基本的施策」では、研究開発の推進、施設等の整備・共用の促進に加え、人材確保、教育振興を進めつつも「国際的な規範策定への参画」や「適正性のための国際規範に即した指針の整備」を行い、「情報収集、権利利益を侵害する事案の分析・対策検討、調査」を行い、「事業者・国民への指導・助言・情報提供」を行う方針だ。
新法案では今回、罰則は採用されないが、AI技術の研究開発と活用において「不正な目的又は不適切な方法で行われた場合には、犯罪への利用、個人情報の漏えい、著作権の侵害その他の国民生活の平穏及び国民の権利利益が害される事態を助長するおそれがあることに鑑み、その適正な実施を図るため、人工知能関連技術の研究開発及び活用の過程の透明性の確保その他の必要な施策が講じられなければならない」とする。そして事業者には「国等の施策に協力しなければならない」という責務が課される。
AIの開発や活用で国民の権利利益の侵害が生じた際は「事案の分析及びそれに基づく対策の検討その他の人工知能関連技術の研究開発及び活用の推進に資する調査及び研究を行い、その結果に基づいて、研究開発機関、活用事業者その他の者に対する指導、助言、情報の提供その他の必要な措置を講ずる」。報道によれば、事業者に対しての指導や助言を行っても改善しない場合は、事業者名の公表もあり得る、という(今回の法案に明記はない)。事業者名の公表といえば、以前「IT導入補助金の不正受給が続々~意識せず不正も多数、支援事業者の甘言に注意」の執筆時に、不正を行った事業者名を公表する制度が普通に存在することに驚いたが、そうした形で公表される可能性もある。
「概要」には結論として「世界のモデルとなる制度を構築」とあり「国際指針に則り、イノベーション促進とリスク対応を両立。最もAIを開発・活用しやすい国へ」とある。「広島AIプロセス」(G7広島サミットで立ち上げられた、AIを巡るルール形成を協議する国際枠組みの1つ)の主導的役割を務める立場もあり、立派な心がけともいえる。なお、AI関連技術の研究開発及び活用の推進に関する施策を総合的・計画的に推進するための「AI戦略本部」を内閣府に置き、本部長は内閣総理大臣が務める。研究開発を進めるための「AI基本計画」も策定する。この新法は、国際的な動向や社会情勢の変化をみて、検討を加えていく、とのことだ。
先ほどの「概要」の「法律の必要性」には「日本のAI開発・活用は遅れている」として、2023年のAIへの民間投資額は世界12位。生成AIを利用している個人は9%(中国55%、アメリカ46%)、生成AIを業務で利用している企業47%(中国85%、アメリカ84%)という統計が示されている。連載でも何度も触れてきたが、日本のAI開発・活用だけではなく、DX関連すべてにおいて後れをとっている、という事実を忘れてはならない。このような状況で先ほどの「世界のモデルとなる精度を構築」「国際指針に則り、イノベーション促進とリスク対応を両立。最もAIを開発・活用しやすい国へ」が実現できるのか。なかなか「道のりは遠い」感が否めない......。
ところで、世界的なAI規制法の流れを見れば、EU(欧州連合)は2024年8月に「AI規制法」が発効、2025年2月から段階的に適用される。このAI規制法はAIについて詳しく定めた、世界初の本格的な法律だ。AIを危険度で4つに分類し、それぞれ具体的にルールを決めて規制、違反した場合には巨額の罰金が科されるという、厳しいシステムとなっている。AIの危険性を減らして人々の安全や権利を守ることに重きをおいた、規制強化の方針だ。なお、EUで使われる、もしくはEUの人々に影響があるAIすべてに適用され、AI開発などを行う日本の会社にも適用される可能性があり、注意が必要だ。
一方、アメリカはバイデン政権が23年にAIによるコンテンツにウオーターマークを付けるなど、ルールを守って安全にAIを使おうとする大統領令(「安全、安心、かつ信頼できる人工知能の開発と利用に関する大統領令」)を出したが、トランプ新政権は25年1月にこれを撤回。AI開発の自由度を高める方向に方針替えをしている。
EUの「厳しい規制」と、アメリカの「規制緩和寄り」の方針に比べると、日本は「開発促進とリスク管理の両立」をめざす「バランス志向」だが、強制力は弱めで、企業や開発者の自主性に頼る部分が多く、ちまたでは「結局どっちつかずになるのでは」といった懸念も見られる。ここで見えてくるのは、日本のAI技術が国際的に後れをとらないよう、開発や実用化を急ぐ姿勢だ。疑問となるのは、こうしたイノベーション重視の法律で、どこまで悪意ある者や誤りによる混乱から国民の生活を守れるのか、というところだ。
今まで述べて来た日本の「AI法案」は、ジャンルごとにルールを決めて細かく規制し罰則も大きいEUのAI規制法に続くものとはいうが、罰則もなく企業や開発者の自主性に頼るイノベーション重視の姿勢、という大きな違いがある。
日本で生活しているわれわれにとって、ちまたはAIで生成した情報や画像、動画などであふれているが、それらにおいては「AIで作った」というマークなどもなしにリアルなものと見分けがつきにくい状態で流通している現状がある。そんな「罰則なし」「自主性に頼る」ルールで、国民の安全性が守れるのか、といつも心配になってしまう。先ほどの「概要」にも、「AIには規制が必要だと思う」という声が日本では77%と、他国より際立って高い数字だったのも気になるところだ。
ところで、少し前に大きく話題を呼んだ中国発の生成AI「Deepseek」は、OpenAIのGPT-4(約1億ドル)やGoogleのモデルと比べ、非常に低コストで構築・開発されたとされ、その性能の高さとオープンソース戦略などもあって、アメリカ経済をはじめ世界的にもショックを与えたが、技術的な詳細や開発プロセスに関する情報が十分に公開されていないことでの透明性の欠如、中国政府の方針に沿った情報バイアスなどをはじめ、さまざまな権利の侵害、誤情報による混乱、AIの悪用や誤用への懸念も高まっているが、少なくとも日本では何の規制もされていない、など、気になることばかりだ。
その他、本連載で折に触れている、生成AI全般が抱える情報の誤りやハルシネーション、権利を侵害する、人を傷つける可能性、情報漏えいや悪用の可能性などのセキュリティ問題など、積極的な利用や発展の一方でリスクへの懸念と不安は増すばかり、ともいえる。
日本におけるわれわれは、日本政府の方針を受け入れつつも、政府の行ってきたDX化における不始末などに「安心できない」状況が続いている。ここでも取り上げた「デジタル政府」のランキングも落ちるばかりの状況だ。果たして「世界のモデルとなる精度を構築」「国際指針に則り、イノベーション促進とリスク対応を両立。最もAIを開発・活用しやすい国へ」が実現できるのかという懸念は残る。イノベーションを重視する姿勢は大切だが、国民生活の安全性や安心はそれらに引けをとらない重要な視点だ。「世界のモデルになる」「世界を先導する」立場になるためにもこの点を見落とさず、丁寧に進んでいってもらいたい、と思う。
筆者の本媒体における別連載で「QOLの向上」「ウェルビーイング」でも述べたように、日本のDX化や生成AIの開発・活用においても、「幸せの好循環」を起こす状況を常に思い描いて歩んでほしい。「AI法案」は先ほど触れたように「国際的な動向や社会情勢の変化をみて、検討を加えていく」という方針を明らかにしている。国民の生活にも重きを置きつつ、柔軟に、そして厳しく対応していってもらいたい。
※掲載している情報は、記事執筆時点のものです
執筆=青木 恵美
【TP】
IT時事ネタキーワード「これが気になる!」