悪質事業者は公表、AI新法を閣議決定 開発推進めざす
- 記事を印刷する
- メールで送る
- リンクをコピーする
- note
- X(旧Twitter)
- はてなブックマーク
- Bluesky
政府は28日、人工知能(AI)の開発促進と安全確保の両立をめざす「AI関連技術の研究開発・活用推進法案」を閣議決定した。人権侵害やサイバー攻撃への悪用など生成AIがもたらすリスクに対応し、悪質な場合は国が実態調査をしたうえで事業者名を公表する。
日本でAIの開発促進や規制を巡る法整備に踏み込むのは初めてとなる。法案はAIを安全保障上重要な技術と位置づけて、開発力を高め国際競争力の向上につなげるとの理念を掲げた。
首相が本部長で全閣僚をメンバーとする「AI戦略本部」を設置し、AI政策の司令塔機能の創設を盛り込む。本部は研究開発を進めるための基本計画策定を担う。
法整備はAIの開発力強化や利活用促進に加えて、リスク対応にも触れる。
不正な目的や不適切な方法によるAI関連技術の研究開発や活用で国民の権利侵害が生じた際、国が分析し対策を検討すると定める。その結果に基づいて「指導、助言、情報の提供その他の必要な措置を講ずる」と明記した。
AIによる著しい人権侵害を確認したり、指導しても改善がみられなかったりした場合にAIの開発事業者と、活用事業者らを公表することが可能になる。事例が悪質かどうかの調査はそれぞれの分野の所管省庁が担い、判断基準は新法施行後に詰める。
自民党内には当初、先行して規制法が施行された欧州連合(EU)と同様に違反した事業者への罰則を求める意見があったものの見送った。過度な規制はイノベーションの促進の妨げになる恐れを考慮した。
AI政策を担当する城内実科学技術相は28日の記者会見で「日本が世界で最もAIを開発・活用しやすい国となるようめざす」と語った。
城内氏は罰則の見送りに関して「イノベーションを促進し社会実装を進めることが重要で過剰な規制は避ける」と話し悪質な事例は既存の法令も活用して対応する考えを示した。
政府が企業の自主性を尊重してきた方針を転換し、法整備に取り組むのには利活用の遅れや、権利侵害が多発するなど社会の不安の高まりが背景にある。
米スタンフォード大の調査によると、2023年のAIへの日本の民間投資額は7億ドル(1050億円)にとどまった。1位の米国(672億ドル)、2位の中国(78億ドル)から大きく引き離されている。
総務省によると、生成AIを利用している個人は9%、業務で利用している企業は米国が8割を超えているのに比べ、日本は5割に満たない。
生成AIの発展が進み、サイバー攻撃への悪用、本物と酷似した画像や動画を作成する「ディープフェイク」による偽・誤情報の拡散、詐欺などの犯罪助長も頻発する。
AI開発は海外事業者が先行する。日本は各国の規制の議論を注視しながら開発を促進しつつ、AIがもたらすリスクにも備えるバランスを保った制度設計をめざす。
- 記事を印刷する
- メールで送る
- リンクをコピーする
- note
- X(旧Twitter)
- はてなブックマーク
- Bluesky
こちらもおすすめ(自動検索)
操作を実行できませんでした。時間を空けて再度お試しください。
権限不足のため、フォローできません
日本経済新聞の編集者が選んだ押さえておきたい「ニュース5本」をお届けします。(週5回配信)
ご登録いただいたメールアドレス宛てにニュースレターの配信と日経電子版のキャンペーン情報などをお送りします(登録後の配信解除も可能です)。これらメール配信の目的に限りメールアドレスを利用します。日経IDなどその他のサービスに自動で登録されることはありません。
入力いただいたメールアドレスにメールを送付しました。メールのリンクをクリックすると記事全文をお読みいただけます。
ニュースレターの登録に失敗しました。ご覧頂いている記事は、対象外になっています。
入力いただきましたメールアドレスは既に登録済みとなっております。ニュースレターの配信をお待ち下さい。