2024年度クラウドネイティブセキュリティおよび利用状況レポート
世界各地でAIの利用が拡大する中、AIの安全かつ倫理的な利用を保証するためのAIガバナンスの枠組みが求められており、各国が政策やガイドラインを策定しています。ここでは、世界の主要なAIセキュリティ規制の例を紹介します。
中国は、2017年の新世代人工知能開発計画で2030年までにAI分野での世界的リーダーを目指し、データセキュリティやAIの倫理的利用に注力していますが、罰則はなく、既存のフレームワークの強化に重点を置いています。シンガポールは、2019年にAIガバナンスフレームワークを発表し、企業向けの具体的なガイダンスを提供しています。カナダは、2019年に自動化された意思決定に関する指令を発効し、リスク評価ツールを導入しています。
米国は、2020年に国家AIイニシアチブ法を制定し、AI研究開発を強化し、国家安全保障を保護する取り組みを行っています。欧州連合は、包括的なAI法を進行中で、リスク管理を重視し、高リスクのAIシステムに対する規制を計画しています。英国も独自の規制枠組みを策定中で、公共の安全と倫理を確保しつつイノベーションを促進することを目指しています。インドは、AIの基礎理解を広めるための「AI for All」プログラムを提供しています。
これらの取り組みは、AI技術の安全で倫理的な開発と導入を保証するための枠組みを構築し、AIの機会と課題に対応するために不可欠なものです。
詳細はこちら