- 投稿日:2025/01/30
- 更新日:2025/04/22
人工知能(AI)の急速な発展に伴い、世界各国ではその倫理的な利用と規制に関する取り組みが進んでいます。
2025年4月現在、EUのAI規制法(AI Act)をはじめ、ユネスコのAI倫理勧告、日本の「AI戦略会議」、そして広島AIプロセスは、AIの未来を形作る重要な取り組みとして注目されています。
■ EUのAI規制法(AI Act)
2024年8月1日に発効したEUのAI規制法は、世界初の包括的なAI規制法として注目されています。
この法律は、AIシステムをリスクに基づいて分類し、各リスクレベルに応じた規制が適用されます。
【リスク分類と規制】
A: 許容できないリスク(Unacceptable Risk) 規制中
社会的スコアリングなど、人権を侵害する恐れのあるAIシステムは使用が禁止されています。
B: 高リスク(High Risk) 規制中
医療機器や雇用関連のシステムなどは、2025年2月2日から厳格な適合性評価や透明性要件の下で規制対象とされ、特定のAIシステムの使用が禁止されました。
続きは、リベシティにログインしてからお読みください