技術戦略部会
欧州委員会「LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISTLATIVE ACT)(AI規則法案)」へのJEITA意見
JEITA技術戦略部会では、この度、欧州委員会「LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISTLATIVE ACT)(AI規則案)」に対して、関連部会・委員会等とも連携しつつ、意見を提出致しました。
意見概要
一般社団法人電子情報技術産業協会(JEITA) は、国内外の約400社で構成された日本最大級のICT・エレクトロニクスの業界団体です。JEITAは、欧州委員会がAIシステム利用におけるリスクの高低、及び既存法令との調和を考慮したことを支持します。以下、意見を述べさせていただきます。
1. AI規則案の基本的な考え方に関して
・AI導入のリスク評価
自動運転や医療診断などでは、人間よりもAIによる判断の方が優る場合も多くなりつつあります。これを鑑み、リスクベースアプローチによる新たな法規制は、AIの導入前後でのリスクの比較評価を踏まえて設計し、必要最小限の導入にするべきです。
・イノベーションと規制のバランス
進化が速い技術分野での市場形成や欧州が世界のAI開発ハブになる上で、第三者機関認証やCEマーキングといった従来型規制手法の過度な適用は、普及や市場投入での遅れにつながります。また、現法案では、ハイリスクAIに対する市販前・後の要求条件が多岐にわたるため、新技術導入や更新毎に多大なコンプライアンス対応コスト(労力、時間)が求められ、欧州への投資意欲や新興AI企業などの育成・強化を妨げかねません。技術の安全・安心な利用の担保と欧州域内の産業競争力確保、安全保障とのバランス、技術進化へのAIガバナンスの迅速な適応性を踏まえて、ハイリスクAI要求条件の適正化が必要です。
2. 特に重要な条文への意見
法の安定性、予見可能性を向上すべく、下記の修正、明確化が必要です。
・Prohibited AI、High-risk AIの対象、リスク根拠の明確化
・リモート生体識別システムでは、距離的観点より、本人が生体識別実施を認識しているか否かが本質で、本人認識性の有無による定義へ修正すべきです。
・生体情報を秘匿したまま登録、照合可能なテンプレート保護技術などを用いる場合は、属性(性別、人種、年齢等)は推定できません。差別に繋がらないことが確認された生体識別システムは対象から除外すべきです。
・既存法令での十分な安全性や公平性が確保されている場合(法令EU-MDR(EU 2017/745が既に適用されている医療機器、フェールセーフやフォールトトレラントなどのリスク排除設計がされている重要インフラなど)や、AI規制サンドボックスなどでリスクが十分に低いと確認された場合、ハイリスクAI適用の除外、緩和、関連セクタ法令との矛盾なき運用をすべきです。
・ユースケースに基づくProhibited AI、High-risk AIの定義、要求条件の明確化
ユースケース毎のリスクに基づき、AIシステムの規制対象と要求条件の適用を決めるべきであり、関連業界と連携の下、ユースケース毎の類型の提示を含め、実効性のあるAIシステムガイドライン作成が必須です。
・AIシステムの提供者と利用者との適切な責務分担
GDPR等の既存法令での責務分担の考え方との整合性も考慮しつつ、データの出所なども管理し、利用者側での適切な利用と協力を求め、両者で適切に責務分担を明記する修正が必要です。
・マルチステークホルダー及び国際協調によるAIガバナンスの確立
EAIB等での本法案施行に関する詳細検討や、Annexの更新、規則適用後の評価・見直しでは、実効的な内容とするべく、産業界、AI専門家を含むマルチステークホルダーの参画が必須です。また、日本を含む国際協調により、グローバルガバナンスの枠組みを確立、維持しつつ、適合性評価が参入障壁とならないよう、公平性を確保すべきです。
・罰則内容の適正化
事業者のリスクマネジメント判断のため、罰金の基準や幅についてより詳細、公正な情報提示が必要と考えます。また、罰則適用検討の公式資料は、訴訟の長期化を考慮し、エビデンスとして、ログなどよりも十分長く保管すべきです。
別添のポジションペーパーも併せて参照下さい。
JEITA 意見全文/英文<提出版>