背景:段階適用が次のフェーズへ
2024年8月に発効したEU AI Actは段階的な適用スケジュールを取り、2026年8月から高リスクAIに対する規制が本格的に開始されます。GDPRと同様に域外適用される枠組みであり、欧州市場と取引のある日本企業も対象です。
現状と論点
- 欧州事業を持つ日本企業の38%が「対応未着手」 特に中堅企業で着手の遅れが顕著。「うちは関係ない」という認識ギャップが広い。
- 高リスクAIに該当する用途が広い 採用選考、信用評価、医療診断、教育評価、重要インフラ運用など、業務横断で該当ケースが存在。
- 制裁金は最大3,500万ユーロ または 全世界売上の7% GDPR(4%)を上回る水準。経営リスクとして取締役会レベルでの監督が必要。
- 「AI倫理委員会」設置率:大企業22%、中堅5% ガバナンス体制の整備が制裁回避の前提条件。
日本企業がすべき3つの準備
- 1. AI利用棚卸しと用途分類 社内で稼働中・開発中のAIシステムを全件リスト化し、AI Actのリスクカテゴリ(禁止/高リスク/限定リスク/最小リスク)に分類する。判定が難しいものは法務と一緒に判断する。
- 2. 透明性・説明可能性のドキュメント整備 学習データ、モデルアーキテクチャ、性能、既知の制約を文書化。利用者・影響を受ける人への通知メカニズムを設計。
- 3. インシデント対応プロセス構築 重大インシデント発生時の当局報告、ユーザー通知、是正措置の手順を事前に定める。テーブルトップ演習で実効性を確認。
AI Act対応は単なるコンプライアンスではなく、AI利用の品質保証プロセスそのものです。早期に着手した企業は、これを社内のAIガバナンス強化のテコとして活用できます。
← News・調査レポート一覧へ戻る