背景:段階適用が次のフェーズへ

2024年8月に発効したEU AI Actは段階的な適用スケジュールを取り、2026年8月から高リスクAIに対する規制が本格的に開始されます。GDPRと同様に域外適用される枠組みであり、欧州市場と取引のある日本企業も対象です。

現状と論点

  1. 欧州事業を持つ日本企業の38%が「対応未着手」 特に中堅企業で着手の遅れが顕著。「うちは関係ない」という認識ギャップが広い。
  2. 高リスクAIに該当する用途が広い 採用選考、信用評価、医療診断、教育評価、重要インフラ運用など、業務横断で該当ケースが存在。
  3. 制裁金は最大3,500万ユーロ または 全世界売上の7% GDPR(4%)を上回る水準。経営リスクとして取締役会レベルでの監督が必要。
  4. 「AI倫理委員会」設置率:大企業22%、中堅5% ガバナンス体制の整備が制裁回避の前提条件。

日本企業がすべき3つの準備

  • 1. AI利用棚卸しと用途分類 社内で稼働中・開発中のAIシステムを全件リスト化し、AI Actのリスクカテゴリ(禁止/高リスク/限定リスク/最小リスク)に分類する。判定が難しいものは法務と一緒に判断する。
  • 2. 透明性・説明可能性のドキュメント整備 学習データ、モデルアーキテクチャ、性能、既知の制約を文書化。利用者・影響を受ける人への通知メカニズムを設計。
  • 3. インシデント対応プロセス構築 重大インシデント発生時の当局報告、ユーザー通知、是正措置の手順を事前に定める。テーブルトップ演習で実効性を確認。

AI Act対応は単なるコンプライアンスではなく、AI利用の品質保証プロセスそのものです。早期に着手した企業は、これを社内のAIガバナンス強化のテコとして活用できます。

← News・調査レポート一覧へ戻る