1. トップ
  2. Policy(提言・報告書)
  3. 科学技術、情報通信、知財政策
  4. 欧州委員会 "Proposal for a legal act of the European Parliament and the Council laying down requirements for Artificial Intelligence" に対するインセプション・インパクト・アセスメントへの意見

Policy(提言・報告書) 科学技術、情報通信、知財政策 欧州委員会
"Proposal for a legal act of the European Parliament and the Council laying down requirements for Artificial Intelligence" に対するインセプション・インパクト・アセスメントへの意見

一般社団法人 日本経済団体連合会



At the same time, AI may generate new safety risks for users and third parties, which are not yet explicitly tackled clearly by the product safety legislation. For example, in principle stand-alone software is not explicitly covered by EU product safety legislation, with the consequence that the risks generated by the probabilistic nature of AI are not yet clearly and specifically addressed by existing safety rules. Additionally, such legislation focuses on safety risks present at the time of placing the product on the market and presupposes "static" products, while AI systems can evolve. In addition to generating new safety risks for user and third parties, the lack of clear safety provisions tackling such risks may give rise to:

  • legal uncertainty for businesses that are marketing their products involving AI in the Union, as well as for those using such products in their own processes, and
  • challenges for market surveillance and supervisory authorities which may find themselves in a situation where they are uncertain whether they can intervene, because they may not be empowered to act and/or may not have the appropriate tools and means to inspect AI-enabled systems.
    Specific challenges on product safety are currently also being addressed by other ongoing initiatives, such as the revisions of the Machinery Directive and of the General Product Safety Directive. The Commission will ensure coherence and complementarity between those initiatives and this initiative.
  • 新たな規制の導入を検討する場合には、既存の規制・制度を十分に留意しつつ検討すべきであり、ソフトウェアやサービス等の、ハードウェアに組み込まれたAI技術に拡大すべきではない。規制対象の変更は、AIシステムの開発者が直接関与できない問題に対する責任を負うことにつながり、AIシステムの開発と使用を阻害する可能性がある。

  • 既存の安全規制はAI技術を対象として想定していないため、新たな安全上のリスクに対処する明確な規定がないという問題の解決には時間を要するが、AIシステムの開発者、プロバイダー、デプロイヤー、ユーザーを含む社会全体が享受するメリットとリスクのバランスを考慮して、議論を重ねていくべきである。


More specifically, the aims are:

  1. (a) to ensure the effective enforcement of rules of existing EU law meant to protect safety and fundamental rights and avoid illegal discrimination by ensuring the relevant documentation for the purposes of private and public enforcement of EU rules;
  2. (b) to provide legal certainty for businesses that are marketing their AI-enabled products or using such solutions in the EU as regards the rules applicable to such products and services;
  3. (c) to prevent where possible or to minimise significant risks for fundamental rights and safety;
  4. (d) to create a harmonised framework in order to reduce burdensome compliance costs derived from legal fragmentation, which could jeopardise the functioning of the Single Market;
  • 事業者にとって、事業の法的な位置づけが明確であること、法の裏付けによりAI関連の製品・サービスの信頼が向上すること、及び調和がとれた枠組みの整備によりコンプライアンスコストが低減されることは望ましく、インセプション・インパクト・アセスメントにおける議論を歓迎する。

  • 規制の整備を進めるにあたり避けられない説明責任に関する議論においては、AI活用の領域、社会的影響などの背景を考慮すべきである。 異なる様々な領域で事業を展開する事業者に対して一律の説明責任を義務化することは、多分野でのAI活用を阻害するおそれがあり、望ましくない。

  • AIに関する権利・義務関係は、法制度によって整理しきれないケース、網羅的な整理がそもそも困難なケースがある。そうした場合も、当事者間の契約によって権利・義務関係を明確化することで、事業の法的安定性や、ユーザーの安全が確保され得る。当事者間の自発的かつ柔軟な自由契約によって担保される安心・安全があることに留意し、新たな規制に関する議論を進めることが望ましい。


Alternative options to the baseline scenario

  • 先進的で信頼性の高いデータドリブン社会の利益を実現するうえではイノベーションと規制のバランスをとることが重要であり、同時に、不必要な細分化を回避する国際的な規制の調和を確保することが望ましい。規制下で可能な対応と認められない対応の線引きの不明瞭さが、欧州でAIソリューションを開発・展開する際の障壁の一つとなり、十分に規制を遵守できているか確証を得られないという懸念により、多くの官民双方との商談の進行が妨げられている。

  • 前提として、既存の規制・制度(例:医療機器のAIであれば、医療機器に関する規制など)で規定できる部分は、既存の枠組みにおいて規定するなど、開発者にとって遵守すべき法制度が複雑とならないようにすることが望ましい。特に、新たな規制の導入を検討する場合は、既存の規制・制度との整合性を確保しつつ、二重行政が生じないように特に注意を払い、必要最小限にすべきである。


(1) Option 1: EU "soft law" (non-legislative) approach to facilitate and spur industry-led intervention (no EU legislative instrument)

  • 既存の規制・制度では規定できない分野に関して、ソフトローアプローチによる政策検討は有効である。ハイリスクAIを定義し規制するのは時期尚早である現状において、明確な根拠なくAI製品・サービスに事前規制を課せば、欧州の産業育成や社会課題解決に資するイノベーションの阻害要因となる恐れがある。

  • したがって、事業者の自主的対応を適切に評価する官民共同のスキームの整備を通じ、業界主導での対応を促進し、市場におけるAIの信頼を高めることが望ましい。

  • 産業界の自主的対応が広く認識され活用されるためには、国際基準と調和が取れていることが必要である。AIアプリケーションの開発と利用に関連するリスクへの対処方針の決定に向けては、すべての利害関係者のための継続的な調査、議論、改善が必要であり、企業の自己統治は特に基本的権利を保護するために重要である。


(3) Option 3: EU legislative instrument establishing mandatory requirements for all or certain types of AI applications (see sub-options below).

a. As a first sub-option, the EU legislative instrument could be limited to a specific category of AI applications only, notably remote biometric identification systems (e.g. facial recognition). Without prejudice to applicable EU data protection law, the requirements above could be combined with provisions on the specific circumstances and common safeguards around remote biometric identification only.

  • 「リスクの高いAIアプリケーション」として挙げられる顔認識や指紋データ等のバイオメトリクスデータは、定義と正しい理解がコンセンサスに達しておらず、利用に係る法制度が未整備である。遠隔生体認証や生体確認等の範囲・用途の定義や両者の区別を明確化したうえで、民間活用を過度に抑制することのないよう、慎重に議論することが必要である。

  • 遠隔生体認証の使用条件と運用中に必要な措置を明確にするため、実用的なガイドラインの策定が求められる。ガイドライン内では、遠隔生体認証システムの定義と使用法の分類も明示すべきである。


b. As a second sub-option, the EU legislative instrument could be limited to "high-risk" AI applications, which in turn could be identified on the basis of two criteria as set out in the White Paper (sector and specific use/impact on rights or safety) or could be otherwise defined.

  • 「ハイリスク」の評価は、国際的な標準化に関する議論を行っている機関における「リスク」の既存の議論と定義に基づくべきである。セクターごとに異なるリスク評価・管理の定義と方法に対して一律の規制を設けるのではなく、各セクターにおける既存の規制に基づく措置の検討が求められる。

  • 将来的な課題として、欧州委員会ホワイトペーパーで提案されているハイリスクAIの要件の定義は信頼できるAIの実現には不可欠であるが、これらの要件を技術的に保証することは現時点では非常に困難である。また、物理的な安全措置や運用等により、ハイリスクAIを用いたシステム全体としてリスクが十分に排除・軽減されている場合は、ハイリスクAIに適用される要件を一律に適用すべきではない点も留意する必要がある。したがって、専門家と議論したうえで作成したロードマップに従い、段階的なアプローチを用いて期間や要件を現実的なものにすることが望ましい。ロードマップと基準の内容は、EUだけではなく、世界的に整合性・調和が取れていることが求められる。


c. In a third sub-option, the EU legislative act could cover all AI applications.

  • AIアプリケーションの中には、工場での手順の最適化や電力使用の最適化など、本アセスメントで懸念されている基本的権利、安全性に対するリスクがそもそも発生しないものも多く存在する。すべてのアプリケーションに対して同じ要件を課す場合、基本的権利や安全性の確保に影響を及ぼさないAIアプリケーションには、コストの増大をはじめとするデメリットのみが生じるため、オプション3の第3のサブオプションは適切でない。


(4) Option 4: combination of any of the options above taking into account the different levels of risk that could be generated by a particular AI application.

  • 公平性、安全性、品質の基準は国、文化、セクター、利用者等によって異なり、急速に進化するAI等の新しい技術に柔軟に対応するべきであるため、ソフトローアプローチや既存の規制に基づく措置など、対象となるAI技術やセクターごとに適切な対応を選択することが必要である。

  • 規制の導入にあたっては、多くの国に参考にされ、ヨーロッパ市民の個人データのプライバシーとセキュリティの重要な枠組みとして認識されている法律、とりわけGDPRとの整合性・調和が取れていることが重要である。規制の実施にあたっては、一貫性と調和を促進するために、EDPB、国内および国際的なデータ保護機関と協力して行うことが望ましい。


The public intervention may however impose additional compliance costs, in so far as the development of some AI systems may have to account for new requirements and processes. If compliance costs outweigh the benefits, it may even be the case that some desirable AI systems may not be developed at all.

  • AIアプリケーションの開発企業にとって負担となる要件が課された場合、EU市場への製品・サービスの投入時期が他の経済圏への投入時期に対して遅れる、または投入されないことにより、EU域内産業の国際競争力が低下し経済的影響を受ける可能性がある。さらに、その結果がイノベーションの阻害を招く恐れも考えられることを認識すべきである。

  • EU加盟国内でルールを統一しても、グローバルで活動をする企業にとって重要な国際的な規制の調和が欠如すれば、コンプライアンスコストは増加することを認識すべきである。


The assessment will also have to consider which measures a responsible economic operator would take even without explicit public intervention.
The extent of the economic benefits depends, all other things being equal, on the increase in trust. Other things being equal, users will have more trust when they can rely on legal requirements, which they can enforce in courts if need be, than if they have to rely on voluntary commitments

  • AIはサービス開始後の学習によってモデルが変化していくため、明確な公的介入の有無にかかわらず、サービス開始時点で責任ある運営主体が取るべき措置を考慮していたとしても、その後のモデルの変化によって思わぬ訴訟リスクを抱え、AIが本来もたらしうる社会的な便益を損なう可能性がある。そのため、製品・サービスの供給側が遵守すべき要件を明確化することで、法的な確実性を担保することが求められる。


Due to the high scalability of digital technologies, small and medium enterprises can have an enormous reach, potentially impacting millions of citizens despite their small size.

  • 本文中の他の箇所でも言及があるとおり、AIが社会・環境・基本的人権にどの程度の影響を及ぼすかは、開発企業の資本金や雇用者数で測られるものではなく、利用者数や製品・サービスの利用手法に大きく依存すると考えられる。したがって、開発企業の規模や中小企業であるか否かを規制対象の判断基準とすることは必ずしも適切ではない。


Likely social impacts

  • 社会からのAIアプリケーションに対する信頼が高まり、社会受容性が高まることが期待される。

  • AIアプリケーションの開発企業にとって負担となる要件が課された場合、EU市場への製品・サービスの投入時期が他の経済圏への投入時期に対して遅れる、または投入されないことにより、EU加盟国の利用者が最先端技術の恩恵を享受できない可能性が生じ、その結果としてイノベーションが阻害される恐れがあることを認識すべきである。


Impact assessment
The completion of the impact assessment is scheduled for December 2020.

  • 本イニシアチブに対する影響評価の開始時期を明確にすべきである。また影響評価の実施にあたっては、新型コロナウイルス感染症の影響も鑑み、十分なリードタイムを確保してアセスメントを実施すること、産業界との十分な対話の機会を設けることが求められる。