1. トップ
  2. Policy(提言・報告書)
  3. 科学技術、情報通信、知財政策
  4. 欧州AI規制法案に対する意見

Policy(提言・報告書)  科学技術、情報通信、知財政策 欧州AI規制法案に対する意見

2021年8月6
一般社団法人 日本経済団体連合会
デジタルエコノミー推進委員会
AI活用戦略タスクフォース
英語版はこちら

1.総論

  • このたび、欧州委員会が公表したAI規制法案#1は、信頼あるAIの開発・利活用促進による環境・社会課題の解決を目的としており、経団連が目指す「信頼できる高品質AI(Trusted Quality AI)エコシステム」の構築と方向性を同じくする。

  • しかし、現段階では、禁止・ハイリスクAIの定義等に曖昧さや解釈の余地が残されており、欧州への投資意欲や新興AI企業などの育成・強化を妨げ、イノベーションや国家安全保障に影響を及ぼす恐れがある。施行前に、定義の明確化や説明の追加、ガイドライン等の提供を行うべき。

  • また、AIの技術革新・社会実装が加速している状況を踏まえると、最新の状況を逐一考慮せずに議論を進めることは、混乱を生みかねない。規制の対象・内容の具体化にあたっては、規制対象となっているEU域外の産業界も含めたEAIB(欧州AI委員会)や、国際標準化団体(ISO/IEC JTC1 SC42)等において、十分な対話を行うプロセスを設けるべき。

  • 同時に、規制導入後も緊密な対話を継続することより、規則の内容を継続的かつ柔軟に透明性を持った仕組みで見直していく仕組みを構築する必要がある。新たに法規制を課す場合にも、革新的技術の利活用による社会的便益を最大化できるよう、必要最小限にして抑制的であるべき。

  • AIプロバイダーのみを厳しく規制することは、信頼性あるAIエコシステムの形成をかえって阻害する要因になりうる。AIの適正な利用を担保するためには、プロバイダーだけに努力を課すのではなく、AIエコシステム全体での取組みが必要であることを明示し、ユーザーにおける取組みも促すことを期待する。

2.各論

Article 2 Scope
(p.39 抜粋)
1. (c) providers and users of AI systems that are located in a third country, where the output produced by the system is used in the Union;
(意見)
  • AIシステムの提供ではなく、AIシステムによって生成されたアウトプット(例:EU域外の企業がAIシステムを使って作成したビデオコンテンツ)のみがEU域内において使用される場合について、当該AIシステムのプロバイダー・ユーザーに課せられる義務を明確化すべき。
Article 3 Definitions
(p.40 抜粋)
(13) ‘reasonably foreseeable misuse’ means the use of an AI system in a way that is not in accordance with its intended purpose, but which may result from reasonably foreseeable human behaviour or interaction with other systems;
(意見)
  • 適切な安全管理措置の実施を前提としたうえで、悪意を持ったユーザーやシステムから攻撃を受けた場合は免責すべき。
(p.40 抜粋)
(14) ‘safety component of a product or system’ means a component of a product or of a system which fulfils a safety function for that product or system or the failure or malfunctioning of which endangers the health and safety of persons or property;
(意見)
  • 「安全コンポーネント」の範囲を各技術領域等における具体例とともに明確化すべき。例えば、家庭内のAIカメラ監視システムにおいて、出火検知や赤ん坊の見守り、防犯システムなど、どこまでが該当するのか明確にすべき。
  • 「安全コンポーネント」に該当するか否かの判断について、誰が責任を負うのか明確にすべき。仮にプロバイダーが判断の責任を負うのであれば、判断に必要な情報を示すとともに、判断に迷う場合に助言を行う専門機関を指定する等、対応を示すべき。
(p.42 抜粋)
(36) ‘remote biometric identification system’ means an AI system for the purpose of identifying natural persons at a distance through the comparison of a person's biometric data with the biometric data contained in a reference database, and without prior knowledge of the user of the AI system whether the person will be present and can be identified;
(意見)
  • 「遠隔地」や「ユーザーによる事前の認識」の基準、対象となるユーザーについて明確にすべき。
  • 個人を特定せず一時的に顔や体の特徴を抽出して分類するシステム(例:民間企業がマーケティングに活用するために、店舗内の個人に着目しない顧客動線を総体として把握する AI システム)はハイリスク AI の「リモート生態認証システム」に該当しないことを明確にすべき。
Article 5 The following artificial intelligence practices shall be prohibited
Article 6 Classification rules for high-risk AI systems
(全体)
(意見)
  • リスクベースアプローチで禁止AIやハイリスクAIの対象範囲を過度に広くとることは、EU域内におけるイノベーションを阻害し得ることから、対象範囲をより限定的にするとともに、規制の対象範囲や根拠、リスクの測定・評価方法を明確にすべき。例えば、規制対象については、ユースケースやそれぞれの危険性に基づいて決めることが考えられる。
  • 禁止AIの一つであるサブリミナルに利用されるAIは、意図的にサブリミナル技術を使用したAIに限定すべき。オーディオビジュアルコンテンツやゲーミング、マーケティングのCM等でサブリミナル効果が意図せず生じる可能性のあるAIシステムを対象とすべきでない。
  • 禁止AIの一つである法執行目的で使用されるリアルタイム遠隔生体認証システムは、法執行機関が自らの施設を警備するケースや、民間企業のAIシステムが不審な兆候を検出した際に法執行機関に通報するケースも含まれるのか明確にすべき。ユースケースごとの危険性を考慮した上で、公的にアクセスできる空間(publicly accessible spaces)の対象範囲を具体例等で明確にすべき。
  • ハイリスクAIのステークホルダーに課せられる責務により生じる、費用対効果を考慮すべき。例えば、リスク管理体制、データガバナンス、記録保持を含むChapter2、品質マネジメントシステムを含むChapter3や、適合性評価を含むChapter5の導入及び運用は、影響評価(SWD(2021) 84 final)にも示されているとおり、ステークホルダーへの大きな影響が見込まれるため、今後詳細な議論が必要である。
Article 6 Classification rules for high-risk AI systems
(p.45 抜粋)
1. (前略)
(a) the AI system is intended to be used as a safety component of a product, or is itself a product, covered by the Union harmonisation legislation listed in Annex II;
(b) the product whose safety component is the AI system, or the AI system itself as a product, is required to undergo a third-party conformity assessment with a view to the placing on the market or putting into service of that product pursuant to the Union harmonisation legislation listed in Annex II.
(意見)
  • 「安全コンポーネント」の保守・保全を支援する診断AIにおいて、AIのアウトプットが強制的に採用されることはなく、AIのアウトプットの情報をもとに人が判断を行うため、AIによるリスクを低減できると考えられる。したがって、このような診断AIがハイリスクAIに分類されることがないよう、分類要件(a),(b)の全部もしくは一部を緩和すべき。
Article 7 Amendments to Annex III
(p.45 抜粋)
1. The Commission is empowered to adopt delegated acts in accordance with Article 73 to update the list in Annex III by adding high-risk AI systems where both of the following conditions are fulfilled: (中略)
2. (h) the extent to which existing Union legislation provides for:
(i) effective measures of redress in relation to the risks posed by an AI system, with the exclusion of claims for damages;
(ii) effective measures to prevent or substantially minimise those risks.
(意見)
  • 欧州委員会がAnnex III のリストを更新するための委任法令を検討するにあたり、既存のEU 法令が規定する範囲を考慮する旨が第7条2項(h)に記載されているが、実態にそぐわない過度な規制が導入されることがないよう、産業界の意見を広く聞くための機会を設けるべき。
  • 医療機器規制をはじめ既存の規制・制度で十分な第三者認証制度が適用されている領域については、過度な規制の追加を控えるべき。
Article 9 Risk management system
(p.46-47 抜粋)
2. The risk management system shall consist of a continuous iterative process run throughout the entire lifecycle of a high-risk AI system, requiring regular systematic updating. It shall comprise the following steps:
(a) identification and analysis of the known and foreseeable risks associated with each high-risk AI system;
(b) estimation and evaluation of the risks that may emerge when the high-risk AI system is used in accordance with its intended purpose and under conditions of reasonably foreseeable misuse; (中略)
(意見)
  • 既知及び予見可能な範囲でリスクを分析、評価するとあるが、具体的な範囲ならびに求められる取組みについて、事例とともに明確にすべき。
  • AIプロバイダーが市場投入後、AIのモデルが変化する可能性に留意しつつ誤使用や悪意ある使用が起こらないよう注意喚起を行う前提で、AIユーザーの悪意ある使用および事前の注意喚起の説明の範囲内で起こった誤使用により生じた問題については、当該AIユーザーに責任が課されるべき。
(p.47 抜粋)
4. …In identifying the most appropriate risk management measures, the following shall be ensured:
(a) elimination or reduction of risks as far as possible through adequate design and development; (中略)
(c) provision of adequate information pursuant to Article 13, in particular as regards the risks referred to in paragraph 2, point (b) of this Article, and, where appropriate, training to users.
(意見)
  • ハイリスクAIの適切な利活用に資する情報やリスクの分析・評価に関する情報をユーザーに提供するために、どこまでの情報をプロバイダーが保持し、共有する必要があるのか明確にすべき。
  • 要求事項の「適切な設計と開発によるリスクの排除または削減」を明確化するとともに、リスクトレードオフも考慮したガイドラインなどを示すべき。
Article 10 Data and data governance
(全体)
(意見)
  • 遠隔生体認証やGDPRの仮名化・暗号化要件が適用されうるハイリスクAIの利用に関して、GDPRと整合のとれたガイドライン等を早期に提供すべき。
  • データ保護に関して各国・地域が定める法を遵守しながら、越境データの分析・移転処理を円滑に行うことができるよう、グローバルデータ流通基盤技術#2等の活用を検討することが望ましい。
(p.48 抜粋)
2. Training, validation and testing data sets shall be subject to appropriate data governance and management practices. Those practices shall concern in particular, (中略)
(d) the formulation of relevant assumptions, notably with respect to the information that the data are supposed to measure and represent; (中略)
3. Training, validation and testing data sets shall be relevant, representative, free of errors and complete. (中略)
(意見)
  • 「仮定の定式化」や「エラーが無く、完全」の指す内容について、明確に示すべき。その際、義務を履行したことを証明可能な、現実的な内容とすべき。
(p.48 抜粋)
4. Training, validation and testing data sets shall take into account, to the extent required by the intended purpose, the characteristics or elements that are particular to the specific geographical, behavioural or functional setting within which the high-risk AI system is intended to be used.
(意見)
  • データセットへの要求事項として地理的特性を考慮することは、グローバルに統一したデータで学習することを困難にするほか、固有の特性・要素を評価する行為自体がバイアスを生じさせる危険があるため、避けるべき。
Article 11 Technical documentation
(p.49 抜粋)
1. …The technical documentation shall be drawn up in such a way to demonstrate that the high-risk AI system complies with the requirements set out in this Chapter and provide national competent authorities and notified bodies with all the necessary information to assess the compliance of the AI system with those requirements. (後略)
(意見)
  • 「当該AIシステムがそれらの要件を遵守していることを評価するために必要なすべての情報を所轄機関および認証機関に提供するものとする」とあるが、提供情報のあり方については、機密保持の観点から、産業界を含むマルチステークホルダーにより十分に議論すべき。
Article 12 Record-keeping
(全体)
(意見)
  • 契約上どの法令を考慮すべきか、どのような責任分担を契約で決めておくべきかを説明するガイドライン等を公表すべき。その際、関連する既存の法令に則った契約プロセスについては、正当とすべきである。
(p.49 抜粋)
2. The logging capabilities shall ensure a level of traceability of the AI system's functioning throughout its lifecycle that is appropriate to the intended purpose of the system.
3. In particular, logging capabilities shall enable the monitoring of the operation of the high-risk AI system with respect to the occurrence of situations that may result in the AI system presenting a risk within the meaning of Article 65(1) or lead to a substantial modification, and facilitate the post-market monitoring referred to in Article 61.
(意見)
  • 「大幅な変更」の定義を明確にすべき。
  • あくまで事前に想定・検証できる範囲内のログを記録することを求めることとすべき。
  • ログデータの保管とデータに基づく市販後モニタリングの実施をプロバイダーに求めるうえでは、個人情報保護や営業秘密保護の観点から、必要以上のデータをプロバイダーに保管させることは避けるべき。
Article 13 Transparency and provision of information to users
(p.50 抜粋)
1. High-risk AI systems shall be designed and developed in such a way to ensure that their operation is sufficiently transparent to enable users to interpret the system's output and use it appropriately. (後略)
(意見)
  • 透明性の確保とユーザーへの情報提供について、実現可能で具体的な事例を、XAI#3を想定しているのか否かも含め、ガイドライン等で示すべき。
(p.50 抜粋)
3. The information referred to in paragraph 2 shall specify: (中略)
(b) the characteristics, capabilities and limitations of performance of the high-risk AI system, including:
(i) its intended purpose;
(ii) the level of accuracy, robustness and cybersecurity referred to in Article 15 against which the high-risk AI system has been tested and validated and which can be expected, and any known and foreseeable circumstances that may have an impact on that expected level of accuracy, robustness and cybersecurity;
(iii) any known or foreseeable circumstance, related to the use of the high-risk AI system in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, which may lead to risks to the health and safety or fundamental rights;
(意見)
  • 「制約」について、外部要因を含むすべての要因を列挙することは困難であることから、プロバイダーが検討した範囲内での制約を指すことを明確にすべき。
  • 「予期できる、および既知、予測可能な状況」、「いかなる既知または予測可能な状況」について、予測できる範囲は企業ごとに異なるため、プロバイダーが予測した範囲でユーザーに対する説明を行うこととすべき。
Article 14 Human oversight
(p.51 抜粋)
1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which the AI system is in use. (後略)
(意見)
  • 各分野における具体的な監視要件の検討においては、以下の3点を踏まえ企業にとってプラクティカルな要件とすることが望ましい。①人による監視とAIによる監視それぞれの長短に鑑み、要求される人間の関与レベルを十分に検討すべき。②人間の関与レベルが低くとも、独立した安全系統等によるリスク排除がAIを含むシステムの設計段階において織り込まれている場合については、本要件を除外または緩和すべき。③人間による動作確認と比してバイアスがない、または精度が高いことが証明されるAIについては、本要件を除外また緩和すべき。
(p.51 抜粋)
4. The measures referred to in paragraph 3 shall enable the individuals to whom human oversight is assigned to do the following, as appropriate to the circumstances: (中略)
(b) remain aware of the possible tendency of automatically relying or over-relying on the output produced by a high-risk AI system (‘automation bias’), in particular for high-risk AI systems used to provide information or recommendations for decisions to be taken by natural persons;
(意見)
  • 「自動バイアス」に対し「起こりうる傾向に注意を払い続ける」義務について、求められる内容を明確にすべき。
Article 15 Accuracy, robustness and cybersecurity
(p.51-52 抜粋)
1. High-risk AI systems shall be designed and developed in such a way that they achieve, in the light of their intended purpose, an appropriate level of accuracy, robustness and cybersecurity, and perform consistently in those respects throughout their lifecycle. (中略)
(意見)
  • 「適切なレベル」について、範囲が不明確であり、企業ごとに予測できる範囲は異なると考えられるため、企業が予測できる範囲内とすべき。
(p.52 抜粋)
3. …High-risk AI systems that continue to learn after being placed on the market or put into service shall be developed in such a way to ensure that possibly biased outputs due to outputs used as an input for future operations (‘feedback loops’) are duly addressed with appropriate mitigation measures.
(意見)
  • 学習を続けるAIシステムにおいて「緩和策」を実施するためには、サプライチェーンの幅広い企業が契約当事者となる契約を締結しないと対応できず、マルチステークホルダーによるさらなる議論が必要である。
Article 16 Obligations of providers of high-risk AI systems
(p.52 抜粋)
Providers of high-risk AI systems shall:
1. (a) ensure that their high-risk AI systems are compliant with the requirements set out in Chapter 2 of this Title;
(意見)
  • 一定のリスク精査を果たすことを条件に、プロバイダーが免責を得られるようにすべき。例えば、プロバイダーが納入した製品・サービスに対して、Prohibited AIとみなされる使用方法への変更がユーザーにより、プロバイダーの関与なしに行われていた場合、プロバイダーへの責任は免責されるべき。
  • 26頁(34)「道路交通の管理と運用、水・ガス・暖房・電気の供給の管理と運用における安全コンポーネントとして使用することを目的としたAI システム」は、一般に多重化・冗長化することでシステムの誤動作によるリスクを低減しており、このような対策が設けられている場合はハイリスクAIに対する義務を課す際の考慮要因に含めるべき。
Article 19 Conformity assessment
(p.54 抜粋)
1. Providers of high-risk AI systems shall ensure that their systems undergo the relevant conformity assessment procedure in accordance with Article 43, prior to their placing on the market or putting into service. (後略)
(意見)
  • 適合性評価がEU域外企業の参入障壁とならないよう、域外企業がAI規制法及び関連法令に係る当局との事前の相談及び公的認証が受けられる仕組みを早期に構築すべき。
Article 24 Obligations of product manufacturers
(p.55 抜粋)
1. Where a high-risk AI system related to products to which the legal acts listed in Annex II, section A, apply, is placed on the market or put into service together with the product manufactured in accordance with those legal acts and under the name of the product manufacturer, the manufacturer of the product shall take the responsibility of the compliance of the AI system with this Regulation and, as far as the AI system is concerned, have the same obligations imposed by the present Regulation on the provider.
(意見)
  • GDPR等既存の法令の内容に鑑み、イノベーションと規制のバランスを考慮しつつ、利用者と提供者・製造者の責務の分担について考慮すべき。
Article 29 Obligations of users of high-risk AI systems
(p.58 抜粋)
1. Users of high-risk AI systems shall use such systems in accordance with the instructions of use accompanying the systems, pursuant to paragraphs 2 and 5.
(意見)
  • 悪意を持った利用についてプロバイダーがすべての責任を負うことは困難であり、目的外利用の禁止を明確に記載すべき。
Article 43 Conformity assessment
(p.65 抜粋)
4. High-risk AI systems shall undergo a new conformity assessment procedure whenever they are substantially modified, regardless of whether the modified system is intended to be further distributed or continues to be used by the current user. (後略)
(意見)
  • AIシステムは、ソフトウェアの更新や学習を通し、アジャイルに改善されていくものであり、適合性評価を逐一行うことは実施者の過度な負担となることから、避けるべき。
  • 適合性評価の再度実施が求められる条件として定められた、Article 3 Definitions(23)の「大幅な変更」の定義を明確にすべき。
Article 52 Transparency obligations for certain AI systems
(p.69 抜粋)
1. Providers shall ensure that AI systems intended to interact with natural persons are designed and developed in such a way that natural persons are informed that they are interacting with an AI system, unless this is obvious from the circumstances and the context of use.
(意見)
  • 「自然人と相互作用するAIシステム」の対象や要求事項を明確化すべき。
(p.69 抜粋)
3. Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful (‘deep fake’), shall disclose that the content has been artificially generated or manipulated. (後略)
(意見)
  • 画像・音声や映像コンテンツを生成・操作するAIシステムに対して、生成・操作されたものであることを示すことを求めているが、その開示の方法を明確に示すべきである。また、CGI(Computer Generated Imagery)も対象に含まれる場合には、その開示の方法を明確に示す必要がある。
Article 57 Structure of the Board
(p.72 抜粋)
4. The Board may invite external experts and observers to attend its meetings and may hold exchanges with interested third parties to inform its activities to an appropriate extent. To that end the Commission may facilitate exchanges between the Board and other Union bodies, offices, agencies and advisory groups.
(意見)
  • 欧州人工知能委員会(the European Artificial Intelligence Board)については、産業界やAIに関わる専門家含むマルチステークホルダーが委員として継続的に参加し、議論や検討に参加すべきである。また、委員会の構成や人員はテクノロジーの発展・進展に応じ継続的に見直すべき。
Article 60 EU database for stand-alone high-risk AI systems
(p.74 抜粋)
3. Information contained in the EU database shall be accessible to the public.
(意見)
  • 公開目的について、「プロバイダー等によるハイリスクAIに係る該非判断を支援するため」と限定すべき。その際、それぞれの該当例・非該当例に係るデータベースや事例集を作成し、該否判断の透明性を担保すべき。また、プロバイダーからの問合せに対してハイリスクAIの該否判断を行う仕組みを設け、その判断結果を該当例・非該当例のデータベースに随時追加し公表すべき。
Article 61 Post-market monitoring by providers and post-market monitoring plan for high-risk AI systems
(p.74-75 抜粋)
1. Providers shall establish and document a post-market monitoring system in a manner that is proportionate to the nature of the artificial intelligence technologies and the risks of the high-risk AI system.
(意見)
  • テンプレートに基づく市販後モニタリングについて、AIプロバイダーがユーザーとの契約でログデータを入手できる余地を残すべき。
Article 64 Access to data and documentation
(p.77 抜粋)
1. Access to data and documentation in the context of their activities, the market surveillance authorities shall be granted full access to the training, validation and testing datasets used by the provider, including through application programming interfaces (‘API’) or other appropriate technical means and tools enabling remote access.
2. Where necessary to assess the conformity of the high-risk AI system with the requirements set out in Title III, Chapter 2 and upon a reasoned request, the market surveillance authorities shall be granted access to the source code of the AI system.
(意見)
  • ソースコードは企業にとって競争力の源泉となる重要な資産であり、契約・安全保障などの理由により開示できない場合がある。また、ユーザーがデータを当局に開示することを懸念し、AIの導入が進まない可能性もあるため、当局によるアクセスが行われるべきではない。仮に調査が必要となる疑義が生じた際には、まずは企業に対して説明責任を求めるなど、ソースコードの開示に依らない適切な対処法を検討すべき。
  • 日EUEPAの第八章73条においては、日EU間におけるソースコードのアクセス要求が明確に禁止されており、同条との整合性を明確に示すべき。
Article 69 Codes of conduct
(p.80 抜粋)
1. The Commission and the Member States shall encourage and facilitate the drawing up of codes of conduct intended to foster the voluntary application to AI systems (後略)
(意見)
  • 適切に行動規範を策定している企業に対するインセンティブ付与を検討すべき。
Article 71 Penalties
(p.82 抜粋)
6. When deciding on the amount of the administrative fine in each individual case, all relevant circumstances of the specific situation shall be taken into account and due regard shall be given to the following: (後略)
(意見)
  • 罰則の対象が広範に及び、また罰金額が非常に高額であることは、欧州市場における企業の活動を過度に委縮させる恐れがある。そこで、違反の類型や内容、得られた便益の大きさ、違反の悪意の有無などに応じて、適切なペナルティを定めるべき。
  • 本法案に基づく規制に際し当局が保管する資料は、訴訟期間が長引く場合にエビデンスとして重要な役割を担うことがあり得るため、企業がログなどを保管する期間よりも十分長期とすべき。
Article 73 Exercise of the delegation
(全体)
Article 7 Amendments to Annex III
(p.45 抜粋)
1. The Commission is empowered to adopt delegated acts in accordance with Article 73 to update the list in Annex III by adding high-risk AI systems where both of the following conditions are fulfilled:
(意見)
  • ビジネスへの影響に鑑み、Annexの記載事項について、欧州委員会が更新を検討する際には、議論の透明性を確保したうえで、産業界、AIに関わる専門家を含むマルチステークホルダーの意見を聞き、慎重な判断を下すべき。
Article 84 Evaluation and review
(p.87 抜粋)
1. The Commission shall assess the need for amendment of the list in Annex III once a year following the entry into force of this Regulation.
(意見)
  • 評価・見直しを欧州委員会が実施する際には、産業界、AIに関わる専門家を含むマルチステークホルダーによる議論のもと、国際的なベストプラクティスを十分に参照すべき。
Annex III High-Risk AI Systems Referred to in Article 6(2)
(全体)
(意見)
  • ハイリスクAI、および「安全コンポーネント」の定義を明確にすべき。
  • 人権侵害リスクが十分に低い場合については、ハイリスクAIから除外すべき。たとえば、生体識別およびカテゴライゼーションについて、属性の特定による差別に繋がらないことが確認される場合には、ハイリスクAIから除外すべき。
Annex IV Technical Documentation referred to in Article 11(1)
(p.6 抜粋)
2. A detailed description of the elements of the AI system and of the process for its development, including:
(a) the methods and steps performed for the development of the AI system, including, where relevant, recourse to pre-trained systems or tools provided by third parties and how these have been used, integrated or modified by the provider;
(意見)
  • 開発手法、手順の中に機密事項がある可能性もあり、すべてを公表することは難しい。各社の機密に当たる内容は非公表とできるようにすべき。
(p.6 抜粋)
(b) the design specifications of the system, namely the general logic of the AI system and of the algorithms; the key design choices including the rationale and assumptions made, also with regard to persons or groups of persons on which the system is intended to be used; the main classification choices; what the system is designed to optimise for and the relevance of the different parameters; the decisions about any possible trade-off made regarding the technical solutions adopted to comply with the requirements set out in Title III, Chapter 2;
(意見)
  • 「一般的なロジック」を明確に定義すべき。
  • AIシステムの詳細説明として、「トレードオフに関する決定」を含むとされているが、検討した範囲内について記載すればよいことを明確にすべき。
  • 最適化されたシステム、トレードオフの検証・設定は、ユーザーとの協議で決定した範囲を越えた検討まで記載を求めるべきではない。
以上

  1. Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts (2021年4月21日公表)
  2. GDPRなどのデータ保護法が規定する秘匿性・機密性の高いデータのマスキング処理など、データを移転するために必要な処理を行うプログラムを、データの収集拠点で自動設定・実行し、データの分析拠点に自動移転するプラットフォーム技術。
  3. 予測結果や推定結果に至るプロセスが人間によって説明可能できるAIのこと。

「科学技術、情報通信、知財政策」はこちら