この記事は特に記述がない限り、
欧州連合 の法令について解説しています。また最新の法令改正を反映していない場合があります。
ご自身が現実に遭遇した事件については法律関連の専門家にご相談ください。 免責事項 もお読みください。
規則 (EU) 2024/1689
欧州連合規則
EEA 適用対象 名称
Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) 適用範囲
全EU加盟国およびEEA 制定者
欧州議会 と欧州連合理事会 の共同採択 (通常立法手続 ) 法源
EU機能条約 [ 1] EU官報
L, 2024/1689 沿革 欧州議会 賛成票数
(2024年3月13日可決)[ 2] [ 3] 欧州連合理事会 賛成票数
(2024年5月21日可決)[ 3] [ 4] :2 制定日
2024年6月13日[ 1] 発効日
2024年8月1日[ 1] 適用日
2025年2月2日より条文ごとに段階的に適用開始[ 1] 立法審議文書 欧州委員会 提案
COM/2021/206 (Document 52021PC0206、2021年4月21日提案) EESC 意見書
EESC 2021/02482 (2021年9月22日提出)[ 3] CR 意見書
COR 2021/02682 (2021年12月2日提出)[ 3] その他審議資料
欧州中央銀行 意見書: CON/2021/40 (2021年12月29日提出)[ 3] 関連法令 改正対象
現行法
AI法 (エーアイほう、別称: AI規則 、英 : the Artificial Intelligence Act )[ 注 1] は、欧州連合 (EU)による世界初の人工知能 (AI)に関する包括的な規制法である[ 注 2] 。AI法は信頼性の高いAIの導入を促進しつつ、有害リスク度に応じて (1) 許容できないリスク、(2) 高リスク、(3) 限定的なリスク、(4) 最小限のリスクの4レベルに分類して異なる規制や義務を課す。違反時にはレベルごとに異なる制裁金 が科される。
またリスク分類とは別に、「汎用AIモデル(英 : general-purpose AI models 、略称: GPAI)」を対象とした特別規定もAI法では追加で設けている。AI法の立法過程では、汎用AIモデルの代表例としてChatGPT やGemini (旧名: Bard)といった生成AI が欧州議会 から名指しされ、差別や偽情報といった有害コンテンツの生成や、個人情報の不適切な取扱などの懸念が呈されている。
仮に日本や米国などのEU域外で設立された団体や他国民が開発したAIでも、それがEU域内に輸入されて販売・利用されればAI法の規制対象になる (いわゆる域外適用)。ただし、軍事・防衛や科学研究に特化したAIなど、一部条件に合致するAIは同法の規制対象から除外されている。
AI法は禁止事項や義務を規制当局からトップダウンで示すだけでなく、AIに従事する事業者が行動規範 (Code of Conduct )や実践規範 (Code of Practice )を自律的に定めて運用していくボトムアップのアプローチも併用している。またEU基準に適合したAIには民間非営利団体からCEマーク が付与され、安全性が可視化される。EUの行政執行機関である欧州委員会 内にAIオフィス が設置されており、こうした官民連携の調整・推進役を担っている。
AI法は2024年8月1日に発効 し、条文ごとに段階的に適用を開始する[ 1] 。(1) 許容できないリスクのAIシステムは2025年2月2日に原則禁止となる[ 注 3] 。
規制対象の定義と規制内容
以下のとおり、AI法では「何」(システムの種類) および「誰」(AIに携わる者の種類) を規制対象に含めるのかを分類している。
なお、立法過程では当初法案から数千か所に修正が加えられており[ 28] 、AI「法案」を解説した文献は古い条文案に基づいていて正確性を欠く可能性があるため、参照時には留意が必要である。
規制対象システムの分類
システム全般
AIシステム
AI法における規制対象内
Weak or Narrow AI (ANI)
Strong or General AI (AGI)
汎用AIモデル (General-purpose AI models 、略称: GPAI)
システミックリスク (Systemic risk ) を有するGPAI
システミックリスクを有さないGPAI
AI法における規制対象外
AI以外の一般的なソフトウェア
AI法が想定するAIと一般的なソフトウェアの相違点であるが、自律的な動作や予測・推奨コンテンツの生成といった特徴が挙げられ、このようなAIの要件定義は国際機関の経済協力開発機構 (OECD) で用いられているものと類似している。
AIシステム全般に対し、4段階のリスク度に応じた規制・義務をAI法では規定している。AI法ではこれを「リスクベースアプローチ」と呼んでいる。汎用AIモデル (GPAI) は5つ目のリスク分類ではなく、4段階のリスク分類とは別軸で捉えられている。
AI法の規制対象システム
汎用AIモデルとは何かについて、AI法の立法者である欧州議会 でさえも「確固とした定義はない」とことわりを入れている。その上で、アルゴリズム やその背景にある理論上の観点から "Weak or Narrow AI" (ANI) と "Strong or General AI" (AGI) にAI全般を二分している[ 注 4] 。特定目的に特化したAIであるANIとは、たとえば画像認識や音声スピーチ認識といった、特定の目的に沿ってデータを処理するAIシステムである。一方、多用途で影響力の大きいAGIは、たとえば自然言語 (プログラミング言語ではなく人々が日常的に会話や文書で使用する言語) で記述された大量のデータを読み取るだけでなく、ディープラーニング (深層学習) 技術によって文脈なども理解できる大規模言語モデル (LLM) などを備えており、こうした革新的な技術を用いている点でANIとは異なる。換言するとAGIとは、人間の知的なタスク処理を代行しうるシステムを指す。
こうした高度なタスク処理が可能なAGIのうち、特にテキスト文書やイメージ画像、動画などのコンテンツを生成できる能力を持つものを、AI法では「汎用AIモデル」と呼んでいる。欧州議会では汎用AIモデルの例として、ChatGPT (Microsoft 社と提携関係にある団体OpenAI が開発) やGemini (旧称: Bard、Google 傘下による開発) の名前を挙げている。このような汎用AIモデルは、さまざまなシステムやサービスの基礎・基盤としての重要な役割を担う一方で、倫理的・社会的な問題を引き起こすリスクが懸念されている。たとえば、人種差別や暴力、レッテル張りするようなコンテンツの生成、個人情報や機微情報の取扱不備、偽情報や詐欺情報の生成といった問題が具体的に挙げられる。
なお、AI「システム」とAI「モデル」は別個の概念としてAI法では用語を使い分けている。AIモデルはAIシステムに統合され (組み込まれ) た形で用いられる。そのためシステム開発プロセスの概念上はモデルが川上、システムが川下 (Downstream ) の位置づけになっている。
以下、AIシステム別の定義や義務、規制行為を解説する。
(1) 許容できないリスク
許容できないリスク (英 : Unacceptable risk ) のあるAIは重大な危害を与えうるため、AI法 第5条第1項に基づいて禁止される。同条項の (a)号から (h)号で禁止される利用方法が具体的に列記されている。うち (e)号から (h)号の4項目は生体データ関連である。
(a)号: サブリミナル 技術 - AI法の前文 (29) によると、音声または画像、映像を人間が意識的に知覚できない方法で表示させる、あるいは人の自律的な意思決定を歪める欺瞞的な技術を指す[ 注 5] 。
(b)号: 脆弱性の悪用 - 特定の年齢層、障害の有無、社会経済的地位 といった個人ないし集団の特徴を悪用し、重大な損害などを与えうるシステム
(c)号: ソーシャルスコアリング - ソーシャルスコアリングとは、個人の日常生活の言動が監視され、社会全体にとってどの程度有益か社会信用がスコア (数値) で評価される仕組みである[ 42] 。AI法では、社会的行動や人格的特徴に基づいて人々を不当にランク付けするAIシステムのうち、特に分析データの元の文脈と乖離している、あるいはスコアリングによって不当・不公平な影響をおよぼすものを禁じる[ 43] [ 注 6] 。
(d)号: 犯罪予測 - 犯罪捜査で用いられるプロファイリング などによって、個々人が犯罪を犯すリスクを評価・予測するシステム (ただし犯罪に直結する客観的事実に基づいた人物評価の場合を除く)
(e)号: 顔画像のスクレイピング (データ収集・抽出) - インターネットあるいは監視カメラ (CCTV) から無差別に顔画像を収集して作成されたデータベース
(f)号: 感情推測 - 職場ないし教育機関で用いる場合は原則禁止 (ただし、治療目的といった医療上ないし安全上の理由を除く)
(g)号: 生体分類 (属性推定システム) - 人種、政治的意見、労働組合への加入、宗教・思想上の信条、性生活・性的指向を推測するシステム
(h)号: リアルタイム・リモート生体識別 (略称: RBI) - 警察などの法執行機関によるAI常時監視システムは原則禁止 (ただし行方不明者の捜索やテロ犯罪組織の容疑者の位置特定といった深刻な状況下は特例として除外する[ 注 7] )[ 2]
(a)号の欺瞞的なサブリミナル技術と (b)号の脆弱性の悪用については、情報法専門家による欺瞞的な (人を欺くような) システムデザインの観点からの論考がある。AI法成立以前にも欺瞞的なデザインは存在し、「ダークパターン 」(Dark patterns ) の総称で知られていた。ダークパターンの身近な具体例を挙げると、航空チケット予約サイトで追加オプションサービスがデフォルトで選択されているようなウェブデザインである。オプションを希望しないユーザーの一部はこれに気付かずに購入してしまう。こうした表層的なユーザーインターフェース (UI) のテクニックだけでなく、専門家の知見と技術なしでは見破るのが非常に困難なシステムアーキテクチャー (システムの根本的な設計) におよぶ欺瞞的なデザインが問題視されている。
欺瞞的なデザイン技術「ダークパターン 」の一例。カウントダウンを表示してタイムセールで消費者を煽る。チェックボックスは二重否定の分かりづらい表現。
AI法以前は主に2つの側面からこうした欺瞞的デザインへの対応を試みてきた。まず消費者保護や悪徳商法 取締の切り口から、2005年制定の不公正取引慣行指令 (英語版 ) (略称: UCPD) をはじめとする欧州消費者法 (英語版 ) の改正である。もう一つの切り口が、2016年制定のEU一般データ保護規則 (略称: GDPR 、Regulation (EU) 2016/679 ) による個人データ保護や、さらにユーザーの保護範囲を広げた2022年制定のデジタルサービス法 (英語版 ) (略称: DSA、Regulation (EU) 2022/2065 ) である。DSAの第25条(1)項はダークパターン対策が意識されており、ユーザーの自律的な意思決定を歪めるような欺瞞的デザインを禁じている。しかしDSAは条文の文言に曖昧さがあり、GDPRやUCPDといった他法と部分的に重複しうる。また日進月歩の欺瞞的デザインに対し、「オンライン・プラットフォーム」にしか適用されないDSAはどこまで有効なのか、疑問も呈されている。
一方AI法の第5条は、不公正取引慣行指令やDSAの第25条だけではカバーしきれないタイプの欺瞞的なデザインにも対応しうると考えられている。その一つが、アルゴリズム に深く根差した欺瞞的デザイン (Algorithmic manipulation ) である。このタイプはたとえば、過去履歴に基づいてユーザーごとにカスタマイズしたコンテンツ表示されるアルゴリズムによって、無意識のうちに偏った情報にばかりユーザーが触れてしまう「エコーチェンバー現象 」が問題視されている。もう一つのタイプが、システム依存を起こす欺瞞的デザイン (System dependency and control ) である。その特徴として「ネットワーク効果 」がある。ネットワーク効果とは、SNSのようなデジタル・プラットフォーム がひとたび多くのユーザーを獲得すると、既存ユーザーが新規潜在ユーザーを呼び込む、あるいはオンラインショッピングのように新規出店者を呼び込む現象である[ 54] 。その結果、魅力的な代替サービスが新たに登場しても乗り換えづらくなってさらにユーザー数が増える連鎖現象が確認されている。
(c)号のソーシャルスコアリングもAIとの親和性が高い。これはAIが人の顔認証や言動分析に長けていることから、スコアリングに必要な監視データの解析に利用できるためである[ 42] 。低スコアの評価が下された個人は、利用できる教育機会や医療サービス、公共財に制限がかかるといった使い方が想定される[ 42] 。ただし倫理面で問題を抱えていることから、ソーシャルスコアリングの制度を導入しているのは世界的にも中国政府のみの状況である[ 42] 。
ところが社会全体ではなく、よりミクロなレベルで見るとたとえば配車サービス の米系企業Uber はトラブルのあった利用客をブラックリスト入りさせる仕組みを運用している。また米国ニューヨークでは、ソーシャルメディア 上の言動を元に保険会社が保険加入者の保険料を個別設定する商慣行が認められている。こうしたミクロなレベルでは欧米諸国でもソーシャルスコアリングは行われているのが実態である[ 42] 。ソーシャルスコアリングにAIを活用するには、高い精度の監視データと解析能力が前提となるが、実際にはバイアスのかかったデータが混じったり、不当なスコアリング結果を出してしまう技術的な問題が指摘されている。これに対応すべくAI法第5条で不当なソーシャルスコアリングを行うAIが禁止された[ 42] 。
(2) 高リスク
高リスク (英 : High risk ) なAIシステムは以下の2カテゴリーに分類される。
第1カテゴリー【既存】: 身体などの安全性にかかわるリスク - AI法成立以前のEU諸法で安全面の観点から既に規制を受けていた製品。ここで言う「諸法」はAI法の附則 1 (Annex I) のSection AおよびBで計20本列記されており、玩具や船舶、エレベーターや医療機器などが規制製品対象に含まれる。これら諸法で「第三者による適合性評価義務の対象」と指定されている場合に限る[ 注 8] [ 注 9] 。
第2カテゴリー【新規】: 基本的人権などにかかわるリスク - AI法成立で新たに規制を受ける領域。AI法の附則 3 (Annex III) で8領域が列記されているが、EU行政機関である欧州委員会による委任法令[ 注 10] で別途、この8領域に追加・修正・削除が可能となっている。
生体認証
重要インフラの安全部品 (通信、交通、水道、ガス、電力など)
教育・職業訓練 (教育機関などへの入学割当、学習評価、テスト中の監視など)
労務 (人材選考採用、昇進・解雇・給与などの労務管理、職務分掌・役割分担の決定など)
公共性の高いサービスの利用判断 (公的給付金の個人審査、クレジットカードの個人信用調査、生命保険や健康保険の保険料率個別計算、警察・消防・救急車などの対応優先度決定など)
警察などの法執行 (犯罪被害者になるリスク評価、犯罪被疑者・再犯者の予測など)
移民・亡命・国境管理 (不法移民のリスク評価、ポリグラフ (心拍や呼吸測定機) による移民・亡命審査など)
司法手続および民主的手続 (司法当局による事実調査・法律解釈、選挙・住民投票に影響を与える行為など)
これらの領域にAIシステムが用いることは禁じられていない。しかしAIシステムの開発者や提供者にはリスク管理の手法文書化、リスク管理の組織体制構築、AIシステムの技術文書作成、AI学習データの品質管理、自動まかせにしない人的監視、異常検知と重大インシデントの当局報告、利用者がAIによる生成だと判別がつく透明性の担保といった義務が課される。具体的な義務は、AI法 第8条-第15条 (高リスクAIシステムが満たすべき要件)、第16条-第25条、第40条-第44条 (高リスクAIシステムの適合性評価手続)、第48条-第51条、第62条、第72条 (市販後モニタリング)、第73条 (インシデント報告義務)も参照のこと。EU域外の者が提供する場合はEU域内代理人を指定し、これらの義務遂行を委任する必要がある。
なお#立法の沿革 で後述のとおり、AI法は当初法案から数千か所の修正が加えられており、特に高リスクAIシステム関連の条項は2023年12月9日合意の三者対話 (英語版 ) (英 : trilogue 、トリローグ) で加筆修正が多数加えられている[ 65] [ 66] [ 注 11] 。
(3) 限定的なリスク
限定的なリスク (英 : Limited risk ) のAIシステムの例として生成AI (ディープフェイク 含む)、対話型AI (チャットボット )、感情認識システムなどが挙げられる。上述の (2) 高リスクではさまざまな義務が課されている一方、(3) 限定的なリスクでは利用者への透明化義務が課されているのみである。ここでの「透明化義務」は第50条にて規定されており、チャットボットであればユーザーがAIとやりとりしていることが分かるようにする。コンテンツ生成型のAIであれば、生成された画像や動画に電子透かしを入れる、ニュース記事内で明記するなどの方法で、AIの使用有無がコンテンツ閲覧者に判別がつくようにする。
第50条の透明化義務以外では、第95条で自主的な「行動規範」(Code of Conduct ) に基づく開発・運用を求めている(#行動規範 で詳述)。
(4) 最小限のリスク
最小限のリスク (英 : Minimal risk ) しかないAIは、具体例としてスパムフィルタ が挙げられる。EUの行政機関である欧州委員会 によると、大半のAIは (4) 最小限リスクに分類される。このリスクレベルに該当するAIシステムは、原則として自由に利用が可能である。しかし (3) 限定的なリスクと同様、第95条の「行動規範」に基づく自主性が推奨されている(#行動規範 で詳述)。
汎用AIモデル
AI法の草案作成当初は「汎用AIモデル」(general-purpose AI models 、略称: GPAI) のリスクが十分に認識されていなかったことから、特別規定は盛り込まれていなかったが、法案提出から1年あまりが経過した後に欧州連合理事会が追加修正案を提出し[ 28] 、その後も修正を重ねて[ 28] 特別規定を設けることとなった。さらに汎用AIモデルのなかでも、「システミックリスク」(Systemic risk ) を有するものについては追加の特別規定がある。汎用AI「モデル」はAI「システム」とは異なるため、上述の4つのリスクレベルで分類されない。ただし汎用AI「モデル」が他のAI「システム」に組み込まれ、(2) 高リスクと判定された場合は、上述のリスクレベル別の義務も併せて負うことになる。
汎用AIモデル全般
汎用AIモデル全般に課される義務は第53条・第54条で規定されており、以下のとおりである。
技術文書を作成し、最新の状態に更新 (文書に折り込むべき情報項目は附則11参照)
汎用AIモデルを組み込むAIシステムの提供者に対し、当該汎用AIモデルの能力と限界を周知する文書を提供 (文書に折り込むべき情報項目は附則12参照)
EU著作権法 、特にDSM著作権指令 で定められたテキストおよびデータマイニング (略称: TDM) の適法要件を遵守
汎用AIモデルが学習に使用したデータについて、包括的な概要を文書化・公開 (AIオフィスが提供する記入テンプレートを用いる)
EU域外が汎用AIモデルを提供する場合、域内代理人を指定
システミックリスク
システミックリスクを有する汎用AIモデルとは、学習に使用される計算能力が相当に高いことから、公衆衛生・安全・治安・基本的人権といった重要な領域に対してEU広域に影響をおよぼしうるもの (high-impact capabilities ) を指す。第53条第1項に基づき、以下の措置を「追加」で講じる義務を負う。
モデル評価の実施
リスク評価と軽減対策
重大インシデント発生時の当局報告と是正対応
サイバーセキュリティ対策
何をシステミックリスクを有する汎用AIモデルに指定すべきかについては、第51条で「高い影響力」の基準が示されている。
第51条第1項の基準: 指標やベンチマークといった適切な技術ツール・方法論で評価
第51条第2項の基準: 学習に使用された累積計算量が浮動小数点演算 (FLOPS ) で計測して
10
25
{\displaystyle 10^{25}}
(10の25乗) を超える場合
第1項については、EUの行政機関である欧州委員会が有識者などからの助言を受け、かつAI法の附則13 (Annex XIII) で定められた基準に基づいて、対象となる汎用AIモデルを指定できる。附則13にはモデルのパラメータ数、学習コストや学習時間の推定値といった技術的な定量指標のほか、登録ユーザー数といった社会的な影響度を測る指標などが挙げられている。また、AI提供者側 (事業者側) が上述の基準に該当すると自己認識した際には、2週間以内に欧州委員会に通知する義務を負う。
適用対象外のAIシステム
第2条ではAI法の適用対象から除外される要件を定めているが、そのうちAI法全般の義務・規制から除外されるものは以下のとおりである。
軍事、防衛または国家安全保障目的に特化したAI (これ以外の目的も兼ねるAIは含まない)
科学研究開発目的に特化したAI
研究・開発段階にあって、市場未投入・未稼働の状態にあるAIシステムまたはAIモデル
フリー・オープンソース・ライセンスでリリースされているAIシステムのうち、リスクレベルが (3) 限定的ないし (4) 最小限に分類されるもの。
規制適用者の分類
つづいてAIシステムやAIモデルに従事する者のうち、「誰」がAI法の規制を受けるのかを述べる。第2条で対象者が列記され、各用語は第3条で定義されている。
AI従事者全般 (Operator 、オペレーター)
AI提供者 (Provider 、プロバイダー) - 法人・個人を問わずAIシステムやAIモデルの「開発」者。あるいは自らの名前・商標で市場に「投入」する、あるいは「稼働」させる者。有償・無償も不問。
AI提供者の代理人 (Authorised Representative ) - AI提供者から書面で委任を受け、義務を代行する者。EU域外の者が高いリスクAIシステムないし汎用AIモデルを提供する場合、EU域内代理人の指定が必須。
AI導入者 (Deployer 、ディプロイヤー) - 自らの権限の下でのAIシステムの「利用」者。法人・個人は問わないが、あくまで個人的な目的であり職務以外の目的で利用する者は除く。
AI輸入者 (Importer ) - EU域外のAIシステムをEU域内の市場に投入・提供する者で、EU域内に拠点を置く法人・個人。
AI販売者 (Distributor 、頒布者、ディストリビューター) - AIシステムの特性に影響を与えず、EU域内利用を可能にする者のうち、上述の提供者や輸入者以外の法人・個人。
AIシステムを組み込んだ製品製造者 (Product manufacturers ) - その製品が製造者の名前・商標で上市しており、その製品の中にAIシステムが組み込まれている場合。
「提供者」と「導入者」には十分な「AIリテラシー」が求められる (第4条)。ここでのAIリテラシーとは技術的知識や経験を有しており、適切な教育・訓練を受けており、AIシステムが使用される文脈に即した操作や使用ができる能力を指す。提供者や導入者はAIリテラシーを有する人員を確保しなければならない。ただし違反時の制裁金などは定められていない。
(3) 高リスクAIシステムを取り扱う場合、「提供者」は第16条から第25条などで、「導入者」は第26条・第27条でそれぞれ異なる義務が個別詳細に規定されている。高リスクAIシステムの提供者はたとえば、技術文書の作成やデータ管理の手順整備、ログの記録と重大インシデント発生時の報告体制の整備といった義務が課される。上市前にはEU適合性評価手続を受け、CEマークを取得する必要がある(#適合性評価 で詳細後述)。(3) 高リスクAIシステムの「提供者」に課される義務のうち、第23条と第24条は「輸入者」と「販売者」にも関係する。CEマーク、EU適合性宣言および使用説明書関連が第23条と第24条である。一方、高リスクAIシステムの導入者は、たとえば自動まかせにしない人的監視体制の構築や、使用説明書に沿った利用などが義務として規定されている。
汎用AI「モデル」については、AI「システム」ではないことから、主に提供者の義務が定められている。
適用対象外の者
以下の者がAIシステムを利用する場合は、AI法で定められた規制や義務が適用されない。
EU域外の公的機関や国際機関が、EUないしEU加盟国に対して法執行や司法の国際協力の目的で利用する場合
職務に関連しない、ごく個人的な目的でAIシステムを利用する個人
適合性評価
欧州基準に適合していることを示すCEマーク
(2) 高リスクAIシステムおよび汎用目的AIモデルの一部は、AI法が定める「適合性評価手続」(Conformity assessment procedure ) を踏まなければならない。ここでの「適合性」とは欧州基準のサイバーセキュリティ対策などが適切にとられていることを表す (AI法前文 (78) 参照)。
EUの行政機関である欧州委員会は、欧州標準化委員会 (略称: CEN) や欧州電気標準化委員会 (略称: CENELEC) といった非営利の欧州標準化団体に適合性の基準 (つまりAI業界規格) を定めるよう要請する権限を有する。CENやCENELECが定めた規格に適合した場合、CEマーク (CE適合性マーク) がAIシステムに付与される。CEマークはAI以外にも幅広く用いられている認証マークの仕組みであり、玩具や医療機器の安全性担保やエコデザインなどの環境負荷軽減対策など、さまざまなEUの法令に対応している[ 91] 。AIシステムの特性に応じ、自己評価で適合性評価を行ってもよいケースと、適合性評価機関による第三者認証を求めるケースがある。
実践規範と行動規範
AI法では2つの「規範」が規定されている。
1つ目が汎用AIモデルを対象とした実践規範 (Code of Practice ) である (第56条)。AI法では実践規範の内容は規定されておらず、欧州委員会内に設置されたAIオフィス の指揮の下、汎用AIモデルの提供者とEU加盟各国の所轄機関を招待して実践規範を策定することが奨励されているのみである。また市民社会組織、産業界、学界並びに川下提供者や独立専門家などから実践規範策定の支援を仰ぐことができる。欧州委員会はAI法の発効から3か月後の2024年11月、30ページ以上にわたる実践規範の草案初版を公開した[ 92] [ 93] 。
2つ目は限定的リスクおよび最小限リスクのAIシステムを対象とした行動規範 (Code of Conduct ) である (第95条)。これはAI法 第3章第2節 (第8条から第15条) で具体的に定められた高リスクAIシステムに求められる義務を、それ未満のリスクシステムにも事業者が自主的に守るよう促す目的で策定されるものである。AIオフィスと欧州AI委員会 (European Artificial Intelligence Board 、略称: EAIB) の指揮の下、行動規範の策定参加者は提供者だけでなく導入者も加わり、外部専門家や利害関係者からも助言支援を仰ぐことができる。欧州AI委員会はEU加盟各国から1名代表を出して構成される会議体であり、欧州データ保護監察官 (英語版 ) (European Data Protection Supervisor 、略称: EDPS) もオブザーバー参加する。
AIを積極活用するデジタル・プラットフォーム は複数のプレイヤーが複雑に連携しあって構築・運営されていることから、政府がルールを設定し、事業者がそれを遵守し、ユーザー個人はその恩恵を受け身の姿勢で待つという従来型のトップダウン的なガバナンス構造では、対応スピード面で限界に達しているとの識者見解もある[ 95] :3–4 。AI法の実践規範や行動規範のように事業者が自主的に策定に関与して、安全なAIの普及をボトムアップ的に促進するアプローチの必要性は、先進7か国首脳会議 (G7) でも2023年の広島サミット で議論されており[ 96] 、後に具体化されて「広島AIプロセス 国際行動規範」の名称で文書化がなされている[ 97] [ 98] 。
罰則
AI法の第12章 (第99条から第101条) が罰則規定になっている。違反の場合はレベルごとに異なる罰則を設けており、最大で3,500万ユーロ (2024年時点で約56億円相当)、あるいは年間世界売上高の7%相当のいずれか高い方の金額が制裁金として科される (大企業の場合)。ただしAI法が定めるのは制裁金の上限であり、実際の金額はEU加盟各国が決定する。
#段階適用 で後述のとおり、AI法は条文ごとに段階的に適用開始となる。汎用AIモデルに関しては、義務の適用が開始されてもしばらくは罰則規定が未適用となる。
条文の全体構成
EU官報 の原文に基づき[ 1] 、日本語の仮訳と英語の条名を以下に併記する。
前文 (Recital) - (1) から (180) まで。立法の目的や、各条文で用いられる用語の定義などを含む。
第1章 (Chapter 1): 一般規定 (General Provisions) - 第1条から第4条まで。第1条が規制の対象となるAI (Subject matter)、第2条が規制の対象者 (Scope)、第3条が用語の定義 (Definitions)、第4条がAIリテラシー (AI literacy)。
第2章 (Chapter 2): 禁止されるAIの利用・運用方法 (Prohibited AI Practices) - 第5条のみ。第5条には (a) から (h) まで8項があり、欺瞞的なデザインや差別的なコンテンツの生成など、具体的な禁止事項が列記されている。
第3章 (Chapter 3): 高リスクAIシステム (High-risk AI Systems) - 第6条から第49条まで。第9条でリスク管理体制の整備を、第10条でデータ・ガバナンス方針を、第11条で技術設計などの文書化を、第12条でログの記録義務をそれぞれ定めている。
第4章 (Chapter 4): 特定のAIシステムの提供者および導入者に対する透明性の義務 (Transparency Obligations for Provider and Deployers of Certain AI Systems) - 第50条のみ。
第5章 (Chapter 5): 汎用AIモデル (General-purpose AI Models) - 第51条から第56条まで。第51条がGPAIの定義、第53条から第55条がGPAIに課される義務、第56条がGPAIの実践規範 (Codes of Practice)。
第6章 (Chapter 6): イノベーション支援措置 (Measures in Support of Innovation) - 第57条から第63条まで。第57条から第61条までがAI規則サンドボックス (AI regulatory sandboxes) に関する規定。第62条が中小企業・スタートアップ支援措置。
第7章 (Chapter 7): ガバナンス (Governance) - 第64条から第70条。EU全体レベルおよびEU加盟国レベルのガバナンス。
第8章 (Chapter 8): 高リスクAIシステムのEUデータベース (EU database for high-risk AI systems) - 第71条のみ。附則 3 (Annex III) で列記される高リスクAIシステムを一覧公表。
第9章 (Chapter 9): 市場導入後の動向観察、情報共有と市場調査 (Post-market Monitoring, Information Sharing and Market Surveillance) - 第72条から第94条。市場監視規則 (英語版 ) (Regulation (EU) 2019/1020) をAI法にも適用。
第10章 (Chapter 10): 行動規範とガイドライン (Codes of Conduct and Guidelines) - 第95条・第96条。
第11章 (Chapter 11): 権限の委任および委員会の手続 (Delegation of Power and Committee Procedure) - 第97条・第98条。Regulation (EU) No 182/2011 (欧州委員会の実施権限行使に関する規則) に基づく[ 注 12] 。
第12章 (Chapter 12): 罰則 (Penalties) - 第99条から第101条。
第13章 (Chapter 13): 最終規定 (Final Provisions) - 第102条から第113条。第102条から第110条は、他のEU規則やEU指令の改正情報[ 注 13] 。第111条・第113条にて、段階的な適用日を設定。
附則 (Annex) - 附則1 (Annex I) から 附則13 (Annex XIII) まで。禁止されるAIのうち、リアルタイム・リモート生体識別の例外を附則2で規定。高リスクAIシステムに対し、AI法以外で多重に規制をかけるEU諸法令を附則1にて、AI法で新たに規制がかかる8領域を附則3にてそれぞれ列記。AI提供者の技術文書化義務関連が附則4。適合性評価関連が附則5から附則7。透明化義務関連が附則11・附則12。汎用AIモデルのシステミックリスクに関して附則13で基準列記。
立法の沿革
AI法の立法は、欧州委員会委員長のジャン=クロード・ユンケル 主導の下、2015年に提唱されたデジタル単一市場戦略 (DSM戦略) の一環である[ 101] 。時に強固な「フェデラリスト」(欧州中央集権派) と批判的に評されたユンケルは[ 102] 、その任期中 (-2019年) にDSM関連法案を28本成立させ、AI法を含む2法案はユンケルから委員長職を受け継いだウルズラ・フォン・デア・ライエン 体制下で実現している[ 103] 。DSM戦略とは、デジタル・プラットフォーム全般に消費者や事業者が安全、公正かつ効率的にアクセスできるよう、EU各国の法制度や技術規格が統一化されたデジタル経済圏を指すデジタル政策である[ 104] :1 。
EUにおける立法プロセスの3者構造
AI法の審議過程は、欧州連合の通常立法手続 を踏んでいる[ 3] 。すなわち、行政機関の欧州委員会 (Commission) が法案を提出し、立法機関の欧州議会 (Parliament) と欧州連合理事会 (Council) がそれぞれで共同採択されて初めて成立する。以下のとおり審議中に複数回、原案への修正意見が提出されているため[ 28] 、メディア報道や学術文献によっては執筆当時の古い条文を基に論評・解説している可能性があり、注意が必要である。
2021年4月22日 - EUの行政機関である欧州委員会が法案を提出[ 3]
2022年12月6日 - 欧州連合理事会が修正案を採択し[ 注 14] 、欧州議会との交渉合意決議 (英 : position [ 注 15] ) を可決[ 28]
2023年6月14日 - 欧州議会が賛成499票、反対28票、棄権93票で修正案を採択し[ 3] [ 28] [ 注 16] 、欧州連合理事会との交渉合意決議を可決[ 28]
2023年12月9日 - 両立法府による共同採択の迅速化を目的とする「三者対話 (英語版 ) 」(英 : trilogue 、トリローグ) の場が設けられて、欧州委員会、欧州議会、欧州連合理事会のそれぞれから成る代表者によって交渉が行われ、修正案が合意[ 28] [ 注 11]
2024年3月13日 - 欧州議会で三者対話の修正案が審議され、賛成523票、反対46票、棄権49票で可決[ 3] [ 2]
2024年5月21日 - 欧州連合理事会で三者対話の修正案が審議され、賛成27票の満場一致で可決[ 3] [ 4] :2
2024年6月13日 - 欧州議会議長および欧州連合理事会議長が署名し、AI法が成立[ 3] 。
2024年7月12日 - EU官報 上で公布 (EU官報番号: L, 2024/1689 )[ 3] [ 1] 。
段階適用
第113条の規定に基づき、AI法は以下のとおり段階的に適用が開始されるが[ 1] 、発効から2年後の2026年8月2日が「本格適用」と位置づけられている。
2024年8月1日 - AI法が発効 [ 1]
2025年2月2日 - 第1章および第2章 (第1条から第5条) が適用開始し、(1) 許容されないリスクのあるAIが全面禁止[ 1]
2025年8月2日 - 第3章のセクション4 (第28条から第39条; 適合性評価機関)、第5章すべて (第51条から第56条; 汎用AIモデル)、第7章すべて (第64条から第70条; ガバナンス)、第9章の第78条のみ (規制当局の守秘義務)、第12章 (第99条から第100条; 罰則のうち汎用AIモデルを対象とした第101条のみ除外)[ 1]
2026年8月2日 - 第6条第1項を除く全条項が適用開始[ 1]
2027年8月2日 - 第6条第1項 (高リスクAIシステムのうち、他EU法令と多重規制となるものに対する規制) が適用開始[ 1]
評価・分析
上述のとおり、仮に日本や米国などのEU域外で設立された団体や他国民であっても、EU域内にAIを導入したり、AIを稼働・提供したりする場合はAI法の規制対象となる (いわゆるEU域外適用)。特に生成AI (つまり汎用AIモデル) にとってはAI法が厳しすぎるとの声も挙がっている[ 108] :11 。
AI法発効以前でも既に、個人データ保護を規定するEU一般データ保護規則 (GDPR) などが求める保護水準を遵守するのが困難との理由から、一部AIがEU市場へのサービス提供を断念する、あるいは機能を制限する対応をとっている[ 108] :11 。たとえば米国Meta社 (旧Facebook社) は開発中のマルチモーダルAI (英語版 ) (Multimodal AI ) をEU市場向けに提供しない方針を2024年7月 (AI法の発効前月) に明かしている[ 109] [ 110] 。マルチモーダル (Modal は様式・手法の意) とはテキスト、音声、画像、動画といったデータの種類を複数統合して処理するため、単一モーダルと比較してより複雑な処理が可能とされる[ 111] 。Meta社には既に単一モーダルAIの「Llama 3」があるが、マルチモーダルAIにはより多くの学習データ収集が必要とされるため、GDPRなどの規制下では十分なデータ取得が困難と判断したためである[ 109] 。Appleも同様に、プライバシー保護やデータセキュリティ上の懸念から、同社AIの一部機能をEU市場向けに提供しない旨がAI法発効2か月前に発表されている[ 109] 。
AI法はGDPRなどの既存法の遵守も同時に求めていることから[ 108] :10 、EU域外の事業者にとってはEUへの展開の障壁となりうるとの指摘もある[ 108] :11 。
違反・訴訟事例
日本語ではAI「法」と呼称されることも多いが[ 7] 、EU法 における法体系上は「規則 」(英 : Regulation ) に分類される[ 1] 。(AI法に限らず)「EU規則」はEU加盟国の個人や企業・団体などを直接拘束するほか、違反時には欧州司法裁判所 (CJEU) などのEU各裁判所への提訴対象となる[ 113] :190–191 。
クネシュケ対LAION事件
当事件は世界初の本格的なAI訴訟判決と言われ、欧州だけでなく世界的にも注目されている[ 114] [ 115] [ 116] 。写真画像が無断でAI学習データとして収集 (スクレイピング ) されたことから、著作権侵害 が問われた事件である[ 114] [ 115] [ 117] 。汎用AIモデルはDSM著作権指令 で定められたオプトアウト (著作物の権利者が無断収集を拒否する権利) の尊重が求められ、その遵守にあたってはAI法 第53条第1項(c)号で「最先端の技術を用いるなどの手段」を用いると規定されている[ 115] 。写真掲載サイトの一般的な利用規約で表示されているオプトアウトの意思表明は、AIが「最先端の技術」をもって読み取り、収集対象から除外すべきものだったのか、その文言解釈も問われることとなった[ 114] [ 115] [ 117] 。2024年9月に原告敗訴の判決が一審のドイツ・ハンブルク地方裁判所 (ドイツ語版 、英語版 ) で下されているが[ 114] [ 115] [ 117] 、2024年11月時点で控訴中であり[ 118] 、欧州司法裁判所への付託の可能性が専門家から言及されている[ 115] [ 注 17] 。
関連項目
脚注
注釈
^ 他にはAI Act [ 7] や略称のAIA [ 7] 、AI規制法 [ 8] [ 9] 、欧州人工知能法 [ 10] 、EU人工知能法 の呼称が日本語文献で用いられており、訳語の統一性はない。
^ 「包括的」なAI規制としてはAI法が世界初だが、個別トピックに応じたAI規制を複数導入している国の例としては中国が挙げられる。中国ではAIのアルゴリズム に関する規制だけでも「インターネット情報サービスアルゴリズム・レコメンデーション管理規定」、「インターネット情報サービス深度合成アルゴリズム管理規定」、生成AIに特化した「生成人工知能サービス管理暫行弁法」と少なくとも3つの規制法が並存する[ 13] 。
^ 時系列の主な適用条項をまとめると、2025年2月2日より (1) 許容されないリスクのあるAIが全面禁止。2025年8月2日より汎用AIモデルの義務履行、汎用AIモデル以外に対する罰則規定が適用開始。2026年8月2日より第6条第1項以外の全条項が適用され、「本格適用」の位置づけ。2027年8月2日より残った第6条第1項の高リスクAIシステムのうち、他EU法令と多重規制となるものに対する規制が適用開始[ 1] 。
^ 立法府の欧州議会によるこのような分類方法は、行政府である欧州委員会 が2021年に公表した論考で用いられたものを踏襲している。
^ 「サブリミナル」の定義について、前文 (29) の英語原文は"...subliminal components such as audio, image, video stimuli that persons cannot perceive, as those stimuli are beyond human perception, or other manipulative or deceptive techniques that subvert or impair person’s autonomy, decision-making or free choice in ways that people are not consciously aware of those techniques or, where they are aware of them..." と記述している。
^ AI法の前文 (31) はソーシャルスコアリングの項であり、ソーシャルスコアリングが差別や不公平・不正義をもたらしうるとして、規制の背景を述べている[ 44] 。
^ あくまで警察などの法執行機関がこのような状況下で用いる場合のみ、AI法の禁止除外に指定されている。法執行機関以外のRBIは禁止されており、AI法以前から運用されている2016年のEU一般データ保護規則 (GDPR) 第9条の規定と矛盾するものではない。
^ Annex I Section Aで12本が列記されている。法令番号の頭4桁は法令の成立西暦年を意味する。1. 機械指令 Directive 2006/42/EC、2. 玩具の安全性指令 Directive 2009/48/EC、3. レジャー用・個人用船舶指令 Directive 2013/53/EU、4. エレベーター及びその部品に関する指令 Directive 2014/33/EU、5. 爆発性環境下での保護システムに関する指令 Directive 2014/34/EU、6. 無線機器指令 Directive 2014/53/EU、7. 圧力機器指令 Directive 2014/68/EU、8. ロープウェイ設備規則 Regulation (EU) 2016/424、9. 個人用保護器具規則 Regulation (EU) 2016/425、10. ガス燃料機器規則 Regulation (EU) 2016/426、11. 医療機器規則 Regulation (EU) 2017/745、12. 体外診断用医療機器規則 Regulation (EU) 2017/746。
^ Annex I Section Bで8本が列記されている。Section Aの12本から引き続き、連番を振る。13. 民間航空の安全性に関する規則 Regulation (EU) No 300/2008、14. 二輪、三輪及び四輪車両に関する規則 Regulation (EU) No 168/2013、15. 農林業用車両に関する規則 Regulation (EU) No 167/2013、16. 船舶用機器に関する指令 Directive 2014/90/EU、17. 鉄道網の相互運用性に関する指令 Directive (EU) 2016/797、18. 自動車及びその部品に関する規則 Regulation (EU) 2018/858、19. 自動車の型式承認に関する規則 Regulation (EU) 2019/2144、20. 民間航空分野の共通ルールに関する規則 Regulation (EU) 2018/1139。
^ AI法は、立法府である欧州議会と欧州連合理事会の共同採択による通常立法手続 を経て制定されている[ 1] 。このようなEUの法令を「派生法」と呼ぶ。派生法を実施するために採択される施行法を「委任法令」、その手続を「委任立法」と呼ぶ。行政府である欧州委員会が委任立法の権限を有している[ 57] 。
^ a b 2023年12月9日の三者対話の合意ののち部分修正が加えられ、2024年2月2日に三者対話の最終修正案が公表されている[ 65] [ 66] 。
^ Regulation (EU) No 182/2011は明治大学法学部 夏井高人教授の日本語参考訳 も参照のこと。
^ 第102条から第110条に列記されているのは順に、空港や航空機の警備 に関する規則 Regulation (EC) No 300/2008 、農林業用車両に関する規則 Regulation (EU) No 167/2013 、二輪車・三輪車・人力の四輪自転車 に関する規則 Regulation (EU) No 168/2013 、船用機器指令 Directive 2014/90/EU 、鉄道システムのEU域内互換性に関する指令 Directive (EU) 2016/797 、自動車などの型式認証に関する規則 Regulation (EU) 2018/858 、欧州航空安全機関 の設立などを定めた規則 Regulation (EU) 2018/1139 、自動車などの型式認証に関する部分改正規則 Regulation (EU) 2019/2144 、消費者団体訴訟指令 Directive (EU) 2020/1828 である。これらの規則・指令がAI法により部分改正された。
^ 欧州連合理事会の法案可決には特定多数が必要である。欧州連合理事会には、加盟国からそれぞれ代表を送る仕組みとなっており、加盟国数の55%以上かつ加盟国全人口の65%以上からの支持を特定多数と呼ぶ。このように単純国数だけでなく、人口比率も加味した方式を「二重多数決制」と呼ぶ。
^ 欧州連合におけるpositionの可決は「立場」と訳されることもある。
^ 欧州議会の法案可決には単純過半数が必要である。欧州議会は加盟国の人口に比例して国別の議席数が割り振られ、EU市民の直接選挙によって議員が選出されている。多くの議員は国を超えた特定の政党に所属している。
^ EU加盟国内の裁判所で、EU法令などの解釈や効力について争点となった場合、いったん国内の訴訟は中断して欧州司法裁判所 (CJEU) などのEU裁判所に判断を付託することができる。この手続を「先決裁定」(英 : preliminary ruling procedure ) と呼ぶ[ 119] [ 113] :193 。
出典
^ a b c d e f g h i j k l m n o p 欧州委員会 および欧州連合理事会 (2024年6月13日). “Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) ” (英語). EUR-Lex . 2024年11月11日 閲覧。
^ a b c “Artificial Intelligence Act: MEPs adopt landmark law ” [AI法: 欧州議会で画期的な法律が可決] (英語). Official Press Release (公式発表) . 欧州議会 (2024年3月13日). 2024年11月11日 閲覧。 “with 523 votes in favour, 46 against and 49 abstentions (賛成523票、反対46票、棄権49票)”
^ a b c d e f g h i j k l 欧州委員会 および欧州連合理事会 . “Procedure 2021/0106/COD | COM (2021) 206: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS ” [AI法の通常立法手続 (審理手続番号: 2021/0106/COD)] (英語). EUR-Lex . 2024年11月11日 閲覧。
^ a b Voting result | REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) [AI法の投票結果] (PDF) (Report) (英語). 欧州連合理事会 . 22 May 2024.
^ a b c “EU AI Act – EUの包括的AI規制の概説と企業の対応 ”. デロイト トウシュ トーマツ . 2024年11月11日 閲覧。 “本記事は2024年4月16日に欧州議会から公開されたAI Actの最新版を踏まえて作成”
^ 三部裕幸 (弁護士)『EUのAI規制法案の概要 』(PDF)(レポート)総務省 〈総務省 AIネットワーク社会推進会議 AIガバナンス検討会「諸外国におけるAI規制の動向に関する調査研究」〉、2022年。https://www.soumu.go.jp/main_content/000826707.pdf 。
^ “EUのAI規制法~その影響と対策のポイントは ” (英語). KPMG (2024年5月27日). 2024年11月11日 閲覧。
^ 研究開発戦略センター デイリーウォッチャー編集局 (2024年8月28日). “欧州人工知能法が発効 ”. 国立研究開発法人 科学技術振興機構 研究開発戦略センター (CRDS). 2024年11月11日 閲覧。
^ “生成AIを巡る米欧中の規制動向最前線 | 中国におけるAI関連規制 ”. PricewaterhouseCoopers . 2024年11月30日時点のオリジナルよりアーカイブ 。2024年11月30日 閲覧。
^ a b c d e f g h i j k l m n o p “Historic Timeline ” [時系列情報] (英語). EU Artificial Intelligence Act . The Future of Life Institute (非営利研究機関). 2024年11月11日 閲覧。
^ a b c d e f Rossberg, Nicola (School of Computer Science & IT, University College Cork); Visentin, Andrea (School of Computer Science & IT, University College Cork). "AI for social scoring" [ソーシャルスコアリングを用いるAI]. The TAILOR Handbook of Trustworthy AI (partially supported by TAILOR, a project funded by EU Horizon 2020 research and innovation programme) (英語). 2024年11月19日閲覧 。
^ “EU AI Act: first regulation on artificial intelligence” (英語). European Parliament News . オリジナル の10 January 2024時点におけるアーカイブ。. https://web.archive.org/web/20240110162551/https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence 2024年1月6日 閲覧。
^ “Recital 31 AI systems for social scoring ” [前文 31: ソーシャルスコアリングを用いたAIシステム] (英語). AI法前文の項目別抜粋ページ . Intersoft Consulting. 2024年11月19日 閲覧。
^ 松澤登 (ニッセイ基礎研究所 保険研究部 専務取締役 研究理事 兼 ヘルスケアリサーチセンター長) (2022年12月21日). “デジタルプラットフォーム透明化法-透明化法はデジタル市場法になりえるのか? ”. ニッセイ基礎研究所 . 2024年11月21日時点のオリジナルよりアーカイブ 。2024年11月19日 閲覧。
^ 濵本正太郎 (京都大学法学研究科国際機構法教授)『第2回 EUの機構的構造・立法過程・EUと構成国との権限配分 』(PDF)(レポート)京都大学 〈京都大学法科大学院・公共政策大学院 2016年度後期 EU法 第2回予習資料〉、2016年、6頁。http://www.hamamoto.law.kyoto-u.ac.jp/kogi/2016/2016EU/02kiko.pdf 。
^ a b “Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world ” [AI法: 欧州連合理事会と欧州議会が世界初のAI関連法で合意] (英語). 欧州連合理事会 (2023年12月9日). 2024年11月19日 閲覧。
^ a b 欧州連合理事会 および欧州議会 (2 February 2024). Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS [AI法案] (PDF) (Report) (英語). 欧州連合理事会 .
^ “CEマーキングの概要:EU ”. JETRO (2024年9月). 2024年11月23日時点のオリジナルよりアーカイブ 。2024年11月19日 閲覧。
^ “First Draft of the General-Purpose AI Code of Practice published, written by independent experts ” [第三者専門家による汎用AIモデル向け実践規範の草案初版が公表] (英語). Shaping Europe’s digital future . 欧州委員会 (2024年11月14日). 2024年11月19日 閲覧。
^ First Draft General-Purpose AI Code of Practice [汎用AIモデル向け実践規範の草案初版] (PDF) (Report) (英語). 欧州委員会 . 14 November 2024.
^ 宍戸常寿 (東京大学大学院 法学政治学研究科 教授); 谷脇康彦 (デジタル政策フォーラム 代表幹事)『【特集 デジタルガバナンスの未来】1 データ駆動社会におけるガバナンス機構 』(PDF)(レポート)デジタル政策フォーラム〈デジタル政策の論点 2024〉。https://www.digitalpolicyforum.jp/dpi2024_s1/ 。
^ 総務省 ; 経済産業省 (2024). Outline of the draft "AI Guidelines for Business" [事業向けAIガイドライン草案の概要 仮訳] (PDF) (Report) (英語). 経済産業省. p. 6.
^ “広島AIプロセス 成果文書 ” (英語). 総務省 . 2024年11月24日時点のオリジナルよりアーカイブ 。2024年11月24日 閲覧。
^ 『高度なAIシステムを開発する組織向けの広島プロセス国際行動規範 (仮訳) 』(PDF)(レポート)総務省 。https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document05.pdf 。
^ Martinello, Barbara. “The ubiquitous digital single market ” [誰もがどこからでもアクセスできるデジタル単一市場] (英語). 欧州議会 . 2024年11月11日 閲覧。
^ “Profile: EU's Jean-Claude Juncker ” [ジャン=クロード・ユンケルの略歴] (英語). BBC (2014年7月15日). 2018年11月1日時点のオリジナル よりアーカイブ。2024年11月11日 閲覧。
^ JETRO ブリュッセル事務所海外調査部『EUデジタル政策の最新概要 』(PDF)(レポート)JETRO 、2021年10月、2頁。https://www.jetro.go.jp/ext_images/_Reports/01/0a88cad7cdac3e5a/20210038.pdf 。
^ “デジタル単一市場の構築―次代を切り開くEUの成長戦略 ” (英語). Europe Magazine (駐日欧州連合代表部の公式ウェブマガジン) . 駐日欧州連合 代表部 (2015年6月29日). 2024年11月11日 閲覧。
^ a b c d 柏木亮二 (野村総合研究所 IT事業戦略分析 エキスパート研究員)『AIイノベーション 日本型生成AI規制の可能性 』(PDF)(レポート)野村総合研究所 、2024年9月、10–11頁。https://www.nri.com/-/media/Corporate/jp/Files/PDF/knowledge/publication/kinyu_itf/2024/09/itf_202409_05.pdf 。
^ a b c 田口和裕 (2024年7月19日). “AI大手、規制警戒で“EU離れ” メタもマルチモーダルAI提供見送りへ ”. ASCII x AI . 角川アスキー総合研究所. 2024年9月26日時点のオリジナルよりアーカイブ 。2024年11月19日 閲覧。
^ Fried, Ina (2024年7月17日). “Scoop: Meta won't offer future multimodal AI models in EU ” [スクープ: Meta社はマルチもダルAIモデルをEUに提供しない方針] (英語). Axios Media. 2024年11月18日時点のオリジナルよりアーカイブ 。2024年11月19日 閲覧。
^ “マルチモーダルAI ”. AI用語解説 . ソフトバンク . 2024年10月8日時点のオリジナルよりアーカイブ 。2024年11月19日 閲覧。
^ a b 佐藤智恵 (明治大学准教授)「EU法の一般原則の特徴と意義 」『国際法外交雑誌』第16巻第2号、一般財団法人 国際法学会 、2017年、189–210、doi :10.60340/kokusaihogaikozasshi.116.2_189 。
^ a b c d 野口ケルビン (米国特許弁護士) (2024年11月1日). “AIトレーニングデータは著作権保護対象外?:ドイツにおける初の判決が示唆するポストAIの世界とアメリカとの違い ”. Open Legal Community (知財メディアサイト) . 2024年11月9日 閲覧。
^ a b c d e f Ehle, Kristina (弁護士事務所パートナー); Tüzün, Yeşim (弁護士事務所アソシエート). "To Scrape or Not to Scrape? First Court Decision on the EU Copyright Exception for Text and Data Mining in Germany" [データ収集すべきか否か? ドイツでテキストおよびデータマイニング (TDM) に関するEU著作権例外規定の初判決] (英語). Morrison & Foerster LLP. (法律事務所). 2024年11月9日閲覧 。
^ Kalhor-Witzel, Ronak (知的財産法専門弁護士) (2024年10月24日). “A landmark copyright case with implications for AI and text and data mining: Kneschke v. LAION ” [人工知能とテキスト・データマイニングの解釈に関する著作権侵害訴訟の重要判決: クネシュケ対LAION] (英語). Trademark Lawyer Magazine . CTC International Media Limited. 2024年11月9日 閲覧。
^ a b c “2024 WIPO IP Judges Forum Informal Case Summary – Hamburg Regional Court, Germany [2024 : Robert Kneschke v. LAION e.V., Case No. 310 O 227/23]” [2024年 WIPO 知的財産法フォーラム用非公式判例要約 - 2024年ドイツ・ハンブルク地裁: ロベルト・クネシュケ対LAION (事件番号: 310 O 227/23)] (英語). WIPO . 2024年11月9日 閲覧。
^ Kneschke, Robert (2024年11月5日). “Künstliche Intelligenz, Rechtliches | Berufung eingelegt bei meiner Klage gegen LAION e.V. ” [人工知能、法務 | 私が提起した対LAION訴訟で控訴しました] (ドイツ語). Alltag eines Fotoproduzenten (訳: 写真家としての日々) . 2024年11月9日 閲覧。 “Vor einigen Tagen habe ich Berufung eingelegt in meiner Klage wegen Urheberrechtsverletzung gegen den Verein LAION e.V. (訳: 数日前、LAIONを相手取った著作権侵害訴訟で控訴しました。)”
^ 中村民雄 (2018年6月19日). “EUの裁判所 ”. 小学館 日本大百科全書(ニッポニカ) . コトバンク . 2024年11月9日 閲覧。 “(1)先決裁定手続preliminary ruling procedure...”
参考文献
外部リンク