18188bet

<ウェブサイト名>

<現在の時刻>

出典: 標準

このサイトではJavascript機能をOnにしてご利用ください。 ページの本文へ 日本語 English 中文 RIETIについて サイトマップ ヘルプ お問い合わせ 論文検索サービス サイト内検索 メニュー 研究テーマ プログラム (2024-2028年度) プログラム (2020-2023年度) プログラム (2016-2019年度) プログラム (2011-2015年度) 政策研究領域 (2006-2010年度) 主要政策研究課題 (2003-2005年度) 経済産業省共同プロジェクト プロジェクトコンテンツ 調査 フェロー(研究員) 肩書き別一覧 アルファベット順 過去の在籍者 フェローの活動 論文 ディスカッション・ペーパー(日本語) ディスカッション・ペーパー(英語) ポリシー・ディスカッション・ペーパー(日本語) ポリシー・ディスカッション・ペーパー(英語) テクニカル・ペーパー(日本語) テクニカル・ペーパー(英語) ノンテクニカルサマリー 英文査読付学術誌等掲載リスト Research Digest 政策分析論文 調査レポート 論文検索サービス 出版物 RIETIブックス(日本語) RIETIブックス(英語) 通商産業政策史 著者からひとこと RIETI電子書籍 年次報告書・広報誌(RIETI Highlight) その他出版物(日本語) その他出版物(英語) イベント シンポジウム ワークショップ BBLセミナー 終了したセミナーシリーズ データ・統計 JIPデータベース R-JIPデータベース CIPデータベース JLCPデータベース 日本の政策不確実性指数 産業別名目・実質実効為替レート AMU and AMU Deviation Indicators JSTAR(くらしと健康の調査) RIETI-TID 長期接続産業連関データベース マイクロデータ計量分析プロジェクト 海外直接投資データベース ICPAプロジェクト リンク集 コラム・寄稿 コラム Special Report EBPM Report フェローに聞く フェローの連載 世界の視点から 特別コラム 新聞・雑誌等への寄稿 特別企画 経済産業ジャーナル 研究テーマ フェロー(研究員) 論文 出版物 イベント データ・統計 コラム・寄稿 サイトマップ ヘルプ お問い合せ 閉じる ホームコラム・寄稿コラム2021年度 AI規制は時期尚早か?「EUによる規制法案から考えるAI倫理」 ツイート 印刷 川嶋 雄作 コンサルティングフェロー システム不具合が招いた内閣総辞職 2021年1月、オランダのルッテ内閣が、不適切な詐欺検知システムにより10,000を超える家庭から育児手当を不当に返還させたスキャンダルの責任を取るため、コロナ対応の渦中ながら総辞職した(注1)。このスキャンダルが大きな議論を巻き起こした背景には、書類のミスを一切許さない遊びのないシステムを開発した技術的な課題や特定の人種や多国籍保有者を差別的にターゲットにするといった運用的な課題がある(注2)。今回の事例を通じて、すでに行政において機械による意思決定が重要な判断に活用されていること、また、そのシステムを適切にコントロールできなかった結果として多くの人を困窮に貶めてしまうケースがあるということが明らかになった。デジタル庁の発足を2021年9月に控え、日本での行政活動もデジタル化が進む見込みである。本稿では、AI倫理を中心としたデジタル技術を取り巻く最新の動向を俯瞰しつつ、EUが新たに発表したAI規制法案を紹介することを通じて、政策的示唆を得ることを目的に議論したい。 筆者は2011年に経済産業省に入省以来、ビッグデータ活用、オープンデータ、ロボット実証事業などの業務を通じてデジタル・AIに関連した政策の企画・立案を行ってきた(なお、ここに示す内容は個人の見解であり、所属する組織の見解ではない)。また2017年から米国に留学し、統計やAI開発手法等を学んできた。これまでのキャリアを振り返っても、AIの責任ある使用方法、偏見の排除、説明可能性などに関する「AIのあるべき論(AI倫理)(注3)」が近年ほど活発に議論されるようになったことはかつてなかった。国際的にもこの潮流は顕著であり、2019年にはEUの欧州委員会(EC)のEthics Guidelines for Trustworthy AI(4月)(注4)、OECDのAI原則(5月)(注5)、G20のAI原則(6月)(注6)、など、立て続けにAI倫理に関する国際的な合意がなされた。これはAIがこれまでの実証実験的なフェーズを乗り越え、生活のさまざまな領域で本格的に活用されつつあることの証左であろう。 AIとは そもそもAIとはArtificial Intelligenceの略称で、日本語では人工知能と訳される。これは機械に人間の知性が行っている活動を行わせようとする学問領域であり、その中には人間の知性そのものを再現しようとする「強いAI」と人間の知性の一部を機械に代替させる「弱いAI」という大きな2つの方向性がある(注7)。弱いAIには、自然言語処理・画像認識・ロボットなどの機能が包括されており、統計に基づく機械学習といった手法がその機能を実現する基盤となっている(注8)。どの機能であれ、基本となる構造は、ある入力データに対してモデルがその入力を解析し判断結果を出力として返すことである。また、ビッグデータ、クラウドコンピューティング、センサーなどはAIの開発や運用を後押しするインフラのように機能している。AIは多種多様な形で多くの産業領域に浸透しつつあり、著名なAI活動家であるAndrew Ng氏は、AIがまるで100年前に電気が引き起こしたように、全ての産業を変革しつつある、と紹介している(注9)。日本経済の発展においてもAIは引き続き重要なテーマになることは間違いがない。 AIが抱える課題 現在AIは多様な形ですでに日常生活に活用されていて、今後もさらに活用が広がる見込みである。他方、AIには特有の課題があり、AI活用が進むにつれそれらの課題は無視できない状態になりつつある。以下に紹介するものはAIに関連するさまざまな課題のごく一部であるが、こういった課題に適切に対応し、より良いAIの発展を促進しようという考えから、近年AI倫理に関する議論が活発化していると考えられる。 代表的な課題の1点目として、AIは多くの場合において確率的に判断を行うため、100%正確にはなりえず、その誤判断により引き起こされた結果が多大な影響をもたらす可能性があることが挙げられる。したがって判断を間違えることにより発生した損害を誰がどのように補償するべきなのか、という議論が必要となる。例えば、国土交通省は2018年に自動運転が引き起こした損害への対応に関する考え方を発表している(注10)。 2点目は、AIは一定のデータをもとに学習を行うことから学習データの内容が不完全だったり差別的なものだった場合、差別的な判断を繰り返し導きかねないことが挙げられる。例えばこれまでの人事採用において、ある特徴(性別・出身大学等)を持つ被験者を優先的に採用する傾向があったとして、その採用結果を学習用データにAIモデルを構築したところ、特定の特徴を持つ被験者を優先的に採用し続けるモデルとなる可能性がある(注11)。 3点目として、AIが判断に至った理由や背景を説明することが時として不可能になり、結果としてAIの判断の信憑性や発展性に疑問が生まれることが挙げられる。例えば企業がAIを活用してビジネスを行った場合に、その判断に伴う結果について、「AIが判断した」以上の説明ができないとなると、適切な改善方法を検討することもままならない。 EUによるAI規制 AI倫理はさまざまな機関がそれぞれの状況に合わせた適切なAIの在り方を検討する形で進められてきており、法的な拘束力を伴った国際的な規制は筆者の知る限り存在しなかった。そんな中、2021年4月21日、ECがAIの利用に関する包括的な規制法案として、Proposal for a Regulation on a European approach for Artificial Intelligenceを発表した(注12)。これは、EUがこれまで行ってきたAIの適切な活用のための議論(注13)の中で、大きな方向性として打ち出されていた、「Excellence」と「Trust」の特に「Trust」を担保するための規制である。実際に発効するには欧州議会などでの議論を経る必要があり、数年かかる見通しである。AIの中から、具体的に規制の対象となるものを列記して、そのリスクの大きさ・重要度に応じて大きく4段階の措置で対応する形式になっている。有償・無償に関わらず欧州域内でAIサービスを提供する日本企業も当該規制措置の対象になる(2条・3条)(注14)。 リスク分類 規制の対象となるAIの例 備考 第一分類 受容できないリスク (5条) サブリミナルな手法により人の行動を操作し、身体的・心理的損害を与えるAI 子どもや身体的・精神的な課題を抱える方の脆弱性を利用して人の行動を操作し、身体的・心理的損害を与えるAI 公的機関等による、行動や人格的特性をもとにその人をスコアリングするためのAI 禁止(5条) 公共空間において法執行のために遠隔で行われるリアルタイム生体認証のためのAI 原則禁止(特定の条件を満たせば使用可能)(5条) 第二分類 ハイリスク (6条) (医療機器など)すでに第三者による適合性審査を通過する必要があるAI商品やその商品の安全のための構成要素としてのAI リアルタイムもしくは事後に行われる遠隔生体認証のためのAI 重要インフラストラクチャーの維持・運営における安全のための構成要素としてのAI 教育や職業訓練を受けるための機関を決定したり希望者を評価して合否判定を行うAI 仕事への採用、業務分担、業務評価を行うAI 重要なサービスへのアクセス(行政サービス、融資、緊急対応措置)を判断するAI 法の執行(犯罪・再犯リスク評価、うそ発見器などの感情状態検出、等)にかかるAI 移民、亡命、国境管理、などに使用されるAI 法律等を調査・解釈をすること等を通じて法務当局を支援するAI 使用にあたっては定められた条件を満たす必要あり(8-15条) 第三分類 限定的リスク (52条) 人と対話を行うAI 感情を識別したり生体情報をもとに人を分類するAI AIを使用している旨を通知する義務あり(52条) Deep fake技術など、コンテンツ(画像・音声・動画)を生成したり操作するAI コンテンツがAIにより生成もしくは操作されている旨を通知する義務あり(52条) 第四分類 最小限のリスク (69条) 上記分類に入らないその他のAI(例えばゲームに使用されるAIや迷惑メールを分類するAIなど) 使用にあたっての規制なし。ただし自主的な行動規範(Codes of Conduct)の策定は推奨される(69条) ※なお、軍事目的のためだけに使用されるAIは当該規制の対象外となっている。(2条) 禁止の対象となるAIは、サブリミナルな手法により人の行動を操作して損害を与えるAI等、大きなリスクがあるものであり、規制が必要と考えられる。具体的な例示にはないが、SNSなどの情報から特定の政党を支持する人を投票に促すようなAI(マイクロ・ターゲティング)なども対象となりえるのではないかと考える(注15、注16)。また、条件付き規制の対象となるハイリスクAIについては、気になる項目が散見される。例えば10条には、ハイリスクAIはエラーを含まないデータに基づいて開発されなければならないとあるが、場合によってはデータのエラーを完全に除去することは非常に困難であったり不可能なケースも想定される。また、AI開発のためのデータは、当該AIの対象を代表する(Representative)データを用いる、とあるがEU域外に拠点を持つ企業等にとってはデータ取得に困難が伴うことも考えられる。加えて、ハイリスクAIの提供者は、欧州各国の監督官庁(Competent Authority)の要請により、AIが定められた条件に適合していることを証明するための情報(AIモデルの詳細など機密情報も含まれうる)を提出する義務が発生するため(16条)、提出情報の秘匿性の確保、万が一にも情報が流出した場合の賠償スキーム、要請手続の公平性などといった論点について、今後の動向を注視する必要がある。 日本における政策の方向性 EUのこういった動きに対して、日本では「(規制は)時期尚早」や「法的拘束力のある横断的な規制は不要」という見方があるが(注17)、当該規制案を参考にしつつAI倫理の議論を深化させることは、AIがかつての電気のように社会を変革しつつある状況を鑑みると非常に重要である(注18)。なお、日本は2016年のG7情報通信大臣会合においてAI開発原則のたたき台を紹介するなど、関連する議論を長らく推進しており、現在も総務省「AIネットワーク社会推進会議」や経済産業省「AI社会実装アーキテクチャー検討会」など、様々な会議体で検討を進めている(注19)。 今回のEUによる規制案を見るにつけ、サブリミナルな手法により人の行動を操作して損害を与えるAI等、EU規制案で禁止とされた受容できないリスクを持つAIについては、深堀りした検討を早急に行うべきではないかと筆者は考える。これらのAIは、総務省が発表している「AI利活用ガイドライン」(注20)の、安全の原則や尊厳・自律の原則に反するものでありその影響も大きいため、他のAI倫理に関連するテーマと同等に扱うのではなく、上述した総務省や経済産業省の会議体などで最重要テーマとして取り扱うことが、政府が標ぼうするリスクベース・アプローチにも適合する(注21)。AIが内包する複雑性(様々なジレンマ)を考えると、特にリスクが大きいAIには速やかに対応し、緊急性が比較的低い他のAIに関する議論はより時間をかけて行うことが適切ではないか(注22)。 加えて、EUによるAI規制案は、日本のAI規制の是非についての議論を進めるための触媒となりえる。例えば、EUがAI規制法案を念頭に置いて行ったパブリックコメントで提出された意見(1,215件)のうち、AI規制は「既存の法体系で十分」と考えている割合がわずか3%だったことや、「新たな規制法が必要」という意見が42%だったことは、日本国内での議論の参考になりえる(注23)。また、今回のEUによる世界初の国際的なAI規制案の発表により、今後数年はAI規制の動向に多くの注目が集まることを鑑みると、将来の規制の方向性について、日本としても検討スケジュールを提示する等、これまで以上に明確なスタンスをとることが、産業の予見性を高め、企業の意思決定・経営判断の参考となる情報を提供する意味で重要だと考えられる(注24)。 脚注 ^ https://www.reuters.com/article/us-netherlands-politics-resignation-idUSKBN29K1IO ^ https://nltimes.nl/2020/12/17/parents-faced-unprecedented-injustice-years-childcare-subsidy-scandal. https://medium.com/berkman-klein-center/why-the-resignation-of-the-dutch-government-is-a-good-reminder-of-how-important-it-is-to-monitor-2c599c1e0100 ^ 厳密にはAI倫理は「あるべきAI像」の一側面でありAI倫理を持ってあるべきAIのすべての面をカバーできているとは考えないが、本稿では便宜上AI倫理という言葉を包括的な「あるべきAI像」として使用する。 ^ Ethics guidelines for trustworthy AI: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai ^ OECD Principles on AI: https://www.oecd.org/going-digital/ai/principles/ ^ G20 AI Principles: https://www.mofa.go.jp/files/000486596.pdf ^ 総務省による「平成28年版 情報通信白書」にあるように、人工知能(AI)の定義は研究者によって異なる。その背景には知性や知能自体の定義が定まっていないことにあると考えられる。 https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/h28/pdf/n4200000.pdf ^ このような分類以外にも、実用化においてAIが果たす機能領域を「識別」「予測」「実行」の3種類に分類する方法などがあるが、便宜上本稿では想像しやすい機能にフォーカスした説明を採用した。 https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/h28/pdf/n4200000.pdf ^ Andrew Ng “AI Transformation Playbook” https://landing.ai/wp-content/uploads/2020/05/LandingAI_Transformation_Playbook_11-19.pdf ^ 「自動運転における損害賠償責任に関する研究会」:https://www.mlit.go.jp/report/press/jidosha02_hh_000336.html ^ AIによる偏見・差別については、Cathy O'Neilの「Weapons of Math Destruction」やHarvard Business Review記事https://hbr.org/2019/10/what-do-we-do-about-the-biases-in-aiを参照されたい。 ^ https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence ^ 議論の経緯は総務省資料を参照されたい。https://www.soumu.go.jp/main_content/000716541.pdf ^ 当該資料はあくまで日本経済に関する政策的課題を提起するために作成されており、法的観点含め正確性は担保していない。法的解釈等については法律事務所などに確認を。 ^ より具体的な人間の尊厳・自律とAIの関係性については、Ted Talkの「We are building a dystopia just to make people click on ads (2017)」やNetflixの「The Great Hack (2019)」や「The Social Dilemma (2020)」に詳しい。またマイクロ・ターゲティング手法については、以下サイトなどに詳しい。https://www.gizmodo.jp/2017/02/trump-win-with-big-data.html ^ なお、マイクロ・ターゲティングを5条で規定する禁止対象に含むかについて、EU規制法案の公開直後に行われたセミナーの場で筆者からEC担当者に質問をしたが、明確な回答は得られなかった。今後の動向をフォローしたい。 ^ 日本経済新聞(4月21日):https://www.nikkei.com/article/DGXZQOGR1900E0Z10C21A4000000/?unlock=1や経産省「AI社会実装アーキテクチャー検討会」中間報告書参照 ^ なお、人間中心の社会(Society 5.0)を実現するための適正な規制のあり方などについては、「GOVERNANCE INNOVATION Society5.0の実現に向けた法とアーキテクチャのリ・デザイン」に詳しいので関心を持つ方は参照されたい。https://www.meti.go.jp/press/2020/07/20200713001/20200713001-1.pdf ^ 「AI戦略2019」フォローアップ版にも「AI社会原則の実装に向けて、国内外の動向も見据えつつ、我が国の産業競争力の強化と、AIの社会受容の向上に資する規制、標準化、ガイドライン、監査等、我が国のAIガバナンスの在り方を検討(2020年度)【CSTI・総・経】」という記載がある。 ^ https://www.soumu.go.jp/menu_news/s-news/01iicp01_02000081.html ^ なお、経産省「第2回 AI 社会実装アーキテクチャー検討会」において、AIが基本的人権に関して持ちうるリスクについて議論があり、人権リスクの位置づけについての議論が日本全体で不足しているのではないかという指摘も出ている。現在米国で活動する筆者が日本政府の公表している各種公表資料を研究した際にも同様の印象を持った。 ^ 他にも偏見の除去と精度(正確性)やセキュリティの確保と記録保存など、様々なジレンマ(トレードオフ)が存在する。詳しくは総務省資料「AI利活用原則の各論点に対する詳説」に詳しい。https://www.soumu.go.jp/main_content/000637098.pdf ^ https://www.soumu.go.jp/main_content/000716541.pdf ^ こちらも参照されたい。https://www.jst.go.jp/ristex/stipolicy/policy-door/article-04.html ツイート 2021年4月26日掲載 印刷 この著者の記事 AI規制は時期尚早か?「EUによる規制法案から考えるAI倫理」 2021年4月26日[コラム] コラム・寄稿 コラム 2024年度 2023年度 2022年度 2021年度 2020年度 2019年度 2018年度 2017年度 2016年度 2015年度 2014年度 2013年度 2012年度 2011年度 2010年度 2009年度 2008年度 2007年度 2006年度 2005年度 2004年度 2003年度 2002年度 2001年度 Special Report EBPM Report フェローに聞く フェローの連載 世界の視点から 特別コラム 新聞・雑誌等への寄稿 特別企画 経済産業ジャーナル 情報発信 ニュースレター 更新情報RSS配信 Facebook X YouTube 研究テーマ プログラム (2024-2028年度) プログラム (2020-2023年度) プログラム (2016-2019年度) プログラム (2011-2015年度) 政策研究領域 (2006-2010年度) 経済産業省共同プロジェクト プロジェクトコンテンツ 調査 フェロー(研究員) 論文 ディスカッション・ペーパー(日本語) ディスカッション・ペーパー(英語) ポリシー・ディスカッション・ペーパー(日本語) ポリシー・ディスカッション・ペーパー(英語) テクニカル・ペーパー(日本語) テクニカル・ペーパー(英語) ノンテクニカルサマリー 英文査読付学術誌等掲載リスト Research Digest 政策分析論文 調査レポート 論文検索サービス 出版物 RIETIブックス(日本語) RIETIブックス(英語) 通商産業政策史 著者からひとこと RIETI電子書籍 年次報告書・広報誌(RIETI Highlight) その他出版物(日本語) その他出版物(英語) イベント シンポジウム ワークショップ BBLセミナー 終了したセミナーシリーズ データ・統計 JIPデータベース R-JIPデータベース CIPデータベース JLCPデータベース 日本の政策不確実性指数 産業別名目・実質実効為替レート AMU and AMU Deviation Indicators JSTAR(くらしと健康の調査) RIETI-TID 長期接続産業連関データベース マイクロデータ計量分析プロジェクト 海外直接投資データベース ICPAプロジェクト リンク集 コラム・寄稿 コラム Special Report EBPM Report フェローに聞く フェローの連載 世界の視点から 特別コラム 新聞・雑誌等への寄稿 特別企画 経済産業ジャーナル RIETIについて 個人情報保護 ウェブアクセシビリティ方針 RIETIウェブサイトについて サイトマップ ヘルプ お問い合わせ 経済産業省 独立行政法人経済産業研究所(法人番号 6010005005426) 当サイト内の署名記事は、執筆者個人の責任で発表するものであり、経済産業研究所としての見解を示すものでは有りません。掲載している肩書や数値、固有名詞などは、原則として初掲載当時のものです。当サイトのコンテンツを転載される場合は、事前にご連絡ください。 "ページの先頭へ戻る

雷撃ライジング 賭け条件無し!カジノ・レオの入金不要フリースピンをゲット♪ stakeカジノ stakeカジノ
Copyright ©18188bet The Paper All rights reserved.