ホームIT避けられないAIリスクとその対処法

IT Insight

避けられないAIリスクとその対処法

レンテックインサイト編集部

IT Insight 避けられないAIリスクとその対処法

ChatGPTに代表される生成AIは、業務の効率化が見込めることからビジネスの現場でも多くの場面で活用されるようになりました。

一方でAIの導入には、コンプライアンス違反や誤情報の拡散、個人情報の漏洩やプライバシー侵害などのリスクが指摘されています。そうした問題を背景に2023年4月に行われたG7会合では、生成AIが急遽、議論のテーマとなりました。

AI先進国のアメリカでも規制案の検討が始まる可能性があるなど、AIリスクへの注目は高まっています。しかしながら、規制強化によりAI導入のメリットを損なう恐れもあるため、規制ルール作りにはまだ多くの課題が残っています。

AIリスクとは

AIリスクとは一般的に、人工知能の活用で社会的・倫理的・法的に発生するさまざまな危険性のことを指します。例えば犯罪の巧妙化、フェイクニュース、著作権侵害、失業者の増大などがあります。

しかし、AI技術は未完成であり実用化されて間もないため、どういったリスクをもたらすのか、はっきりしていません。そのためAIリスクとは何かを詳細に定義することは難しいとされていました。

2023年1月になってNIST(米国国立標準技術研究所)が発行した「AI RMF」(AIリスクマネジメントフレームワーク)で、AIリスクの定義が文書化されました。AIリスクと従来からのリスクは根本的には同じであり、トラブルが起きる確率と、被害の大きさで表されるものです。その上でAIリスクには、従来のリスクと比較して以下の特徴があると考えられています。

セキュリティ

不正アクセスやサイバーテロなどの攻撃を受けるリスク。攻撃から守ること以外に、攻撃を受けたときにシステムの機能が維持できるか。

プライバシー保護

AIシステムが個人を特定してしまい、その情報が漏洩するリスク。個人の趣味趣向や行動パターンなどが分析されてしまうリスク。

人権侵害

AIシステムが特定の人種や性別に対して差別的なバイアスを持たせて公平性を失うリスク。

安全性

AIシステムが人間の生命や健康、財産などを損なうリスク。巧妙なフェイクニュースを信用して詐欺に合うなど。

AI利用による被害の例

AIを活用すれば誰でも巧妙なフェイクニュース・ディープフェイクを生成できる可能性があります。それによりニュースにだまされて、健康や財産などを失う被害が増加することになります。

2023年5月に中国メディアが報じたAI詐欺事件では、IT企業代表の男性が10分で430万元(約8400万円)をだまし取られました。同メディアは加害者がAIで生成した映像や音声などを使って、被害者に本物の友人と誤解させて詐欺を行ったと報じています。

こうしたなりすまし詐欺は、特に電話を使って被害者の身内を装ってだますケースが増加しています。米国内における2022年の被害額が1100万ドル(約15億円)に上ると、米ワシントンポスト紙が発表しました。現状では米国やインドなどで特に多くの被害が見られていますが、このような詐欺の被害は日本でも拡大する可能性があります。

日本で起きたAIに関するトラブルでは、AIが生成した画像やモデルが、著作権侵害を訴えらえるというニュースが話題となりました。発売されたAIグラビア写真集が、実際のモデルに似ているという理由で出版を取りやめた事例です。出版社側は「AI生成物の商品化について世の中の議論の深まりを見据えつつ、より慎重に考えるべきであった」と述べています。

AIリスクに対する国際情勢

前述したように国内外を問わずAIリスクは拡大を続けています。ここではAIリスクに対する国際情勢についてご紹介します。

AI技術の本場アメリカでは、AI安全センター( Center for AI Safety:CAIS)がオンラインで声明文を公開しました。AI権威者ら350人以上が署名した文章で、「AIリスクが核戦争などと同じく世界的な課題となっている」と問題の大きさを表現しています。さらには自らが開発したAI技術によって、人類が滅亡の危機を迎える可能性があるという警鐘も鳴らしています。

EU(欧州連合)では2021年4月にAIシステムを規制する法案を公表しています。この法案ではAIシステムのリスクレベルを定義しており、リスクレベルの高いAIシステムの使用にはリスク管理が義務付けられます。違反した場合には高額の罰金を課される場合があります。

<高リスクのAIシステムの例>

人材採用や業務評価システム

生体認証技術によって人を分類するシステム

医療機器や製造設備の安全性に関わるシステム

避けられないAIリスクとその対処法 挿絵

AIリスクへの対処法とは

国内外問わずAIリスクへの注目が高まっており、2023年4月のG7会合では「信頼できるAI」の普及を目指すことに合意。国際的な技術の標準化などが今後進められていくことが共通認識とされました。

日本では2023年9月に政府が事業者向けの新たなガイドラインの骨子案を作成しました。AIに関わる事業者は、民主主義や人権、多様性などを尊重することが必要であると記しています。また、AIシステムの透明性や安全性を確保するために、AIシステムの情報開示や外部監査の導入が今後検討される予定です。

各事業者が未然にトラブルを避けるためには、システムの設計段階から公平性・透明性を確保し、セキュリティ対策などのリスクマネジメントが必要となります。さらに、社会情勢を鑑みて各事業者がガイドラインやルールを作成することが重要になるでしょう。

IT Insightの他記事もご覧ください

Prev

Next