この記事ではGoogleの新しいセキュリティプラットフォームであるGoogle Cloud Security AI Workbenchについて、その仕組みや期待される導入効果を解説します。
ChatGPTに代表される生成AIは、ビジネスや働き方の常識を覆す能力を秘めています。一方で、このような技術の脆弱性を狙ったサイバー攻撃の存在も確認されています。そんな中、Googleが新たに発表したGoogle Cloud Security AI Workbenchは、生成AIを狙った脅威のリスクを低減する効果があるとして注目されています。
Google Cloud Security AI Workbenchは、AI技術を活用したセキュリティプラットフォームです。
パートナー企業の提供する生成AIサービスと連携することで、生成AIの脆弱性を解消するための脅威インテリジェンスおよびセキュリティ機能を、プラグインの形式で提供します。
Google Cloud Security AI Workbenchにはセキュリティ特化の言語モデル「Sec-PaLM2」を用いている点が特徴です。これは企業のセキュリティ課題を解決するための言語モデルであり、Googleとその子会社であるMandiantとの協力によって開発されました。
Googleは2022年に「PaLM」と呼ばれる言語モデルを開発しており、すでに一部の開発者向けにAPIの提供が進んでいます。Sec-PaLM2はPaLM2にセキュリティ面での改善を加えたもので、マルウエア攻撃などのセキュリティ分野におけるユースケースに合わせたパラメーター変更が行われました。
また、Google Cloud Security AI Workbenchには悪意あるスクリプトを自動で検知できるツール「VirusTotal Code Insight」なども実装されており、生成AIが晒されているポピュラーな脅威をブロックできるというわけです。
サイバー攻撃の増加は国内外で問題視されていますが、その中でも特に懸念すべき問題の一つが生成AIを標的とした攻撃です。
ここ数年で生成AI向けの攻撃が増えた理由としては、生成AIユーザーの増加に伴うサービスの急増が挙げられます。
生成AIサービスの開発は、API活用によって簡単に行うことができる反面、そのセキュリティ対策についてのノウハウや技術の共有は進んでいません。技術的な問題を抱えた状態で一般公開されたAIサービスがサイバー攻撃の温床となり、利用者やサービスベンダーが危険に晒される事態が危惧されています。
生成AIを狙ったサイバー攻撃の中でも特に危険視されているのが、プロンプトインジェクションです。意図しないスクリプトがテキスト入力欄に入力された場合、AIから個人情報が流出してしまったり、AIが第三者に乗っ取られてしまったりする事態にも発展しかねません。
このような問題に対処すべく登場したのがGoogle Cloud Security AI Workbenchです。同プラットフォームの普及は、生成AIを狙った脅威を解消する上で大きな意味を持ちます。
また、生成AI向けのセキュリティツールを同プラットフォームからワンストップで利用できるため、ツール導入や利用に関する手間がかからないのが魅力です。運用負担を軽減し、セキュリティ担当の人材不足改善にも活躍するツールとなっています。
この記事では、Google Cloud Security AI Workbenchの役割やその仕組み、そして生成AI運用に伴うリスクについて解説しました。
生成AIは便利なサービスですが、一方で備えるべきリスクも多いのが懸念点です。Google Cloud Security AI Workbenchは、そんなAI活用のリスクを軽減し、安全で高品質なサービスの開発・提供・利用に役立つプラットフォームといえるでしょう。