ChatGPTをはじめとする生成AIを、これから業務に活用したい。
そう考えている方は少なくないはずです。特に、業務上必要な情報のリサーチやレポートの作成が数分で完了することもあるという点に魅力を感じる方は多いでしょう。しかし、そこで注意したいのが「AIのハルシネーション」という現象です。
AIのハルシネーションとはいったい何なのか、その原因、対処法など、本記事で丸ごと押さえてしまいましょう。
「AIのハルシネーション」とは、人工知能(AI)が事実に基づかない情報を生成する現象のことです。ハルシネーション(Hallucination)とは英語で「幻覚」を意味し、一見信じてしまいそうな「もっともらしい嘘」が出力される点にその厄介さがあります。
例えば、ChatGPT(GPT-3.5)に「日本DX推進連盟について教えてください」と尋ねたところ、以下のような回答が出力されました。
しかし、今回のChatGPTへ質問をした時点で、実際には「日本DX推進連盟」は存在しません。これは、AIのハルシネーションを再現するために用意した架空の団体名だからです。それにもかかわらず、ChatGPT(GPT-3.5)はさも同団体が存在するかのように、その目的や取り組みについて説明する文章を出力しました。
つづけて「5678×2647を計算してください」と尋ねた結果が以下の通りです。
本当の答えは、「15,029,666」であり、ChatGPT(GPT-3.5)が間違っていることは明白です。
なぜ賢いはずの生成AIがこのような間違いを犯してしまうのでしょうか?
AIのハルシネーションが生じる原因は、その学習データに由来するもの、生成AIの学習アルゴリズムに由来するものなど複数存在すると言われています。
そもそも生成AIの性能は、AIモデルを作るために必要な学習データの量と品質に依存します。前述の文章でも触れられている通り、ChatGPTには2022年1月時点の情報しか含まれていないため(2023年11月14日時点)、それ以降に生じた変化についてはそもそも答えられず、古い情報がもっともらしく回答される場合もあります。
とはいえ、学習データに含まれるはずの2022年1月以前の情報や、時代を超えて不変なはずの計算問題についてもハルシネーションは生じるため、開発元が学習データを拡充したり、特定のデータを追加で学習させるファインチューニングを行ったりするだけでは、問題解決とはならないでしょう。
ChatGPTやGoogle Bardなど、現在注目を集める生成AIの多くは、Googleの研究チームが2017年に発表した「Transformer(トランスフォーマー)」という深層学習モデルをベースとしており、その革新性はトークンと言われる文章の最小単位ごとに重要度を重みづけし、文脈を踏まえていかにも人間が書いたようなもっともらしい文章を生成できることにあります。
現在、学習アルゴリズムをアップデートする、質問文の生成時点でハルシネーションが起こりにくいよう工夫を施す、生成AIの出力結果を精査し、ハルシネーションを識別する機能を搭載する、といった手法でハルシネーション問題の解決が図られています。
とはいえ現在のところ、どんな質問にもハルシネーションなく答えられる生成AIは誕生していません。“AIは正確でない情報を出力するかもしれない”ことを前提に、人間がチェックを担当しながらサポート的に活用するのが現時点の妥当な対処法といえるでしょう
生成AIが出力可能なのは文章のみならず、画像、動画、プログラムコードなど多岐にわたります。そんな中、AIが生成したプログラムにもハルシネーションが起こることを利用した新たなサイバー攻撃のリスクが懸念されていることを皆さんはご存じでしょうか。
「AIハルシネーション攻撃」などと称されるその手法では、誰でもダウンロード可能な部品としてプログラミングで活用される「パッケージ」が、ハルシネーションにより実在しないにも関わらずあたかも存在するかのように記述されることを利用します。悪意ある攻撃者は提案された架空のパッケージと同名の悪意あるファイルを作成、配布。結果として、生成AIのユーザーは気付かず正規のものと誤認してインストールしてしまうというわけです。
プログラミング経験や知識が不足している方にとって生成AIは非常に便利な味方です。だからこそ、初心者には気付きにくい落とし穴もあることを踏まえて、パッケージが安全なものであることを確かめる、思わぬ欠陥がないか徹底的にテストして確かめるなどの対策を心がけましょう。
生成AIの活用において思わぬ落とし穴となりかねないAIのハルシネーションについて実例や対処法とともに解説してまいりました。OpenAIやGoogle、Microsoftなどの開発元を中心としてハルシネーションに対抗するための研究は進められており、効果も少しずつ現れだしているようです。とはいえ、現在のところは“AIは嘘をつく可能性がある”ことを念頭に置いた上で、いかに便利に活用するかを考えることが重要だといえるでしょう。