機械学習やディープラーニングなどのAI処理に特化したプロセッサをNPUと呼びます。汎用のCPUと比べて高速化や電力効率の向上が期待できるため、各社さまざまなNPUの開発に取り組んでいます。本記事では、NPUの概要とモバイルやPCメーカーによる近年のNPUの開発事例についてご紹介します。
NPU(Neural network Processing Unit)はAIプロセッサとも呼ばれ、AIの推論処理を高速化するために設計されたプロセッサです。AI技術の中で、人間の脳の神経細胞が信号をやり取りする仕組みを模したものをニューラルネットワークモデルと呼び、それを多層構造にしたシステムをディープラーニングと呼びます。
NPUはニューラルネットワークの処理を効率化できるハードウエアです。ソフトウエアの工夫で処理の効率化を実現しようとする場合、どうしてもハードウエアの性能が制約となってしまいます。AI処理に特化したハードウエアを開発することで、高速化や電力効率の向上などの性能向上が期待できます。
NPUを使用することで、画像認識や自然言語処理などAIアプリケーションの機能の向上が期待できます。またAI処理をNPUに任せることでCPUの負荷を軽減できるため、ほかのアプリケーションの処理が遅延するリスクを抑えられます。
NPUを開発しているメーカーのうち、Qualcomm、Apple、Intelの3社についてご紹介します。NPUの特長としては、生成AIで使用される大規模言語モデルへの対応を念頭に置いた性能をアピールしていることが挙げられます。
Qualcommは2023年10月にハイエンドスマートフォンに搭載される「Snapdragon 8 Gen 3」を発表しました。このプロセッサにはAIの演算処理を担う「Hexagon NPU」が搭載されており、前バージョンの「Snapdragon 8 Gen 2」と比べ98%高速化し、性能は約2倍向上しています。
またMetaと提携し、Metaが開発した大規模言語モデルのLlama2にも対応しています。これはスマートフォン向けプラットフォームでは初とのことです。プロセッサに搭載している「Qualcomm AI Engine」により、CPU、GPU、NPUを最適な形で組み合わせてAIの処理を行うことが可能です。AIモデルにおける最大100億のパラメーターを端末上で処理でき、生成AIのプラットフォームに対応できるようにしています。
2023年6月、Appleは次世代SoC(System on a Chip)となる「M2 Ultra」を発表しました。SoCの内部にはAppleが開発したNPUである32コアのNeural Engineを搭載し、前バージョンの「M1 Ultra」より最大40%高速化しています。M2 Ultraは毎秒31兆6千億回の演算が可能で、専用のGPUがなくても大規模言語モデルのトレーニングと実行に十分な性能が実現できるとのことです。
Neural Engineの第一世代は、2017年発売のiPhone Xに搭載されたAIチップに内蔵されています。その後はiPhoneだけでなく、iPadやMacBookなどに搭載された各チップにもNeural Engineを搭載しており、AppleがNPUの開発に本腰を入れて取り組んでいることが分かります。
Intelは2023年12月に最新SoCとなる「Core Ultra」を発表し、すでにこのSoCを搭載した製品の出荷が開始されています。Core UltraはCPU、GPU、NPU を単一のパッケージに統合し、リアルタイムで言語翻訳や推論などのAI機能が実現できます。このNPUによるAIの推論処理をCPU単体で行う場合と比較すると、条件にも依りますが処理時間は半分以下、電力効率は7.8倍となったそうです。
なおCore Ultraに内蔵するNPUは、かつてIntelが買収した半導体開発企業であるMovidiusが開発したVPUがベースになっています。VPUは低消費電力を特長としており、Intelが開発したNPUはその進化版といえるでしょう。Intelによると、今後発売するCoreプロセッサの大半にNPUを搭載する予定とのことです。
NPUは機械学習やディープラーニングにおける計算処理を高速化するプロセッサです。スマートフォンやPCにおけるAI処理を高速化することで、高度なAIアプリケーションの実現が期待できます。近年発表された各社のNPUは、大規模言語モデルへの対応が進んでいることをアピールしています。AIアプリケーションを実行する際は、NPUを搭載したデバイスを使用すると、より高速で使いやすくなるでしょう。