

半導体設計受託サービス及びIPプロバイダーの芯原股份(VeriSilicon) は6月9日、同社の超低消費電力かつ高性能なニューラルネットワークプロセッサ(NPU)IP が、モバイル端末における大規模言語モデル(LLM)推論 をサポートし、AI演算能力が40 TOPS以上に拡張可能となったことを発表した。この高効率なNPUアーキテクチャは、モバイルプラットフォームにおける生成AI(AIGC)需要の高まりに対応すべく設計されたものであり、AI PCなどのエンドデバイスに強力な演算能力を提供するだけでなく、スマートフォンなどのモバイル端末が抱える低消費電力化の厳しい課題にも応える。
VeriSiliconの超低消費電力NPU IPは、高度な設定変更可能性とスケーラブルなアーキテクチャを備え、混合精度計算、スパース化最適化、並列処理をサポートする。その設計は、効率的なメモリ管理とスパース性を意識した高速化技術を融合させており、計算負荷と遅延を大幅に低減し、AI処理のスムーズさと迅速な応答性を保証する。このNPUは、AIノイズリダクション(AI-NR) や AI超解像(AI-SR) など数百種類のAIアルゴリズムをサポートし、Stable Diffusion や LLaMA-7B などの主流AIモデルとも互換性がある。同時に、このNPU IPは、VeriSiliconの他のプロセッサIPとシームレスに統合し、ヘテロジニアスコンピューティングを実現することで、SoC設計者が多様なアプリケーション要求を満たすAIソリューションを構築することを支援する。
さらに、VeriSiliconの超低消費電力NPU IPは、TensorFlow Lite、ONNX、PyTorch などの主要なAIフレームワークをサポートしており、顧客がさまざまなAIアプリケーションシナリオにおける展開プロセスを加速し、統合作業を簡素化するのに役立つ。
「スマートフォンなどのモバイルデバイスは、個人用AIサーバーへと進化しつつある。生成AI(AIGC)やマルチモーダル大規模言語モデル技術の急速な発展に伴い、市場のAI演算能力に対する需要は指数関数的に増加しており、モバイル製品の重要な差別化要素となっています」と、VeriSiliconのチーフストラテジーオフィサー(CSO)、エグゼクティブバイスプレジデント(EVP)、IP事業部ゼネラルマネージャーを務める戴偉進氏は述べた。「高度なAI計算負荷をサポートするプロセスにおいて、消費電力の制御は最も重要な課題の一つだ。VeriSiliconは、スマートフォンやAI PC向けの超低消費電力NPUの研究開発に継続的に注力し、主要なSoCパートナーとの緊密な連携を通じて、この技術が次世代スマートフォンやAI PCで量産化されることを目の当たりにしている」。
(原文:https://www.icsmart.cn/92838/)

