【慶應義塾】アナログコンピュート・イン・メモリ回路でTransformerとCNNのハイブリッド処理を世界で初めて実現
-対従来比10倍の演算エネルギー効率を達成し、AIの環境負荷を低減-
慶應義塾大学理工学部電気情報工学科の吉岡健太郎専任講師は、エッジコンピューティングの普及に伴い、より身近なデバイスへの人工知能(AI)応用を促進するため、深層ニューラルネットワーク(DNN)、特にTransformer処理の高効率な推論を実現する高精度かつ省エネルギーなコンピュート・イン・メモリ(CIM)回路を開発しました。
本研究では、従来のCIMが抱えていたTransformerの推論に必要な演算精度を実現するために、データ格納、演算、アナログ-デジタル(A/D)変換を1つのメモリセルに集積した「容量再構成型CIM(CR-CIM)」構造を提案しました。この構造によって、アナログCIMで初めてTransformer処理に必要な演算精度を達成しつつ、消費電力1Wあたりの処理速度が818 TOPS(兆回/秒)と非常に高い電力効率を実現しました。また畳み込みニューラルネットワーク(CNN)処理を行う際は、同等の演算精度を持つ従来技術と比べ10倍のエネルギー効率となる4094 TOPS/Wを達成しました。
本研究では、従来のCIMが抱えていたTransformerの推論に必要な演算精度を実現するために、データ格納、演算、アナログ-デジタル(A/D)変換を1つのメモリセルに集積した「容量再構成型CIM(CR-CIM)」構造を提案しました。この構造によって、アナログCIMで初めてTransformer処理に必要な演算精度を達成しつつ、消費電力1Wあたりの処理速度が818 TOPS(兆回/秒)と非常に高い電力効率を実現しました。また畳み込みニューラルネットワーク(CNN)処理を行う際は、同等の演算精度を持つ従来技術と比べ10倍のエネルギー効率となる4094 TOPS/Wを達成しました。
本研究成果は、エッジコンピューティングやAIの分野で、電力効率と処理速度の両面で効率的なAIハードウェアの開発に貢献します。また将来的にはより多くの人々が大規模言語モデル(LLM)といったAIサービスを利用しやすくなると期待されます。
研究成果の詳細は、米国時間2月18日から開催されている「ISSCC2024(国際固体素子回路会議)」にて発表されました。ISSCCは集積回路に関するオリンピックとも称される、最難関国際会議です。
▼全文は本学のプレスリリースをご参照ください。
https://www.keio.ac.jp/ja/press-releases/files/2024/2/19/240219-2.pdf
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザーログイン既に登録済みの方はこちら
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。
すべての画像