概要
株式会社東芝(代表執行役社長 CEO 綱川 智、以下、東芝)と国立研究開発法人理化学研究所(理事長 松本 紘、以下、理研)は、学習済みのAIを、できるだけ性能を落とさず、演算量が異なる様々なシステムに展開することを可能にする学習方法であるスケーラブルAIを開発しました。本技術を画像中の被写体分類に用いたところ、演算量を1/3に削減した場合でも、分類精度の低下を従来のスケーラブルAIの3.9%から2.1%に抑えることができ、世界トップレベルの分類性能を達成しました(*1)。
通常、AIエンジンは適用するシステムやサービスごとに求められる演算量や性能に応じて、AIのモデルサイズ等を人が試行錯誤しながら設計・開発します。本技術を導入することで、例えば、大規模で高性能な人物検出AIを一度学習すれば、スマートフォンや監視カメラ、無人搬送車(Automatic Guided Vehicle : AGV)といった適用環境ごとの試行錯誤が不要になるとともに、異なる適用先に対してAIエンジンを共通化することが可能となり、AIエンジンの開発に必要なリードタイムの削減や管理の効率化が期待できます。更に、大規模なAIを学習するときに、演算量と性能の関係が明らかになり、適用するプロセッサ等の選択が容易になります。
本技術は、革新的な次世代人工知能基盤技術における研究開発成果の実用化の加速のために2017年4月に設立した、理研AIP-東芝連携センターにおける成果です。東芝と理研は、本技術の詳細を8月19日から26日にかけて開催される国際会議IJCAI2021(International Joint Conference on Artificial Intelligence)で発表します(*2)。
開発の背景
近年、AIは、音声認識や機械翻訳をはじめ、自動運転向けの画像認識まで、様々な用途で活用されています。また同じ機能を持つAIでも、活用するシステムやサービスは多岐に渡っています。例えば、カメラ画像から人物検出を行うAIは、スマートフォンやスタンドアローン型の監視カメラに加え、AGV等で使用されています。利用するシステムごとにプロセッサの能力が異なり、また、AGVのように近くの人物との衝突を避けるために、高精度に位置を把握する必要があるものもあります。現状は、人手で演算量と必要な精度とのバランスを試行錯誤しながら、システムごとにAIを一から開発、学習していますが、開発期間やコストがかかるとともに、利用するシステムごとに異なるAIが開発され、管理が煩雑化するため、スケールメリットを出すことが困難です。また、利用するシステムの演算能力に応じて単一のAIを展開するスケーラブルAIの開発が始まっていますが、元のAIから演算量を落とすとAIの性能も落ちるという課題があります。
本技術の特徴
そこで東芝と理研は、性能低下を抑えて演算量を調整可能なスケーラブルAI技術を開発しました。独自の深層学習技術より、学習済みのAIがその性能を維持しながら様々な処理能力のプロセッサで動作可能になり、利用用途の異なる多様なシステムに向けたAIの開発の効率化が期待できます。本技術は、元となるフルサイズの深層ニューラルネットワーク(フルサイズDNN)(*3)において、各層の重みを表す行列を、なるべく誤差が出ないように近似した小さな行列に分解して演算量を削減したコンパクトDNNを用います。コンパクトDNNを作る際、従来技術(*4)は、単純にすべての層で行列の一部を一律に削除して演算量を削減しますが、本技術は、重要な情報が多い層の行列をできるだけ残しながら演算量を削減することで、近似による誤差を低減することが特徴です。
学習中は、様々な演算量の大きさにしたコンパクトDNNとフルサイズDNNからのそれぞれの出力値と、正解との差が小さくなるようにフルサイズDNNの重みを更新します。これにより、あらゆる演算量の大きさでバランスよく学習する効果が期待できます。学習後は、フルサイズDNNを各適用先で求められる演算量の大きさに近似して展開することができます。また、学習を通して演算量と性能の対応関係が可視化され、適用先に必要な演算性能を見積もることが可能になり、適用先システムのプロセッサ等の選択が容易になります。
世界的に知られている一般画像の公開データ(*5)を用いて、被写体に応じてデータを分類するタスクの精度を評価したところ、本技術によって学習したフルサイズDNNから演算量を1/2、1/3、1/4に削減した場合、分類性能の低下率をそれぞれ1.1%(2.7%)、2.1%(3.9%)、3.3%(5.0%)、(カッコ内は従来手法の場合)に抑えることができ、従来のスケーラブルAIとの比較において世界トップレベルの性能を達成しました。
東芝と理研は今後、本技術をハードウェアアーキテクチャに対して最適化することで、様々な組み込み機器やエッジデバイスへの適用を進め、実タスクでの有効性の検証を通して、2023年までの実用化を目指します。
*1 公開データセットImageNet(*5)を用いて実施(2021年1月)
*2 Atsushi Yaguchi (Toshiba Corporation/AIP-RIKEN), et al. “#2263 Decomposable-Net: Scalable Low-Rank Compression for Neural Networks “, In Proceedings of the 30th International Joint Conference on Artificial Intelligence (IJCAI-21).(論文リンク:https://doi.org/10.24963/ijcai.2021/447)
*3 ニューラルネットワーク(Neural Network : NN)とは、脳の神経細胞の仕組みをコンピューター上で表現した数理モデル。中間層が複数ある場合は、深層ニューラルネットワーク(Deep Neural Network : DNN)と呼ぶ。AI(人工知能)の中のひとつ。
*4 Jiahui Yu, et al. " Universally Slimmable Networks and Improved Training Techniques", In Proceedings of the IEEE International Conference on Computer Vision, Vol. 1. pp. 1803-1811, 2019
*5 DENG, Jia, et al. Imagenet: A large-scale hierarchical image database. In: 2009 IEEE conference on computer vision and pattern recognition. IEEE, 2009. p. 248-255.