「深層学習の演算を加速させる高効率のアクセラレータ―プロセッサーの開発を進めている」――。
創業7年の国内AIスタートアップ、LeapMind(東京・渋谷)が新たなチャレンジを始めた。2019年2月27日に開催した自社イベント「Edge Deep Learning Summit」に登壇した松田総一CEO(最高経営責任者)は深層学習向けの低消費電力プロセッサーの開発に着手した事実をこう明らかにした。
同社が開発するのは学習済みのモデルを組み込んで物体認識や不良品特定といった「推論」を実行するプロセッサーだ。自社で半導体チップを設計・製造するのではなく、パートナーとなる半導体ベンダーにプロセッサーのIP(Intellectual Property)、つまり回路設計データを提供して製造してもらう。仕様の詳細については2019年6月ごろ、事業モデルの詳細については2019年末までに情報を公開するとしている。
現在、深層学習の学習や推論には主にGPU(グラフィックス処理プロセッサー)が使われる。ただ、消費電力が数十ワットと高く、放熱に使う部品は大きくなりがちだった。
LeapMindが開発するプロセッサーIPの消費電力は当初は2~3ワット以下で、将来的には数百ミリワットを目指すという。「IoT(インターネット・オブ・シングズ)端末は今後ますます増え、クラウドではなくエッジ(端末)側で処理するエッジコンピューティングのニーズも高まる。こうしたニーズに向け、安価かつ高速、低電力のASIC(特定用途向け集積回路)を開発する」(松田CEO)とする。
プロセッサーの開発に乗り出したLeapMindの狙いは何か。大企業の要望に応じてPoC(概念実証)を手掛ける受託型のビジネスから、ライセンス販売やサブスクリプション契約などを軸に高い成長率を見込める「スケールする事業」への転換である。
多くのAIスタートアップが「大企業との短期PoC」という受託型ビジネスから脱却できずにいるなか、LeapMindの挑戦は実を結ぶか。同社の成長戦略を分析する。
「量子化DNN」で差異化
LeapMindが強みとするのは、深層学習の演算をGPUの数分の1という低電力で実現する「量子化ディープニューラルネットワーク(DNN)」の技術だ。2015年ごろから研究が盛んになった。深層学習の中でも比較的新しい技術である。
一般的な深層学習は、入力するデータや学習モデルのパラメーターの精度について少なくとも8ビット、つまり0~255(符号無しの場合)の値が取れる。これに対し、LeapMindが開発する量子化DNNは1ビットまたは2ビットの精度、つまり0~3の値までしか表現できない。
量子化DNNは物体認識などの精度(正解率)が8ビットの深層学習よりも数%ほど低くなる半面、消費電力を大幅に引き下げられるメリットがある。複雑な積和演算が不要になるため、ASICやFPGA(回路を再構成できる集積回路)に組み込む場合、チップ面積を小さくできるのも大きな利点だ。
これにより、生産機械や自動車、家電などに組み込みやすくなる。自動運転技術への応用については「推論精度の低下を考えればレベル3~4の自動運転には使いにくいが、(自動ブレーキのような)レベル2の領域には応用できる」(松田CEO)とする。
宇宙開発も有望な応用先だ。「はやぶさ2」に代表される小惑星探査機は、供給電力や放熱の制約から、内蔵する半導体チップが使える電力は数ワットに制限される。宇宙航空研究開発機構(JAXA)の石田貴行氏は同イベントの講演で、探査機を小惑星と共に「自撮り」して地球に送信する機能を実装するため、最も構図の良い写真を深層学習で選び出す研究の成果を公開した。
LeapMindはこれまでに延べ100社の顧客企業とPoCを実施してきたという。例えば製造業であれば、不良品の検知や設備の点検などの用途で、深層学習を使った実証実験を進めている。2019年からは、幾つかの案件で実運用や製品への組み込みが始まる見込みという。