サイトアイコン IT NEWS

モバイル端末向けAIフレームワーク、「CoCoPIE」はリアルタイム画像処理を実現

スマホやタブレットにも入っているAIは、メモリや演算処理能力、消費電力などのコンピューティングリソースに制約があるなかで機能しなければならない。

William & Maryおよびノースイースタン大学らの研究チームは、モバイル端末で効率的な処理が可能なAIフレームワークを開発した。「CoCoPIE」を活用すれば、スマホやタブレット、IoTデバイスでハードウェアの大幅に変更なしにリアルタイムAIアプリケーションを実行できる。

パターン予測による圧縮コンパイル技術で特許申請中

CoCoPIEでは、モバイル端末でディープニューラルネットワーク(DNN)によるリアルタイム処理を実現する。キモとなるのは新たに開発したパターン予測による圧縮コンパイル技術で、同技術は特許申請中だ。

Samsungの「Galaxy S10」上での画像処理のパフォーマンスを競合と比較。画像のカラー化、スタイル変換、高解像度化の3種類のテストをCPU、GPUで実施している。

TensorFlow Liteの12倍速い

テスト結果はCoCoPIEの優位性を証明。CPUではTensorFlow Liteで12~44.5倍、TVM(Tensor Virtual Machine)で2.3~8.1倍、Alibaba MNNで1.9~15.5倍の速さで、GPUではそれぞれ2.5~20倍、4.1~11.4倍、2.5~6.2倍の速さで処理できたという。

さらに、モバイル端末上のGPUを用いたCoCoPIEの処理は、Google TPUやNVIDIA Xavierといった主要5種類のエッジコンピューティング向けAIチップよりも電力効率が高かった。

CoCoPIEは、スマホのカメラだけでなく、IoTデバイスでの処理を高速化、省電力化できるとのことで、リアルタイムに犯罪を検出したりも可能になりそうだ。

参照元:CoCoPIE: A software solution for putting real artificial intelligence in smaller spaces/ William & Mary
CocoPIE: Making Mobile AI Sweet As PIE —Compression-Compilation Co-Design Goes a Long Way/ CoCoPIE

モバイルバージョンを終了