iPhone12搭載のA14チップ、A13から演算能力倍増〜知られざる機械学習の用途

A14
 
次期iPhoneであるiPhone12や、先日発表されたiPad Air(第4世代)に搭載されるA14 Bionicチップは、ニューラルエンジンのコア数がA13 Bionicから倍増しています。これは機械学習の演算能力がさらに高まったことを意味しています。

A11から採用されたニューラルエンジン

9月の新作発表会で最大のサプライズは、iPad Air 4に最新のA14 Bionicが搭載されたことでしょう。これまでAppleはiPad AirをiPad Proの廉価版(お手頃な価格で手にできるエントリーモデル)として扱っていたため、iPhone12にも搭載予定の最新チップが新iPad Airに採用されるとは、ほとんど誰も予測していませんでした。なぜならiPad Air 4にA14 Bionicが搭載されれば、A12Z BionicのiPad Pro(2020:第3世代)を性能で上回ることになるからです。
 
Appleによれば、A14 BionicはiPad Air 3に搭載されたA12 Bionicに比べて、CPU、GPU性能が共に30%ほど向上しています(非公式のベンチマークスコアではGPUスコアが大幅増加しています)。しかし、A14 Bionicの真価はCPUやGPUではなく、機械学習にあります。
 
iPhone7 Plus ポートレートモード
 
Appleがニューラルエンジン(チップ内で機械学習の処理に特化した部分)を初めてスマートフォンに採用したのは、2017年に登場したiPhone XのA11チップでした。普段のスマートフォン使用で機械学習の存在を意識することはありませんが、Face IDやアニ文字でユーザーの顔を認識できたり、ポートレートモードで背景だけを人工的にぼかしたりすることができるのは、このニューラルエンジンのおかげです。A11は毎秒6,000億回の演算が可能です。

昨年のA13から更に倍増した演算能力

また昨年のiPhone11シリーズでは、それ以前から存在したスマートHDRに替わって、複数の画像を合成し鮮明な写真に自動で仕上げる技術「Deep Fusion」が採用されましたが、これもA13 Bionicの機械学習機能に多くを拠っています。
 
Deep Fusionはユーザーがシャッターを押す前に高速撮影された短時間露光の4枚、通常撮影された4枚、シャッターを押してから撮影された長時間露光の1枚を合成し、機械学習で画像を最適化するというものですが、シャッターを押してから画像が完成するまでに必要な時間はわずか1秒ほどに過ぎません。これはA13 Bionicの演算能力が毎秒6兆回あるからこそ可能となるスピードです。
 
Apple Deep Fusion
 
そしてA14 Bionicは、ニューラルエンジンのコア数がA13 Bionicの8コアから16コアへと倍増、毎秒11兆回の演算能力を誇るに至っています。Appleでプラットフォームの設計チームを率いるティム・ミレー副社長がインタビュー「A14 Bionicで何ができるかを知ったとき、思わず息を呑んだよ」と興奮気味に話すのも無理はないでしょう。
 
iPad Air 4向けというよりも、“真打ち”であるiPhone12シリーズを念頭に置いてA14 Bionicが設計されたことを思えば、同チップにとっては9月の新作発表会ではなく10月13日のイベント(予定)こそが真価を明らかにする舞台に相応しいと言えそうです。
 
上位モデル(iPhone12 Pro/Pro Max)に搭載されるLiDARスキャナ(目の前の物体と背景の物体をより明確に区別できるセンサー)は、そうしたA14 Bionicの性能が遺憾なく発揮されると考えられていますが、このスキャナ自体はiPad Pro(2020)にもすでに採用されています。ミレット副社長の含みを思えば、さらなる“隠し玉”があるのかもしれません。改めて10月のイベントに期待が高まります。
 
 
Source:Stern(Google英語翻訳)
(kihachi)


Amazonベストセラー

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA