工学記

物理学や工学が好きな学生です

2018年新型iPhone XSシリーズに搭載される機械学習用プロセッサはAppleを衰退させる

新型iPhoneが2018年9月13日発表されました

 

XS、XS MAX、XRの3つです

 

これらに搭載予定のプロセッサ「A12」にはニューラルエンジンと呼ばれる機械学習に最適化された演算回路が搭載されています

 

実は前世代のA11チップにもこのようなニューラルエンジンは搭載されているようです

(私はiPhoneユーザーではないので詳しく知りません…)

 

まず何故Appleがこのようなチップをスマートフォンに搭載したのかというと、今後の機械学習人工知能の処理の需要の増加を見越しての事だと思われます

 

ハードウェアで機械学習回路を持つ製品は、同じスマートフォンとしてHuaweiの「kirin970」というチップセットがあります

 

また、実用化が進んでいる自動運転にはNVIDIAやテスラの機械学習用ハードウェアが使われています

 

そして、これらの他に(比較的身近な物で)機械学習が使われているのはAndroid OSです

 

具体的には、グーグルマップでユーザーの行動履歴を元にしたおすすめの店舗を紹介したり、ウェブサイトの閲覧履歴から最適な広告のジャンルを決めたりしています

 

このように、機械学習は私達の身近に使われていますが、実際にAndroid端末に機械学習用のプロセッサは搭載されていません

 

それは何故か

 

データを全部Google側のサーバーで処理して学習させているからです

 

通信インフラの発展した現在、1個人のユーザー程度の情報量であればサーバー上に用意に送信し、計算結果も用意に受信できます

 

ただし自動運転等は、データの容量、求められる応答性が桁違いなのでいちいちサーバーに送信するよりも、車に搭載したハードウェアで処理した方が計算の効率が良いのです

 

目的に合わせて、データの処理方法は変わっています

 

ここで、何故Appleは、スマートフォン機械学習用のハードウェアを搭載したのか

 

それは、AppleGoogleの用に、莫大な個人情報を機械学習で処理する技術と設備を持っていないからだと思われます

 

サーバーや開発力に余裕が無いので、泣く泣くハードウェア側で機械学習させる

 

私には、Appleの方針はそのように見受けられました

 

私が使っているSAMSUNGスマホにも独自の画像解析機能がありますが、使っていません

 

スマホのデータ容量が増えるし、処理に時間もかかるからです

 

ローカルでの機械学習には限界があります

 

Googleの音声入力が正確に声を認識できるのも、Googleの超高性能サーバーで計算させているからできることです

 

データをインターネットにアップロードして、個人情報を分析させて、Googleアカウントに結果を反映させることはインターネットに接続しないとできません

 

YouTubeで次のおすすめが表示されるように、顔認証も拡張現実もクラウド上で処理させればいいのです

 

スペースや電源が制限されたスマホ上でやる処理ではないと私は考えているのです

 

そしてスマートフォンがインターネットから独立する、これはあってはならないと思います

 

しかし、Appleはそれをやろうとしています

 

インターネットから遠ざがっているのです