技術全体を見るCTOの視点、ビジネス全体を見るプロジェクトマネージャーの視点、その両方で世の中のトレンド、ニュースを見る

CoreMLをとりあえず動かしてみる

»

今年もWWDCに来ています!

今年は、現地にいる間に出来るだけコードを動かそうと思っています。特に、キーノートでも触れられていた、ML (Machine Learning)と、AR (Augmented Reality)について、触ってみたいなと思っています。

まずは、MLについて、サンプルを動かしてみました!

ソースコードはこちらに公開されています。

https://developer.apple.com/documentation/coreml/integrating_a_core_ml_model_into_your_app

スクリーンショット 2017-06-06 12.34.37.png

Core MLは、学習済みのモデルをiOS上で動かすことが出来るもののようです。既存の機械学習のライブラリで作成したモデルをiOS用に変換(.mlmodelという拡張子のファイルになるようです)して、使うことが出来ます。

サンプルには、手書き数字の認識で有名なMNISTの学習済みモデルが入っています。また、Appleのサイト上には、他にも幾つかのモデルが掲載されています。

スクリーンショット 2017-06-06 12.42.27.png

まずはお試し、ということで、MNISTのモデルをそのまま動かしてみました。カメラか、ライブラリから画像を選び、その画像に写っている数字を読み取る事ができます。数字の外側に長方形の部分が無いと、Rectangleがみつからないと言って怒られます。画面上で手書き(トラックパッド書き?)した文字を読み取らせてみました。

IMG_0016.PNG

Classification: "0"ということで、ちゃんと読めてます。

IMG_0007.PNG

1は読めているものの、Confidenceが0.77ということで自信はなさげ。

IMG_0008.PNG

IMG_0009.PNG

IMG_0004.PNG

ここまではうまく読めていますね。

どうも、5は苦手みたいです。

IMG_0005.PNG

IMG_0006.PNG

Confidenceも低めなので、自信満々に間違っている、という訳ではなさそう。僕の字に似たタイプの字がMNISTにはない、ということかもしれません。確かにMNISTに入ってる字っていかにも欧米の人の書く数字、って感じするしなあ。

IMG_0010.PNG

6は大丈夫でした。

7もどうやら苦手。

IMG_0011.PNG

IMG_0012.PNG

7は1と間違えやすいですね。これは、割とありがちな傾向です。

IMG_0013.PNG

8は大丈夫。

そして9もどうやら苦手。

IMG_0014.PNG

IMG_0015.PNG

2枚めは正解しているのですが、Confidenceがかなり低い数字です。この値ですと、システムに組み込むにしても「読み取れませんでした」と出さなきゃいけないレベルです。

同じMNISTでも、もう少しパラメータを変えて学習したものを載せるとまた違ってくると思いますが、アプリに学習済みモデルそのものを組み込むと、モデルの更新はなかなか大変そうな気がします。そういう意味では、事前のチューニングがかなり大事になってくる気がします。

Comment(0)

コメント

コメントを投稿する