ML Kitサンプルアプリを使ってみる ~ TensorFlow Lite モデルの動作確認

前投稿で、TensorFlow Lite モデルの作成を行いました。

その動作検証ですが、ML Kitを使ってアプリケーションを作らなければなりません。また、カメラアプリケーションとしても作成しなければならず、作るには多くの工数が必要です。

そのような工数を使ってアプリケーションを作成するのは大変です。そこで、ML Kitにはサンプルアプリが提供されていますので、それに組み込んでテストをします。なお、Java言語を使いますが、Kotlinサンプルアプリに用意されていますので、ほぼ同じ手順になります。

1.サンプルアプリのダウンロードとソース修正

まずは、ML Kitのサイトを開きます。

mlkit_sample_1

Vision APIの項目へ移動します。その中に、「オブジェクトの検出とトラッキング」があります。ここで、「始める」をクリックします。

mlkit_sample_2

オブジェクトの検出とトラッキング」が開きます。「Android」をクリックします。

mlkit_sample_3

ここに、サンプルアプリがあるサイトへのリンクがあります。「サンプルアプリ」をクリックします。

mlkit_sample_4

GitHubの画面が表示されます。ここにサンプルアプリプロジェクトがありますので、ダウンロードしてAndroid Studioに組み込みます。

mlkit_sample_5

プロジェクトを開いて、プロジェクトウインドウを表示します。「assets」「custom_models」にモデルが格納されています。ここに、自作のモデルを追加します。自作モデルクリップボードにコピーして、assets」「custom_modelsの位置で貼り付けると良いでしょう。

mlkit_sample_6

次に、ソースの「LivePreviewActivity」を選択します。

mlkit_sample_7

createCameraSource関数で、「OBJECT_DETECTION_CUSTOM」の部分を表示します。ここに、モデルの指定がされています。デフォルトで指定されているモデルをコメントにして、自作のモデルを書き込みます。

これで修正は終わりです。ビルドしてスマートフォンインストールしてください。

2.サンプルアプリの実行

サンプルプログラムを実行します。

mlkit_sample_9

今回はJavaプログラムの方を修正したので、Javaの方をクリックします。

ライブビュー画像認識したいので、「LivePreviewActivity」を選択します。

mlkit_sample_10

ライブビュー画面が表示されました。自作のモデルは「Custom Object Detection」の画像認識で有効です。下にあるコンボボックスから選択してください。

ナキウサギが映った画面に近づいてライブビューすると、ナキウサギと認識されました。自作のモデルは動作しています

3.サンプルアプリを活用しよう

mlkit_sample_11
顔認証サンプル

サンプルアプリソースのおかげで、自作のアプリケーションが作りやすくなっています。私も、ソースを参考にさせてもらいながら、自作のアプリケーションを作りたいと思っています。

皆さんもぜひサンプルアプリを有効活用してください。