第5回 Java WebアプリでTensorFlow(実装編) (3/4)

技術特集

1_tensorflow_keras1_tit

tit_tensorflow_keras

3) TensorFlow Serving環境の構築とサーバの起動

パッケージ管理システムとしてaptを利用できる場合、環境の構築は非常に簡単です。
公式サイト紹介されている通り、GoogleのTensorFlow Serving用リポジトリを追加後apt-getコマンドでインストールすればOKです。

$ echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | sudo tee /etc/apt/sources.list.d/tensorflow-serving.list
 
$ curl https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg | sudo apt-key add -
 
$ sudo apt-get update && sudo apt-get install tensorflow-model-server

サーバの起動は以下のように行います。

$ tensorflow_model_server --port=9000 --model_name=(学習済みモデルの識別名) --model_base_path=(学習済みモデルの保存先ディレクトリのフルパス)

この記述では指定した1つの学習済みモデルのみを読み込みますが、設定ファイルを別途記述すれば複数の学習済みモデルを同時にサービス化することもできます。