3) TensorFlow Serving環境の構築とサーバの起動
パッケージ管理システムとしてaptを利用できる場合、環境の構築は非常に簡単です。
公式サイト紹介されている通り、GoogleのTensorFlow Serving用リポジトリを追加後apt-getコマンドでインストールすればOKです。
$ echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | sudo tee /etc/apt/sources.list.d/tensorflow-serving.list
$ curl https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg | sudo apt-key add -
$ sudo apt-get update && sudo apt-get install tensorflow-model-server
サーバの起動は以下のように行います。
$ tensorflow_model_server --port=9000 --model_name=(学習済みモデルの識別名) --model_base_path=(学習済みモデルの保存先ディレクトリのフルパス)
この記述では指定した1つの学習済みモデルのみを読み込みますが、設定ファイルを別途記述すれば複数の学習済みモデルを同時にサービス化することもできます。
※TensorFlow, the TensorFlow logo and any related marks are trademarks of Google Inc.
その他、本コンテンツ内で利用させて頂いた各プロダクト名やサービス名などは、各社もしくは各団体の商標または登録商標です。