Jetson nanoで、オリジナルの学習モデルを使った物体検出[3/5]  〜Jetson nanoのインストール〜

スマートホーム
スポンサーリンク
このエントリーをはてなブックマークに追加

はじめに

オリジナルモデルを使った物体検出をJetson nanoで行うべく、以下を実現しようとしています。

これを実現するために、5回に分けて記事を記載予定で、今回は3つ目の記事です。

 第1回:IBM Cloud Annotationsを用いたアノテーション
 第2回:Google Colabを用いたモデルの学習
 第3回:Jetson nanoの環境構築 ←この記事
 第4回:DeepStreamアプリを使いこなす
 第5回:学習モデルの変換と物体検出

第3回:Jetson nanoの環境構築

前回は無料でGPUを使えるGoogle Colabを使って、Tensorflowのモデルを学習する事をやってみました。今回は、物体検出に必要なソフトウェアをJetson nanoにインストールしていきます。Tensorflowは開発が早いので、各種ライブラリのバージョンを合わせてインストールする事がポイントです。

JetPackのインストール

まずは、Jetson nanoにJetPack(OS+CUDAなど)をインストールして初期設定をしていきます。JetPackのインストールは、ネットに情報が沢山ありますので、ポイントだけ説明していきますね。

①OSイメージのダウンロード

PCのWebブラウザから、JetPackのサイト「https://developer.nvidia.com/embedded/JetPack」にアクセスし、Jetson nano用のイメージファイルをダウンロードします。この記事執筆時点の最新版は4.4.1でした。

②SDカードへの書き込み

ダウンロードしたイメージファイルをSDカードに書き込みます。SDカードへのイメージの書き込みは、balenaEtcherを使うのが便利ですね。

③Jetson nanoの起動

Jetson nanoにSDカードを挿し電源を接続します。OSが起動すると、初期ウィザードが表示されるので、言語・ロケール・パスワードの設定・ネットワークの設定などを行います。

④パッケージの最新化

起動したらパッケージのアップデートを行います。この辺りはさらっと書いていますが、時間かかりますね💦

⑤JTOPのインストール

まずは、Jetson用のリソースモニタであるJTOPをインストールしていきます。JTOPのインストールにはpipが必要ですので、まずはpipをインストールして、次にJTOPをインストールします。

⑥環境の確認

JTOPがインストールできたら、JTOPを実行して環境を確認しましょう。カーソルキーの右を押して「6.INFO」のタブを表示すると環境が確認できます。

私の環境は以下の通りでした。JetPackでインストールすると、CUDAやTensorRTが自動的にインストールされるので、楽ちんですね!

以上でJetPackのインストールは完了です。

DeepStreamのインストール

ここからは、Jetson nanoでGPUを使って高速にDeep Leaningを処理するライブラリであるDeepStreamをインストールしていきます。なぜかJetPackにはDeepStream入っていないんですよね😭

①DeepStreamSDKのダウンロード

nvidiaのDeepStreamSDKのサイト「https://developer.nvidia.com/deepstream-getting-started」にアクセスします。ここで、右側にDeepStreamに必要なCUDAやTensorRTのバージョンが記載されているので、確認します。

画面を下にスクロールしていくと、ソフトウェアライセンスへの承諾のチェックボックスがあるので、これにチェックするとダウンロードボタンが表示されます。この中からJetson用のdebパッケージをダウンロードします。

②必要パッケージのインストール

DeepStreamのインストールの前に、必要なパッケージをインストールします。私の環境では、全てインストール済でしたがが、念のため。

③DeepStreamのインストール

それでは、DeepStreamをインストールしましょう。debパッケージなので、aptコマンドでインストールできます!

④インストールディレクトリの確認

「/opt/nvidia/deepstream/deepstream」にDeepStreamがインストールされいるはずなので確認しましょう。

⑤DeepStreamアプリの起動確認

それでは「deepstream-app」と入力して、DeepStreamのアプリを起動してみましょう。設定ファイルを指定していないためエラーになりますが、ちゃんとCUDAのライブラリを読み込んで起動できています。

これでDeepStreamのインストールは完了です。

Tensorflowのインストール

Google Colabで作成したTensorflowのモデルを変換するにはNVIDIA版のTensorflowが必要ですので、これをインストールしていきます。ポイントとしては、v2系ではなくv1.15をバージョンを指定してインストールする点です。

①必要パッケージのインストール1

まずは、Tensorflowに必要なパッケージをapt-getコマンドでインストールします。

②必要パッケージのインストール2

次にPython系のパッケージについてもpip3コマンドでインストールします。ここで、以下のようにバージョンを指定してインストールする点に注意して下さい。numpyのビルドが必要なので20分ぐらいかかります💦

③必要パッケージのインストール3

公式ドキュメントには書いてありませんが、これを入れないとエラーになるので、更に必要なパッケージをインストールします。こちらもgrpciのビルドに10分ほどはかかるので気長に待ちましょう。

④Tensorflowのインストール

それでは、本命のTensorflowのインストールです。ここでは、NVIDIAのレポジトリを指定して「1.15.4+nv20.10」版のTensorflowをインストールします。v1.15系を指定することがポイントです。

⑤Tensorflowのバージョン確認

それでは、ちゃんとインストールできたか確認しましょう。Python3コマンドを実行して、対話モードに入り「import tensorflow as tf; print(tf.__version__)」と入力しましょう。するとバージョンが一番下に表示されます‼️

以上でTensorflowのインストールは完了です。

V4L2のインストール

ここからはJetson nanoで、カメラを利用するためのV4L2のインストールを行なっていきます。

①V4L2のインストール

V4l2のインストールは簡単で、以下のようにapt-getコマンドでインストールできます。

②NVIDIA V4L2 GStreamer pluginのインストール

次に、NVIDIA V4L2 GStreamer pluginについてもインストールしておきます。

以上でカメラを利用するための準備も完了です!!

おわりに

今回は、Jetson nanoにJetpackを使ってOSやCUDAなどをインストールし、DeepStreamやTensorflowなどの必要ソフトウェアをインストールして環境構築を行いました。次回は、このJetson nanoを用いて、オリジナルモデルを使った、物体検出を行ってみます。

 第1回:IBM Cloud Annotationsを用いたアノテーション
 第2回:Google Colabを用いたモデルの学習
 第3回:Jetson nanoの環境構築
 第4回:DeepStreamアプリを使いこなす ←次の記事
 第5回:学習モデルの変換と物体検出

関連記事

記事が参考になったら、ブログランキングに協力(クリック)して貰えると嬉しいです。
スポンサーリンク
naka-kazz

昼間はIT企業に勤めてますが、プライベートでは「育児×家事×IoT」をテーマに家のスマートホーム化に取り組んでいます。Androidアプリも作っているので使って下さい。質問・コメントは、↓のコメント蘭でもFacebookメッセンジャーでもどちらでも大丈夫です。
E-mail:naka.kazz.d@gmail.com

naka-kazzをフォローする
スマートホーム 開発者向け
naka-kazzをフォローする
育児×家事×IoT

コメント

タイトルとURLをコピーしました