文章目录
NVIDIA TAO 工具包 (TAO Toolkit) 的部署和使用前期准备安装docker-ce安装nvidia-container-toolkit获取NGC帐户和API密钥Tao Toolkit安装Tao Toolkit使用VirtualEnvRapper创建新的virtualenv安装TAO启动程序Python包nvidia-tao运行Tao Toolkit下载Computer Vision examples安装jupyter生成配置文件生成秘钥,打开python解释器路径登录Docker容器模型下载查看所有模型指定模型下载使用 Jupyter Notebook 进行训练安装Python虚拟环境安装virtualenv安装virtualenvwrapper车牌检测准备数据集下载LPD模型以及数据集下载lpd_prepare_data.py文件调整数据集图像/标签大小分割数据集配置规范文件训练导出模型训练LPD模型的正确性车牌识别下载LPR模型以及数据集数据预处理训练模型转换查看处理器架构下载tao-converter安装libssl-dev配置环境变量对于X86平台对于aarch平台运行 tao-converter(tlt模型转engine)模型推理NVIDIA TAO 工具包 (TAO Toolkit) 的部署和使用
前期准备
tao-launcher 严格来说是一个只支持python3的包,能够在python3.6.9或3.7上运行。
安装docker-ce
参考:/engine/install/
确保docker可以在没有sudo的情况下运行。
安装nvidia-container-toolkit
参考:/datacenter/cloud-native/container-toolkit/install-guide.html
获取NGC帐户和API密钥
进入网页:/zh-cn/tao-toolkit
点击右上角注册登录:
然后点击右上角,进入setup:
然后按照对应的指令安装:
$ wget -O ngccli_linux.zip /downloads/ngccli_linux.zip && unzip -o ngccli_linux.zip && chmod u+x ngc
$ md5sum -c ngc.md5
$ echo "export PATH=\"\$PATH:$(pwd)\"" >> ~/.bash_profile && source ~/.bash_profile
接下来需要获取AIPKEY
,回到上面图片的页面
获取到KEY之后,继续执行
$ ngc config set
然后依次输入:
然后输入:
$ docker login nvcr.io
然后根据API-KEY页面下Docker下的显示输入,看到success 就成功了
Tao Toolkit
安装Tao Toolkit
使用VirtualEnvRapper创建新的virtualenv
Linux 下创建python的虚拟环境
安装virtualenv:
pip install virtualenv
创建虚拟环境:
virtualenv venv#venv为虚拟环境目录名,目录名自定义
source venv/bin/activate
安装TAO启动程序Python包nvidia-tao
进入虚拟环境,安装tao
pip3 install nvidia-pyindexpip3 install nvidia-tao
tao --help
出现:
运行Tao Toolkit
下载Computer Vision examples
wget --content-disposition https://api./v2/resources/nvidia/tao/cv_samples/versions/v1.2.0/zip -O cv_samples_v1.2.0.zipunzip -u cv_samples_v1.2.0.zip -d ./cv_samples_v1.2.0 && rm -rf cv_samples_v1.2.0.zip && cd ./cv_samples_v1.2.0
安装jupyter
pip3 install jupyter
生成配置文件
jupyter notebook --generate-config
生成秘钥,打开python解释器
$:python>>>from notebook.auth import passwd>>>passwd()#输入新的登陆密码(本地访问的时候使用)#再次确认#生成key,复制留存并修改到配置文件中去。ubuntu终端中ctrl+shift+C复制,ctrl+shift+V粘贴
exit()退出python环境
修改配置文件(编辑器自行选择,可以是gedit、nano等,这里使用vim)
vim ~/.jupyter/jupyter_notebook_config.py
修改配置文件中一下内容,去掉注释后保存,配置文件默认都是注释掉的,如果找不到一下内容,那就直接在文件头输入保存即可。
c.NotebookApp.ip='*'# 就是设置所有ip地址皆可访问#或者c.NotebookApp.ip='0.0.0.0'c.NotebookApp.password ="复制的那个密文key 替换等号后面的内容"
保存退出
执行命令:jupyter notebook
在本地浏览器输入服务器地址+端口号
密码是之前在python解释器环节自己设置的
路径
我的路径及虚拟环境如下:
cd /data/home/trainee/tao/source venv/bin/activate
登录Docker容器
(venv) trainee@inspur-dev:~/tao$ docker login nvcr.io----------------------输入用户名和密码------------------------------WARNING! Your password will be stored unencrypted in /data/home/trainee/.docker/config.json.Configure a credential helper to remove this warning. See/engine/reference/commandline/login/#credentials-storeLogin Succeeded
模型下载
查看所有模型
查看所有对话式 AI 模型,命令如下:
(venv) trainee@inspur-dev:~/tao$ ngc registry model list nvidia/tlt-riva/*----------------------------------------------------[{"application": "Riva","builtBy": "NVIDIA","createdDate": "-07-30T16:02:07.759Z","description": "Base English n-gram LM trained on LibriSpeech, Switchboard and Fisher","displayName": "Riva ASR English LM","framework": "Riva","isPublic": true,"labels": [{"key": "builtBy","values": ["NVIDIA"]},{"key": "framework","values": ["Riva"]},{"key": "precision","values": ["n/a"]},{"key": "publisher","values": ["NVIDIA"]}],"latestVersionIdStr": "deployable_v1.0","latestVersionSizeInBytes": 7932483714,"logo": "/kbojo/images/master/Nvidia-Centric-TLT-Riva.png","modelFormat": "ARPA","name": "speechtotext_english_lm","orgName": "nvidia","precision": "n/a","publisher": "NVIDIA","teamName": "tlt-riva","updatedDate": "-11-16T22:07:59.681Z"}]
指定模型下载
从 NGC 模型注册表下载选择的模型,命令如下:
ngc registry model download-version <ORG/model_name:version> -dest <path_to_download_dir>
例如,使用该命令将 resnet 18 分类模型下载到/data/home/trainee/tao/models/
目录:
(venv) trainee@inspur-dev:~/tao$ ngc registry model download-version nvidia/tao/pretrained_classification:resnet18 --dest models----------------------------------------------------{"download_end": "-01-20 06:43:53.403896","download_start": "-01-20 06:43:25.363507","download_time": "28s","files_downloaded": 1,"local_path": "/data/home/trainee/tao/models/pretrained_classification_vresnet18","size_downloaded": "82.38 MB","status": "Completed","transfer_id": "pretrained_classification_vresnet18"}
使用 Jupyter Notebook 进行训练
安装Python虚拟环境
安装virtualenv
(venv) trainee@inspur-dev:~/tao$ pip install virtualenv -i https://pypi.tuna./simple/
安装virtualenvwrapper
(venv) trainee@inspur-dev:~/tao$ pip install virtualenvwrapper -i https://pypi.tuna./simple/
查看python路径
(venv) trainee@inspur-dev:~/tao$ whereis python----------------------------------------------------python: /usr/bin/python3.8 /usr/bin/python3.8-config /usr/lib/python2.7 /usr/lib/python3.8 /usr/lib/python3.9 /etc/python3.8 /usr/local/lib/python3.8 /usr/include/python3.8 /data/home/trainee/tao/venv/bin/python /data/home/trainee/tao/venv/bin/python3.8
添加环境变量
export VIRTUALENVWRAPPER_PYTHON=/usr/bin/python3.8
显示所有环境变量
export
mkvirtualenv launcher -p /usr/bin/python3.8
车牌检测
准备数据集
下载LPD模型以及数据集
LPD网络模型下载链接:https://catalog./?filters=&orderBy=scoreDESC&query=LPD
$ git clone /openalpr/benchmarks benchmarks
下载lpd_prepare_data.py文件
GitHub链接:/NVIDIA-AI-IOT/deepstream_tao_apps/blob/release/tlt3.0/misc/dev_blog/LPDR/lpd/lpd_prepare_data.py
调整数据集图像/标签大小
$ python lpd_prepare_data.py --input_dir benchmarks/endtoend/us --output_dir lpd --target_width 640 --target_height 480
将结果保存至/data/home/trainee/tao/lpd/
文件夹
分割数据集
将.tao_mounts.json文件复制到/data/home/trainee/
文件夹下,.tao_mounts.json文件的内容如下:{"Mounts": [{"source": "/home/<username>/tao-experiments","destination": "/workspace/tao-experiments"},{"source": "/home/<username>/openalpr","destination": "/workspace/openalpr"}]}
将数据分成两部分:80% 用于训练集,20% 用于验证集。运行以下命令随机拆分数据集并生成 tfrecords。
tao detectnet_v2 dataset_convert -d /workspace/openalpr/SPECS_tfrecord.txt -o /workspace/openalpr/lpd_tfrecord/lpd
配置规范文件
将批量大小设置为 4 并运行 120 个 epoch 进行训练。每 10 个 epoch 使用验证集对训练模型进行评估。
训练
$ tao detectnet_v2 train -e /workspace/openalpr/SPECS_train.txt -r /workspace/openalpr/exp_unpruned -k nvidia_tlt
训练完成后,得到如下文件夹
导出模型
$ tao detectnet_v2 export -m /workspace/openalpr/exp_unpruned/weights/model.tlt -o /workspace/openalpr/export/unpruned_model.etlt --cal_cache_file /workspace/openalpr/export/calibration.bin -e /workspace/openalpr/ SPECS_train.txt -k nvidia_tao --cal_image_dir /workspace/openalpr/lpd/data/image --data_type int8 --batch_size 4 --batches 10 --engine_file /workspace/openalpr/export/unpruned_int8.trt
训练LPD模型的正确性
$ tao detectnet_v2 evaluate -m /workspace/openalpr/exp_unpruned/weights/model.tlt -k nvidia_tao -e /workspace/openalpr/SPECS_train.txt
车牌识别
下载LPR模型以及数据集
LPD网络模型下载链接:https://catalog./?filters=&orderBy=scoreDESC&query=LPD
$ git clone /openalpr/benchmarks benchmarks
数据预处理
python preprocess_openalpr_benchmark.py --input_dir=./benchmarks/endtoend/us --output_dir=./data/openalpr
将得到 train文件夹 和 val文件夹
训练
$ tao lprnet train -e /workspace/tao-experiments/lprnet/tutorial_spec.txt -r /workspace/tao-experiments/lprnet/ -k nvidia_tao -m /workspace/tao-experiments/lprnet/us_lprnet_baseline18_trainable.tlt
模型转换
查看处理器架构
$ uname -m
下载tao-converter
根据自己的平台架构和所需要的环境下载下载tao-converter,链接如下:
NVIDIA官网:/tao-toolkit-get-started
安装libssl-dev
$ sudo apt-get install libssl-dev
配置环境变量
对于X86平台
$ export TRT_LIB_PATH="/usr/lib/x86_64-linux-gnu"$ export TRT_INC_PATH="/usr/include/x86_64-linux-gnu"
对于aarch平台
$ export TRT_LIB_PATH=/usr/lib/aarch64-linux-gnu$ export TRT_INCLUDE_PATH=/usr/include/aarch64-linux-gnu
运行 tao-converter(tlt模型转engine)
./tao-converter -k nvidia_tlt -p image_input,1x3x48x96,4x3x48x96,16x3x48x96 models/LP/LPR/ch_lprnet_baseline18_deployable.etlt -t fp16 -e models/LP/LPR/lpr_ch_onnx_b16.engine
模型推理
$ make
执行make
命令之后如果报错,可参考/qq_44824148/article/details/122841870?spm=1001..3001.5502这篇博客。
将视频复制/home/inspur/deepstream_lpr_app-master/deepstream-lpr-app/
文件夹下,
$ cd deepstream-lpr-app$ cp dict_ch.txt dict.txt$ sudo ./deepstream-lpr-app 2 2 0 ch_car_test.mp4 output.264
如果觉得《NVIDIA TAO 工具包 (TAO Toolkit) 的部署和应用【LDR LPR】》对你有帮助,请点赞、收藏,并留下你的观点哦!