jetson orin nano super AI模型部署之路(四)YOLOV10部署
Published:
我们先直接拿一篇paper中的截图来做测试。
在terminal可以看到检测的结果:其中检测到了12个人,1辆车等,以及前后处理和模型推理所用的时间。
我们还是使用我们在“jetson orin nano super AI模型部署之路(二)保姆级最好用AI环境配置”中介绍的docker环境为基础,在这篇文章中,我们介绍了dustynv/nanoowl:r36.4.0这个docker image,里面包含了jetson的pytorch、tensorrt等常用的组件。
我们启动一个container。
sudo docker run --runtime nvidia --gpus all --net host --ipc host -it --name yolo -v /home:/home dustynv/nanoow:r36.4.0
然后我们拉取yolov10的代码,并且进入直接run即可:
git clone https://github.com/THU-MIG/yolov10.git
cd yolov10
mkdir weights
python3 app.py
这个过程如果缺什么包,再根据需要安装即可。注意如果想在jetson上运行代码,然后在局域网内其他计算机访问jetson来运行,需要修改代码,在launch的时候,加上server_name=”0.0.0.0”,以便其他机器可以访问到。
if __name__ == '__main__':
gradio_app.launch(server_name="0.0.0.0")