分享

Jetson Nano 家族产品性能基准(Nano运行)

 云深无际 2021-11-03

我们先说一下这样做的好处;

实时应用程序的确定性低延迟要求与多流用例场景的最大性能之间取得了平衡




因为今天刚把Linux装好,所以接下来的几张图属于系统安装好后的配置笔记


先在这里打开软件管理器

搜索如图所示的软件,安装

接着在设置里面填写我图中的命令

把这个关掉,有点烦人

接着顺手安装一个串口的调试工具

gui的串口连接,我还没有用。

下面我会尝试的用一下,不知道好用吗

https://developer.nvidia.com/embedded/jetson-benchmarks

Jetson用于以高性能推理将各种流行的DNN模型和ML框架部署到边缘,以执行诸如实时分类和对象检测,姿态估计,语义分段和自然语言处理(NLP)之类的任务~下表就是jetson家族的产品的性能比较;

这个是全部家族的产品的比较

这边是Nnao两代之间的比较

这个是上面出现的两个指标的翻译

  • 每个Jetson模块均以最佳性能运行

    • Jetson AGX Xavier的MAX-N模式

    • Jetson Xavier NX和Jetson TX2为15W

    • Jetson Nano 10W

  • 最小延迟结果

    • 获得的最小延迟吞吐量结果是最大批量大小,该大小不会超过15ms延迟(BERT为50ms),否则,将使用一个批量大小。

  • 最佳性能结果

    • 获得的最大吞吐量结果没有等待时间限制,并说明了可以实现的最大性能。

我们尝试连接一下

很方便的就,但是对于文件编辑什么的就不是多么友好

为了不污染环境,我这里建立一个新的文件夹。

然后注意 code.的小点,在当前目录打开

安装一下SSH的插件

接着首次连接

这里我就保存到我的家目录了

这里我打开看一下,当前的一些设置

接着我们就连接

一看ip,二执行ls

执行杀猪命令

https://github.com/NVIDIA-AI-IOT/jetson_benchmarks

克隆库

真过分呢

先ping ,记录地址

加到配置文件内

就成功了

先下载部署模型

#!/bin/bashsudo apt-get updatesudo apt-get install -y python3-pipsudo python3 -m pip install Cythonsudo python3 -m pip install numpysudo python3 -m pip install pandassudo apt-get install -y python3-matplotlibsudo apt-get install -y python3-cairocffi

python3 utils/download_models.py --all --csv_file_path /home/yunswj/Desktop/jetson_benchmarks/benchmark_csv/tx2-nano-benchmarks.csv --save_dir /home/yunswj/Desktop/jetson_benchmarks/models

注意我代码的写法,不要写错

这个是我下载的模型

sudo python3 benchmark.py --model_name unet --csv_file_path /home/yunswj/Desktop/jetson_benchmarks/benchmark_csv/tx2-nano-benchmarks.csv --model_dir /home/yunswj/Desktop/jetson_benchmarks/models/vgg19_N2.prototxt --jetson_devkit nano --gpu_freq 921600000 --power_mode 0 --precision fp16

写我上面的的参数

抱歉了,机器的哪里不知道出问题。。。跑10 分钟就关机了



让我们明天再研究...


    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多