我们先说一下这样做的好处; 实时应用程序的确定性低延迟要求与多流用例场景的最大性能之间取得了平衡
先在这里打开软件管理器 搜索如图所示的软件,安装 接着在设置里面填写我图中的命令 把这个关掉,有点烦人 接着顺手安装一个串口的调试工具 gui的串口连接,我还没有用。 下面我会尝试的用一下,不知道好用吗 https://developer.nvidia.com/embedded/jetson-benchmarks Jetson用于以高性能推理将各种流行的DNN模型和ML框架部署到边缘,以执行诸如实时分类和对象检测,姿态估计,语义分段和自然语言处理(NLP)之类的任务~下表就是jetson家族的产品的性能比较; 这个是全部家族的产品的比较 这边是Nnao两代之间的比较 这个是上面出现的两个指标的翻译
我们尝试连接一下 很方便的就,但是对于文件编辑什么的就不是多么友好 为了不污染环境,我这里建立一个新的文件夹。 然后注意 code.的小点,在当前目录打开 安装一下SSH的插件 接着首次连接 这里我就保存到我的家目录了 这里我打开看一下,当前的一些设置 接着我们就连接 一看ip,二执行ls 执行杀猪命令 https://github.com/NVIDIA-AI-IOT/jetson_benchmarks 克隆库 真过分呢 先ping ,记录地址 加到配置文件内 就成功了 先下载部署模型 #!/bin/bash sudo apt-get update sudo apt-get install -y python3-pip sudo python3 -m pip install Cython sudo python3 -m pip install numpy sudo python3 -m pip install pandas sudo apt-get install -y python3-matplotlib sudo apt-get install -y python3-cairocffi
python3 utils/download_models.py --all --csv_file_path /home/yunswj/Desktop/jetson_benchmarks/benchmark_csv/tx2-nano-benchmarks.csv --save_dir /home/yunswj/Desktop/jetson_benchmarks/models 注意我代码的写法,不要写错 这个是我下载的模型 sudo python3 benchmark.py --model_name unet --csv_file_path /home/yunswj/Desktop/jetson_benchmarks/benchmark_csv/tx2-nano-benchmarks.csv --model_dir /home/yunswj/Desktop/jetson_benchmarks/models/vgg19_N2.prototxt --jetson_devkit nano --gpu_freq 921600000 --power_mode 0 --precision fp16 写我上面的的参数 抱歉了,机器的哪里不知道出问题。。。跑10 分钟就关机了
|
|