Jetson Nano (八) PaddlePaddle 环境配置 PaddleHub—OCR测试

Jetson Nano PaddlePaddle 环境配置 及 PaddleHub—OCR测试

一.软硬件版本

Jetson Nano 4G
JP 4.4.1
CUDA 10.2
CUDNN 8.0
TensorRT 7.1.3.0

二.安装NCLL2

git clone https://github.com/NVIDIA/nccl.git   
cd nccl     
make -j4     
sudo make install 

此步编译过程很久。
已下为安装成功截图:在这里插入图片描述

三.安装Paddlepaddle-gpu

##注意以下python环境安装强烈推荐在虚拟环境下操作##

  • 3.1 下载paddle
git clone -b release/2.0 https://gitee.com/paddlepaddle/Paddle.git
  • 3.2 CUDA 的环境变量配置,已经配置的跳过该步骤。
sudo vim  ~/.bashrc
#在最后添加以下内容
export CUDA_HOME=/usr/local/cuda-10.2
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64:$LD_LIBRARY_PATH
export PATH=/usr/local/cuda-10.2/bin:$PATH
#保存生效一下
source ~/.bashrc
  • 3.3 安装编译工具
sudo apt-get install unrar swig patchelf
  • 3.4 编译
cd Paddle 
#需要编译python包的话先安装下需要的库
pip install -r python/requirements.txt

mkdir  build
cd build
cmake \
-DWITH_CONTRIB=OFF \
-DWITH_MKL=OFF \
-DWITH_MKLDNN=OFF \
-DWITH_TESTING=OFF \
-DCMAKE_BUILD_TYPE=Release \
-DON_INFER=ON \
-DWITH_PYTHON=ON  \
-DWITH_XBYAK=OFF   \
-DWITH_NV_JETSON=ON \
-DPY_VERSION=3.6  \
-DTENSORRT_ROOT=/home/djj/Tensorrt/ \   
-DCUDA_ARCH_NAME=All \
..
#时间很久
make -j4  
#生成预测lib
make inference_lib_dist   
 #python环境安装编译好的paddlepaddle-gpu的whl  
pip install  paddlepaddle*******.whl 

填坑记录:

  • 1.numpy没找到,卸载重装。
  • 2.cmake使找不到CUPTI报错,通过拷贝TensorRT环境,来适应cmake文件的编译命令。拷贝后TensorRT呈现以下结构:
    在这里插入图片描述
  • 3.编译时三方库无法下载,本人在此步骤卡了2天,目前没找到可行方案。

四.测试

在python中测试,出现下图说明成功。

python
import paddle
#2.0以下API
paddle.fluid.install_check.run_check()
#2.0以上的API
paddle.utils.run_check()

在这里插入图片描述

五.pip安装方式whl包下载资源

  • 百度云链接(版本:1.5.2,1.6.2,2.0.0):

链接:https://pan.baidu.com/s/1ZOaKk-tE77qWuIpYMhxnJg
提取码:ldql

  • 官网下载链接:

https://www.paddlepaddle.org.cn/documentation/docs/zh/install/Tables.html#whl-release

六.PaddleHub 安装/测试

  • 首先需要安装sentencepiece
源码编译安装sentencepiece,编译环境安装:
sudo apt-get install cmake build-essential pkg-config libgoogle-perftools-dev
然后进行源码编译:
https://github.com/google/sentencepiece
下载源码包 sentencepiece-master.zip
unzip sentencepiece-master.zip
cd sentencepiece
mkdir build
cd build
cmake ..
make -j4
sudo make install
sudo ldconfig -v
pip install  scipy==1.3.1
#这里我安装的1.8版本
pip install paddlehub==1.8.0
安装成功后python下测试 import paddlehub 会出现缺少库的错误pip安装即可
  • 测试超轻量级中文OCR模型
安装ocr依赖
sudo apt-get install libgeos-dev
sudo apt-get install python3-shapely
pip install shapely==1.6.2
pip install pyclipper
conda install geos
#使用hub下载模型
##韩文的##
hub install korean_ocr_db_crnn_mobile==1.0.0
##中文的##
hub install chinese_ocr_db_crnn_mobile==1.1.0
  • 简单测试命令,测试环境是否正确
hub run chinese_ocr_db_crnn_mobile --input_path "/PATH/TO/IMAGE"
  • 这里使用cpu可以正常推理,使用GPU的话需要改下源码,OCR源码中申请了8G显存。。。
  • 不需要使用GPU的直接跳到 测试代码 步骤即可。
直接使用GPU这里会报错:
E0318 13:28:24.483968  4564 analysis_predictor.cc:585] Allocate too much memory for the GPU memory pool, assigned 8000 MB
E0318 13:28:24.484027  4564 analysis_predictor.cc:588] Try to shink the value by setting Analysis Config::EnableGpu(...)
  • 修改源码:
~/.paddlehub/modules/chinese_ocr_db_crnn_mobile/model.py 
修改此文件76行
	config.enable_use_gpu(8000, 0) 
改为:
	config.enable_use_gpu(3000, 0) 

修改后运行,无反应,目前可以查看paddle github lssues目前ocr对于显存还存在一些问题;本文还是采用cpu推理。

  • 测试代码:
import paddlehub as hub
import cv2
import os
#如果使用GPU,需要先定义GPU;
os.environ['CUDA_VISIBLE_DEVICES'] = '0'

ocr = hub.Module(name="chinese_ocr_db_crnn_mobile")
result = ocr.recognize_text(images=[cv2.imread('./1.jpg')],
                            use_gpu= False,                  #设置是否使用gpu
                            output_dir='ocr_result',
                            visualization=True,
                            box_thresh=0.5, 
                            text_thresh=0.5)

print(result)

可以看到保存后的结果:
在这里插入图片描述

六.参考文档

https://www.paddlepaddle.org.cn/documentation/docs/zh/install/index_cn.html
https://zhuanlan.zhihu.com/p/319371293
https://blog.csdn.net/qq_44498043/article/details/107300374?spm=1001.2014.3001.5502

7.有待解决…

各位同学,问下有啥方法可以让编译的时候下载github文件速度快些??求大佬回复。。。
使用gpu推理时,显存问题无法解决,等后续paddle版本优化后再试试。。

### 回答1: Jetson Nano的基础环境配置包括以下步骤: 1. 安装操作系统:Jetson Nano支持多种操作系统,包括Ubuntu、JetPack等。可以根据需求选择合适的操作系统进行安装。 2. 连接网络:Jetson Nano可以通过有线或无线网络连接到互联网。需要配置网络连接,以便进行软件包的安装和更新。 3. 安装基础软件包:Jetson Nano需要安装一些基础软件包,包括Python、OpenCV、CUDA等。可以通过命令行或软件包管理器进行安装。 4. 配置开发环境:Jetson Nano支持多种开发环境,包括C++、Python、TensorFlow等。需要根据需求进行配置,以便进行开发和调试。 5. 测试环境:在完成基础环境配置后,需要进行测试以确保系统正常运行。可以编写简单的程序进行测试,例如打印系统信息、读取摄像头等。 以上是Jetson Nano基础环境配置的主要步骤,需要根据具体情况进行调整和优化。 ### 回答2: Jetson Nano 是 NVIDIA 推出的一款人工智能边缘计算平台,是一种高性能、低功耗的小型计算机,可以运行深度学习模型和机器学习算法。为了使用 Jetson Nano,我们需要对其进行基础环境配置。 一、系统安装 目前 Jetson Nano 支持的系统有 Ubuntu18.04 和 Jetpack 4.2.2,我们可以从 NVIDIA 官网上下载镜像并进行安装。 二、软件安装 1. 更新系统 在终端中输入以下命令: ``` sudo apt update sudo apt upgrade ``` 2. 安装编辑器 Jetson Nano 默认没有安装任何编辑器,常用的编辑器有 nano 和 vim。在终端中输入以下命令安装 nano 编辑器: ``` sudo apt install nano ``` 3. 安装 Python Jetson Nano 默认没有预装 Python,我们需要手动安装。在终端中输入以下命令: ``` sudo apt install python3-pip python3-dev pip3 install -U pip ``` 4. 安装 OpenCV OpenCV 是一种计算机视觉和机器学习的开源库,可以进行图像和视频处理、特征提取等操作。在 Jetson Nano 上需要手动安装。在终端中输入以下命令: ``` sudo apt install libopencv-dev python3-opencv ``` 5. 安装 PyTorch PyTorch 是一种基于 Python 的深度学习框架,可以在 Jetson Nano 上运行。在终端中输入以下命令安装 PyTorch: ``` sudo apt install python3-pip libopenblas-base libopenmpi-dev pip3 install torch torchvision ``` 三、其他配置 1. 显示器分辨率配置 Jetson Nano 默认的分辨率是 720P,如果需要更高的分辨率可以通过修改配置文件实现。在终端中输入以下命令: ``` sudo nano /boot/extlinux/extlinux.conf ``` 找到 "APPEND recovery=UUID=**** rootfstype=ext4 video=tegrafb no_console_suspend=1 console=tty0 fsck.repair=yes net.ifnames=0" 一行,加入“video=HDMI-A-1:1920x1080M@60”参数,默认情况下是 720P 分辨率,如果要修改成 1080P 可以将参数改成“video=HDMI-A-1:1920x1080M@60”。 2. 网络配置 我们可以通过修改网络配置文件来配置 Jetson Nano 的网络连接方式,在终端中输入以下命令: ``` sudo nano /etc/network/interfaces ``` 找到 "auto lo iface lo inet loopback" 一行,下方加入以下内容: ``` auto eth0 iface eth0 inet dhcp ``` 保存文件后,关闭终端重新启动网络服务: ``` sudo service network-manager restart ``` 以上就是 Jetson Nano 基础环境配置的内容,通过以上步骤,我们可以成功配置 Jetson Nano 的环境,并使用它来运行深度学习模型和机器学习算法。 ### 回答3: Jetson Nano是一款强大的嵌入式平台,用于在端到端AI中实现视觉和语音处理能力。要开始使用Jetson Nano,我们需要先进行一些基础环境配置。下面是基础环境配置的步骤: 1. 烧录Jetson Nano的操作系统 Jetson Nano支持多种操作系统,包括Ubuntu和JetPack。操作系统可以通过NVIDIA官网下载。在下载之前你需要注册一个NVIDIA开发者账号,有了账号后,你可以轻松下载所需的软件。下载完成后,可以使用Etcher或Rufus等工具将系统烧录到SD卡中。将SD卡插入Jetson Nano,连接键盘、鼠标和显示器,即可正常安装系统。 2. 配置网络连接 连接到Jetson Nano并为其配置网络连接非常重要。Jetson Nano可以通过有线连接或Wi-Fi连接到网络。连接到有线网络时,只需将网线插入Jetson Nano的网络端口即可。如果使用无线网络,则需要配置Wi-Fi网络。点击屏幕右上角的网络图标,选择Wi-Fi选项,输入网络名称和密码即可完成配置。 3. 更新系统软件和驱动程序 安装完操作系统后,需要更新系统软件和驱动程序。打开终端并更新。运行以下命令: sudo apt-get update sudo apt-get upgrade 这个过程可能需要一些时间,但更新系统软件是很重要的。同时,这个过程中建议选择NVIDIA官方提供的驱动程序,或根据Jetson Nano型号选择相应的驱动程序安装。 4. 配置CUDA和cuDNN Jetson Nano的核心能力在于其强大的GPU,而CUDA和cuDNN是支持GPU的计算加速库。在使用Jetson Nano时,我们需要配置这些库。它们可以从NVIDIA官网下载,下载并安装后,需要进行配置使用。 5. 安装开发环境 安装开发环境非常重要,因为它为我们提供了开发和调试Jetson Nano的工具和环境。Jetson Nano支持多种编程语言,如Python、C++等,因此需要安装相应的IDE或文本编辑器。Jetson Nano还支持Jupyter Notebook,这是一种交互式计算环境,可以帮助开发人员快速进行开发和测试。 这是Jetson Nano基础环境配置的步骤,基础环境配置完成后,我们就可以开始构建AI应用程序。Jetson Nano是一款非常强大的嵌入式平台,它可以帮助我们实现端到端的AI,提高产品质量和生产效率。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值