list @size 验证_快速在安卓端验证深度学习算法模型

88613520a3befb1ccbec2e963ced566f.png

1、背景

​ 前段时间在知乎上溜达,看到 @糖心他爸 大神的专栏-实战嵌入端的AI算法,进去一看,不得了,发现新大陆了,深度学习模型还能在安卓端这么玩的吗?

​ 一般对我们这种初级炼丹师,要验证算法在端上的能力以及实测效果。一般是这样的, 如图1(至于你们是不是这样我是不知道),中间验证过程又臭又长,中间有些环节还得看别人有没有空(只怪自己水平差)。

72246baf455587afeb0ed1cfec0fe7ee.png
图1 验证流程

​ 那么看了大神的专栏,发现原来可以这么玩(嫌弃ing,说了半天还没告诉怎么玩)。

​ 以mnist分类为例,先贴下大神的部分代码,详细代码看大神github。

int 

​ 看下来直接在android端就能用C++完成模型效果以及性能测试了,感觉就不用去求爷爷求爸爸了,开森啊(这里面的MNN是阿里的端上inference框架,感兴趣可以去GitHub上看看,MNN可以参考MNN文档,当然还有nihui大佬的NCNN ):

2、怎么玩

​ 开森归开森,但是怎么玩呢?把大神的专栏翻了一遍,没看对应教程,大佬可能觉得这个so easy,大家都会,哭!!!

​ 怎么办?看看大神代码好像有mk文件,查查mk文件干啥的呢?发现是安卓上类似makefile文件,那就查查如何用mk编译可执行文件吧,通过问问度娘以及谷歌爸爸,发现是可以实现的,那么大体方向是没错。

​ 那么怎么编译?怎么把对应的文件传到android上?怎么在android上执行呢?(怒问自己,垃圾,你咋这么多不会呢!!!)

​ 这个时候果断去抱安卓同学的大腿了!

​ 大腿开始教我怎么玩啦!!!

2.1 ndk编译

​ 这里先git clone 一下大神的github代码,前面opencv动态库,MNN动态库,mk文件大神都给你们弄好了,下下来改改或者直接用就行了。

​ 再下载android的NDK(我是mac电脑,如果你们是其它系统,行不行我不知道,我只管挖不管埋)。

​ 可以发现ndk下面有个ndk-build文件(安卓大腿说用着玩意编译)。

# 先设置环境

​ 到这里基本编译结束了,那么怎么把它导到android端呢?

2.2 文件传输

​ 下面这个得用adb工具,至于这玩意怎么安装,是什么玩意,自己百度。

​ 搞了个rk3399,连上电脑。

# 先来条命令
adb devices

#运行结果如下,可以看到我下面有个设备了,设备号CBI9SLBNWK
List of devices attached
CBI9SLBNWK  device

# 切换一下root权限
adb root
# 运行结果
”adbd is already running as root“

​ 这样子我们待会进入adb shell就有root权限了,就可以为所欲为了。

正式push数据上去:

# 传输编译好的文件,我这边比较懒把整个目录都push上去

2.3 运行可执行文件

# 下面进入adb shell环境
adb shell
# 下面就跟我们在linux的操作差不多了
# 先查看我们上传的文件在不
ls /data
# 发现文件是在的
cd /data
cd /data/temp/MNN-APPLICATIONS/applications/mnist/onnx/libs/arm64-v8a
# 可以发现有个编译好的可执行文件 onnx_mnist
# 把 onnx_minist拷出来,拷到有图片的目录,这里可以不拷贝,只是跟cpp代码中模型文件跟测试文件相对路径保持一致就行
cp onnx_mnist ../../jni
cd ../../jni

# 看下大神的onnx_mnist.cpp文件,发现在该目录下需要mnist_test.jpg以及mnist.mnn两个文件
# 把该目录test.jpg文件名改成对应名字
mv test.jpg mnist_test.jpg
# 把graph中,MNN转换的mnist.mnn拷出来
cp ./graphs/minist.mnn ./

​ 激动人心的时候到啦,终于可以运行了!(集齐七颗龙珠了,可以召唤神龙了)

./onnx_mnist
# 我去,出错啦
CANNOT LINK EXECUTABLE "./onnx_mnist": library "libMNN.so" not found

​ 难道是编译目录不对?折腾了半天,把动态库移来移去,移到当前木来,看了mk文件,发现在对应的位置也有对应的动态库。

OpenCV_BASE 

​ 搞了半天没办法了,加上 @糖心他爸 大神微信,求大神指点。

​ 大神直接贴了一行代码:

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:<对应动态库路径>

​ 我去,原来没有指定对应动态库路径,,补上:

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:../libs/arm64-v8a

运行结果:

Invalide device for support vulkan
Invalide device for support vulkan
the result is 5

​ 感动,终于有运行结果了!

以下是使用最佳适应算法进行内存分配的代码: ``` /** * 通过最佳适应算法进行内存分配 * @param free_list 待操作的空闲分区链表 * @param assign_list 待操作的分配分区链表 * @param size 进程请求的内存大小 * @param ret_begin 分配成功时分配的内存块的起始地址 * @param ret_end 分配成功时分配的内存块的结束地址 * @return 分配成功返回true,反之返回false */ bool BF(LinkList free_list, LinkList assign_list, int size, int *ret_begin, int *ret_end) { LNode *cur = free_list.m_head->next; LNode *best = NULL; // 最佳匹配的空闲分区 while (cur) { if (cur->size >= size && (!best || cur->size < best->size)) { best = cur; // 找到最佳匹配 } cur = cur->next; } if (!best) { return false; // 无法找到合适的空闲分区 } if (best->size == size) { // 空闲分区大小刚好合适,直接分配 *ret_begin = best->begin; *ret_end = best->end; assign_list.Insert(best->begin, best->end); free_list.Delete(best); } else { // 空闲分区大小大于请求大小,需要切割分区再分配 int new_begin = best->begin; int new_end = best->begin + size - 1; assign_list.Insert(new_begin, new_end); free_list.Update(best, new_end + 1, best->end); *ret_begin = new_begin; *ret_end = new_end; } return true; } ``` 该函数接收一个空闲分区链表 `free_list` 和一个分配分区链表 `assign_list`,以及一个进程请求的内存大小 `size`,并返回分配成功或失败的结果。该函数使用一个指针 `best` 来记录最佳匹配的空闲分区,最后将分配的内存块插入到分配分区链表中,并从空闲分区链表中删除或更新相应的节点。最后,该函数返回分配成功时的分配内存块的起始地址和结束地址。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值