平台:rk3288-firefly
内核:Linux4.4
编译工具:arm-linux-gnueabihf-
下载依赖的jpg库:
http://www.ijg.org/files/jpegsrc.v9b.tar.gz ;
下载mjpg-streamer源码:
https://github.com/jacksonliam/mjpg-streamer ;
https://github.com/codewithpassion/mjpg-streamer ;
libjpeg库的编译:
解压好刚刚下载的压缩文件之后,进入主目录,
新建一个__install 文件夹;
执行:
./configure --prefix=$(pwd)/__install --host=arm-linux-gnueabihf
prefix 指定了编译输出路径;
host 配置目标架构;
注意:有的帖子上说host=arm-linux ;我尝试编译出来的库文件是64位的,所以在编译好之后最好使用 file libjpeg.so.9;查看一下是不是符合你的硬件平台。
编译完成之后在 __install 下会有 bin include lib share 几个文件夹。
将lib下的so文件直接拷贝到开发板根文件系统的usr/lib 下即可;
编译mjpg-streamer :
首先要确保内核已经打开了UVC驱动和USB驱动;
1、之后进入源码目录,将要使用的插件文件夹中的Makefile修改其 CC=arm-linux-gnueabihf-gcc
如果只是想在Ubuntu下使用,可以不修改;
2、然后在input_uvc目录下的Makefile中找到:
CFLAGS += -O1 -DLINUX -D_GNU_SOURCE -Wall -shared -fPIC
加入刚刚编译的jpeg库的头文件路径:
CFLAGS += -O1 -DLINUX -D_GNU_SOURCE -Wall -shared -fPIC -I/home/linux-sdudy/mjpg-streamer/jpeg-9b/__install/include/
3、同样在这个文件,添加链接库的地址:
input_uvc.so: $(OTHER_HEADERS) input_uvc.c v4l2uvc.lo jpeg_utils.lo dynctrl.lo
$(CC) $(CFLAGS) -o $@ input_uvc.c v4l2uvc.lo jpeg_utils.lo dynctrl.lo $(LFLAGS)
改为:
$(CC) $(CFLAGS) -L/home/linux-sdudy/mjpg-streamer/jpeg-9b/__install/lib/ -o $@ input_uvc.c
我只测试了input_uvc 和 output_http ,所以顶层Makefile只打开了这两个编译选项,所以最终编译出来只有
input_uvc.so
output_http.so
mjpg_streamer
将这三个文件和www目录一起拷贝到跟文件系统,就可以测试了。
测试:
板子挂载的是NFS文件系统,通过网线与PC通信,
确定好自己板子的IP地址,以及摄像头在/dev下的名字。
我的是video1;
./mjpg_streamer -i “./input_uvc.so -d /dev/video1 -f 30 -q 90 -n” -o “./output_http.so -w ./www”
在Ubuntu中打开火狐浏览器,输入192.168.1.112:8080
就可以看到摄像头采集的图像了。
非可见光!!
移植过程中还有一些问题,总结之后再来修改。