前言
首先简单介绍一下这个app是干啥的,实际上我的标题已经差不多说完了.....就是用户可以上传带有鸟类的图片或者视频,然后就可以得到相应的识别效果,这个app的需求是来自于我的一位朋友,所以我就做出来了
正文
讲一下基本用到的技术栈吧,前端用的react-native,后端用的是flask,识别算法部分用的是yolov5,接下来我会从三个大方面讲一下学到的东西,也就是前端后端和识别算法这三个大方面.
前端
前端实际上是我第二次使用rn,算是有点经验了其实,这次我就直接用原生的rn框架创建了,而不是使用上次坑了我一次的expo框架.....,然后这次我又新学了一些东西
图标的使用
原先我想用图标总是傻傻的去用npm下载下来的库里的icon,然而这样非常的麻烦,经常出现失败的情况,而且搞不好要不去Android那个文件夹改一堆链接,于是我直接去例如iconfont-阿里巴巴矢量图标库这样的网站去下载png图标资源,然后用img标签展示就行,这样简单多了,唯一需要注意的大概就是记得把图片的名称改成英文的就成,不然打包的时候似乎会出问题....
redux的使用
有一说一,这是我第一次用redux,这里简单说一下redux的用法:
Redux是JavaScript的一个状态管理库,通常与React一起使用
它通过 centerX 全局单一的状态树[state tree]来存储整个应用的状态。改变状态的唯一方式就是触发动作[action],动作是一个描述发生了什么的纯对象。
Redux 的主要组成部分包括:
1. Store:存储应用的完整状态。想象它就像你应用的“数据库”。
2. Actions:表示一种对状态做出改变的方式。在Redux中,所有的改变都被明确化为动作。它们是一个带有 `type`属性和额外数据的简单JavaScript对象。
3. Reducers: 是改变状态的唯一方式,其是纯函数,接收旧的 state 和一个 action,然后返回新的 state。 关于Redux的基本使用步骤如下:
Step 1:创建 Actions
export const SOME_ACTION = 'SOME_ACTION';
export function doSomething()
{ return { type: SOME_ACTION, payload: "Action data" } }
Step 2:创建 Reducers
import { SOME_ACTION } from '../actions/sampleActions';
export default function sampleReducer(state = initialState, action)
{ switch (action.type) { case SOME_ACTION: return Object.assign({}, state, action.payload); default: return state; } }
Step 3:创建 Store
import { createStore } from 'redux';
import rootReducer from './reducers';
let store = createStore(rootReducer);
Step 4:使用 Store
import { Provider } from 'react-redux';
import { createStore } from 'redux';
import rootReducer from './reducers';
import App from './components/App';
let store = createStore(rootReducer);
render(
<Provider store={store}>
<App />
</Provider>,
document.getElementById('root') );
Step 5:在你的组件中使用 Redux Actions
import { connect } from 'react-redux';
import { doSomething } from './actions/sampleActions';
function mapStateToProps(state){ return { stateProp: state.stateProp }; }
function mapDispatchToProps(dispatch){
return { doSomething: () => dispatch(doSomething())
}; }
class MyComponent extends React.Component{ componentDidMount(){ this.props.doSomething(); } render(){ // Render using this.props.stateProp and this.props.doSomething } }
export default connect(mapStateToProps, mapDispatchToProps)(MyComponent);
一些小吐槽
rn在很多方面挺方便的,但是我用下来总有些隔靴搔痒之感....或许之后我会转向原生的安卓开发()
后端
后端我是第一次用flask,所以先学了一下,大概了解了一下基本接口怎么写和怎么连接数据库就开写了,毕竟我本质上是crud,感觉基本需要说的就大概是怎么调用脚本
脚本调用
这里因为我用了python的虚拟环境,所以不能直接用python驱动脚本,而是要用特定的虚拟环境下的python文件来驱动,这里是一点需要注意的.然后
@app.route('/video', methods=['POST'])
def video():
print("Video route started.")
if 'video' not in request.files:
return 'No video file part', 400
file = request.files['video']
if file.filename == '':
return 'No video file selected', 400
temp_dir = tempfile.TemporaryDirectory()
input_video_path = os.path.join(temp_dir.name, 'input.mp4')
file.save(input_video_path)
print(f"Saved video file to {input_video_path}")
result = run_yolo_video(input_video_path)
temp_dir.cleanup()
return jsonify({"data": result}), 200
def run_yolo_video(input_video_path):
print("YOLO video function started.")
model_path = "/etc/nginx/code/birdsearch/yolov5/weights/best.pt"
command = f"python ../yolov5/detect.py --weights {model_path} --source {input_video_path}"
print(f"Running command {command}")
process = subprocess.Popen(command, shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)
stdout, stderr = process.communicate()
output = stderr.decode("utf-8")
print(f"Received output: {output}")
return output
然后需要讲一下大概就是我这边读取控制台输出的操作:
这个函数 `run_yolo_video(input_video_path)` 是用来通过 YOLO (You Only Look Once) 模型对输入路径下的视频进行对象检测的。
解读这个函数:
1. `print("YOLO video function started.")`: 输出提示信息,表示 YOLO 视频函数已经开始运行。
2. `model_path = "/etc/nginx/code/birdsearch/yolov5/weights/best.pt"`: 这一行定义了模型路径。也就是说,YOLO 模型权重文件被存储在 "/etc/nginx/code/birdsearch/yolov5/weights/best.pt" 路径下。
3. `command = f"python ../yolov5/detect.py --weights {model_path} --source {input_video_path}"`: 通过 Python 运行 YOLO 定位脚本 `detect.py`。`--weights {model_path}`选项指定了模型权重文件的路径。`--source {input_video_path}`选项则定义了要处理的输入视频的路径。
4. `print(f"Running command {command}")`: 打印将要运行的命令。
5. `process = subprocess.Popen(command, shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)`: 使用 `subprocess` 模块运行上面定义的命令。`Popen` 函数创建一个新的进程来运行这个命令,`shell=True` 参数表示通过 shell 运行该命令,`stdout=subprocess.PIPE` 和 `stderr=subprocess.PIPE` 则表示我们想要捕获命令的标准输出和错误输出。
6. `stdout, stderr = process.communicate()`: `communicate` 方法等待进程结束,然后返回一个元组,包含进程的标准输出和错误输出。
7. `output = stderr.decode("utf-8")`: `decode` 函数将错误输出(该输出以字节形式存在)转换为字符串。
8. `print(f"Received output: {output}")`: 打印从 `detect.py` 脚本收到的输出。
yolov5算法
这个其实没啥好说的,就是找开源数据集然后设置好参数,用yolov5train就完事了,很简单,我还租了一个4090服务器进行训练,这样快一点()
结语
总之这个项目顺利完结了,最终打包的apk也给我的那位朋友了,总之差不多就是这样!!!!