Ai-WB2-32S在window下使用vs 和 msys2编译以及烧录


前言

应为电脑虚拟机不方便使用vs(有点卡),所以博主搜集了一些资料选择在windows下进行编译和烧录,过程虽然复杂,但是对于电脑配置不太高的用户挺友好的。

一、使用前准备

第一步 安装vscode

关于安装vscode博主就不献丑了,大家可以参考下面链接:
vscode安装教程

第二步 安装msys2

关于msys2的安装,大家可以参考下面链接:
超详细教程:windows安装MSYS2
关于msys2的详细使用,大家可以参考下面链接:
MSYS2 的介绍与使用

二、使用步骤

下面就开始介绍怎么使用msys2和vs来使用AI-THINKER-WB2仓库的demo了;

1.打开MSYS2 MINGW64

(1)在开始栏中找到MSYS2 MINGW64并打开

图一

(2)安装git

pacman -S git
图二
应为博主以前已经装好了,以前装的时候的正好有个截图,大家做个参考吧
图三
下面是安装好之后再此安装的截图
图四

(3)安装make

pacman -S make
图五

(4)安装好之后的文件存在位置

安装完成后,会在msys2的安装路径中的usr\bin目录下生成git和make系列文件
图六
图七

2.克隆项目

(1)从仓库里将项目克隆到本地

git clone --recursive https://gitee.com/Ai-Thinker-Open/Ai-Thinker-WB2
图八
图九

(2)如下地址可看到拷贝下来的目录

图十

3.配置环境

图十一
图十二
图十三
MSYS2_PATH_TYPE
inherit
图十四图十五
图十六
图十七
以上两个路径就是需要加入环境变量的路径

4.使用vscode

(1)打开vscode

图十八

(2)选择文件夹

图十九
图二十

(3)选择文件夹hello并在集成环境中打开

图二十一

5.进入MSYS2 mingw64环境并

d:\mys64\msys2_shell.cmd -defterm -no-start(博主这里对文件命名的是mys64,一般都是msys64,找到自己的安装路径加上\msys2_shell.cmd -defterm -no-start就好了)
图二十二

6.切换到Ai-Thinker-WB2

因此需要切换到helloworld目录
cd Ai-Thinker-WB2/applications/get-started/helloworld/
图二十三

三、编译

make -j8
图二十四
编译成功
图二十五

四、烧录

打开下面软件
图二十六
二十七

图二十八
图二十九
图三十
图三十一
图三十二
图三十三
此目录:D:\mys64\home\Administrator\Ai-Thinker-WB2\tools\flash_tool\chips\bl602\builtin_imgs\boot2_isp_bl602_v6.5.1
图三十四
模组连接电脑

图三十五
图三十六
图三十七图三十八
图三十九

图四十

总结

以上就是本期分享的内容,目的为了介绍一下模组在windows下使用vs和msys2如何进行编译和烧录,更多资料可从安信可官网上获取。

官方官网:https://www.ai-thinker.com
开发资料:https://docs.ai-thinker.com/
官方论坛:http://bbs.ai-thinker.com
技术支持:support@aithinker.com

  • 27
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: FCN-8s、FCN-16s、FCN-32s是基于全卷积神经网络(Fully Convolutional Network,FCN)的语义分割模型。它们分别使用了8倍、16倍、32倍的下采样和上采样,以实现对输入图像的像素级别的分类和分割。其中,FCN-8s是最早提出的模型,FCN-16s和FCN-32s则是在其基础上进行了改进和优化。这些模型在图像分割领域取得了很好的效果,被广泛应用于自动驾驶、医学图像分析等领域。 ### 回答2: FCN是全卷积神经网络(Fully Convolutional Networks)的缩写,是在CNN(卷积神经网络)的基础上进行修改和扩展得到的一个特殊网络结构。FCN的主要特点是可以处理图像的变换和尺度变化,能够输出与输入图像大小相同的特征图,是语义分割和目标识别领域常用的方法之一。 FCN-8s,FCN-16s和FCN-32s是FCN的三种不同变种。其中的数字表示网络最后一层的步长(stride)。简单来说,stride指的是卷积核在对图像进行卷积时每次移动的像素数。步长为1时,卷积核每次移动一个像素;步长为2时,每次移动两个像素。 FCN-32s是最简单的FCN结构,它的输出尺寸为输入图像尺寸的1/32,每层卷积后,特征图的尺度会缩小2倍,因此需要先将输入图像缩小32倍,然后送入网络进行训练和测试。FCN-32s的性能较低,适合处理相对较小的图像。 FCN-16s和FCN-8s是FCN网络中比较优秀的版本。他们的输出分别为输入图像尺寸的1/16和1/8。FCN-16s和FCN-32s的主要区别在于初始化策略不同。在FCN-16s中,使用了另一个FCN-32s模型的参数来进行初始化,同时保留了FCN-32s中的pool5层,这样可以利用FCN-32s中的pool5层提取的高层特征来进行计算,从而提高分割的精度。在FCN-8s中,使用了FCN-16s模型的参数来进行初始化,同时再加入一个新的迭代层来进行计算,提取更多的低层特征,从而进一步提高分割的精度。 总之,FCN-32s、FCN-16s和FCN-8s是一系列针对不同需求的图像语义分割神经网络。在实际应用中,可以根据具体需求和计算资源等因素选择不同的FCN结构,以获得更好的分割效果。 ### 回答3: FCN(Fully Convolutional Network)是一种基于卷积神经网络的语义分割网络模型。FCN架构的出现,使得我们可以用卷积神经网络来解决图像语义分割问题。FCN-8s、FCN-16s、FCN-32s是FCN网络的不同版本,下面我将分别介绍它们的特点和应用。 FCN-8s FCN-8s是第一个被提出并被广泛应用的FCN版本。它的主要特点是将VGG-16网络的最后三层全连接层(FC6,FC7和FC8)替换为卷积层。这个替换过程将输入图像映射到相应的feature map,以此来解决图像中像素级别的物体分类问题。FCN-8s包含了三个分辨率的feature map,分别是14×14,28×28和56×56。这三个特征图分别代表了高层次,中层次和低层次的图像特征。FCN-8s性能达到了目前最好的语义分割模型。 FCN-16s FCN-16s是FCN的改进版本。它是在FCN-8s的基础上加入了额外的pooling层,从而使得feature map的分辨率减小了,并提高了模型的速度。FCN-16s包含了两个分辨率的feature map,分别是14×14和28×28。它的主要应用是在对速度要求较高的任务中进行物体的语义分割。 FCN-32s FCN-32s是最简单的FCN版本。它是将VGG-16网络的所有全连接层都替换为卷积层,并且只有一个feature map,分辨率为32×32。FCN-32s的训练速度和推断速度都很快,并且是一个参数较少的模型。但是,它的性能要略低于FCN-16s和FCN-8s。 总之,FCN-8s、FCN-16s和FCN-32s都是基于卷积神经网络的图像语义分割模型,它们分别在速度和准确性方面有所不同,并适用于不同类型的场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值