【STM32】入门(十):STM32CubeMx下载、安装、使用

【STM32】STM32单片机总目录

1、下载

STM32CubeMx依赖java环境,需要先下载安装java SE,下载地址:
https://www.java.com/zh-CN/download/
在这里插入图片描述
STM32CubeMx下载地址:https://www.st.com/zh/development-tools/stm32cubemx.html
下载前,需要输入邮箱,在邮箱里点击下载连接,即可下载
在这里插入图片描述
在这里插入图片描述

2、安装

下载的软件:
在这里插入图片描述

2.1 先安装java环境

双击exe,点击安装,等待“安装成功”

2.2 安装STM32CubeMx

解压,双击exe,开始提起(Extracting)安装程序
在这里插入图片描述
提取完毕,进入欢迎界面,点击“Next”
在这里插入图片描述
接受许可,点击“Next”
在这里插入图片描述
第一个选项必选:阅读、同意隐私政策条款
第二个选择不是必选项:想参加用户改善计划的可以选手,会上传用户的日志、错误信息等。
在这里插入图片描述
选择安装路径,默认即可
在这里插入图片描述
安装成功
在这里插入图片描述

3、使用

3.1 打开软件

双击图标
在这里插入图片描述

3.2 第一次,再次确认是否参加改善计划

No Thanks
在这里插入图片描述

3.3 开始创建项目

1)选择第一个,从选择MCU型号来创建项目
在这里插入图片描述
自动下载解压资源
在这里插入图片描述
2)搜索需要的芯片,开始创建工程。
这里有个问题,每输入一个字符,总是录入两个字符,好奇怪
在这里插入图片描述
3)第一步先选择Debug模式为Serial Wire,不要使用模式的No Debug模式,否则代码只能下载一次,再次下载时会比较麻烦,并且不能调试
在这里插入图片描述
4)设置时钟源
把 HSE 时钟源设置为 Crystal/Ceramic Resonator(晶体或陶瓷谐振器),设置成功后,相应的管脚(OSC_IN & OSC_OUT)会被自动配置。
在这里插入图片描述
5)时钟配置
F103最大72MHz,选择PLLCLK,HCLK中72MHz,回车后,点击确认,软件自动计算
在这里插入图片描述
6)配置其他外设,以GPIO为例
将GPIO的PA0引脚,配置为按键输入,搜索框输入PA0后,回车,可以看到芯片图中引脚在闪烁
在这里插入图片描述
7)配置引脚
点击引脚,弹出引脚可以配置的模式,选择GPIO_Input
在这里插入图片描述
8)设置项目名称、目录、IDE及版本
在这里插入图片描述
9)选择只需要的库文件;将外设代码生成为一对.c和.h文件
在这里插入图片描述
10)选择HAL库还是LL库,俺选的HAL,然后点击右上角生成代码“GENERAT CODE”
在这里插入图片描述
11)缺少的资源会自动下载
在这里插入图片描述
12)打开生成的工程,自动生成的工程如下:
在这里插入图片描述
13)main.c文件如下,HAL初始化、时钟配置、GPIO初始化都是自动生成,用户只需完成外设的应用逻辑即可
在这里插入图片描述

  • 17
    点赞
  • 117
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Scrapy是一个强大的Python爬虫框架,用于快速、高效地从网页中提取数据。下面是一个使用Scrapy的爬虫案例。 假设目标是从一个电子商务网站上获取商品的名称、价格和评论。首先,需要创建一个Scrapy项目。在命令行中输入以下命令: ``` scrapy startproject ecommerce ``` 会生成一个名为ecommerce的文件夹,其中包含Scrapy项目的基本结构。接下来,进入项目文件夹并创建一个爬虫: ``` cd ecommerce scrapy genspider products example.com ``` 这里创建了一个名为products的爬虫,爬取的网站是example.com。进入爬虫文件`products.py`,可以看到Scrapy自动生成的代码。在`parse`方法中,可以编写代码来提取需要的数据。 首先,需要确定要提取数据的网页结构。使用Chrome浏览器的开发者工具,可以查看网页的HTML结构。根据需要提取的数据,可以使用XPath或CSS选择器来定位元素。比如,要提取商品的名称和价格,可以使用以下代码: ``` def parse(self, response): products = response.xpath('//div[@class="product"]') for product in products: name = product.xpath('.//h2/text()').get() price = product.xpath('.//span[@class="price"]/text()').get() yield { 'name': name, 'price': price } ``` 这个代码会在网页中查找所有`class`属性为`product`的`div`元素,并提取每个商品的名称和价格。 接下来,需要配置爬虫的URL和启动设置。在项目文件夹中的`settings.py`文件中,可以设置爬虫的起始URL和其他的配置参数。 最后,运行爬虫并保存数据。在命令行中输入以下命令: ``` scrapy crawl products -o data.json ``` 这个命令会运行名为products的爬虫,并将提取的数据保存在data.json文件中。 以上就是一个使用Scrapy爬虫框架的简单案例。通过编写适当的代码,可以根据需要从网页中提取所需的数据。Scrapy提供了丰富的功能和灵活的配置选项,使得爬虫开发变得更加容易和高效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

郭老二

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值