老司机们学习STM32的技巧

老司机们学习STM32的技巧

单片机用处这么广,尤其是STM32,这么火!如何快速上手学习呢?

 

你问,如何系统地入门学习stm32?

 

这本身就是一个错误的问题。假如你会使用8051 , 会写C语言,那么STM32本身并不需要刻意的学习。

 

你要考虑的是, 我可以用STM32实现什么?

 

对于传统的电子工程师来讲,使用库编程可能会感到有一点虚,感觉没有脚踏实地的感觉。但如果你写过web、写过服务器端代码、写过桌面端代码的话,你就一定会理解API、封装、抽象的意义。

 

对于这个话题,看看其他老司机们自己的看法:

 

菜鸟同学:

单片机本身没啥好折腾的,重点还是软件架构,针对项目设计软件,深度研究一种单片机,其他单片机都大同小异,大多数菜鸟都把时间荒废在单片机本身应用上,然后会几个外设就说的很简单怎么样,这个就是为什么现在单片机开发人员混杂的原因,都认为很简单,但是大部分都是蜻蜓点水,让其开发个项目试试,简直惨不忍睹,如果让其换一个芯片,这货估计就要折腾一个星期来熟悉芯片,所以大部分看到如此提问的我都不好意思回答。

 

Fddfhh:

刚开始发现一款比较有意思的产品,主控用的是avr,把里面的代码反编译之后就想抄了,仔细想想要是还用avr很快也会被别人给抄去,这个时候发现了stm32这个片子,还带USB,于是乎就把反编译出来的代码移植到了stm32上,把通信接口由uart改成USB。

 

上善若水:

1.首先了解下芯片架构,看看这个芯片都能干什么事

2.然后跟视频或教程通看一遍,了解下实现一个功能大致需要的步骤

3.其次选一个项目直接实践,只要知道大致步骤,库函数配置网上一搜一大把

做项目的同时会解决各种各样的问题,这就是提高的过程,这个项目做完基本外设配置过程就熟悉了

4.最后再做个项目尽量不去参考教程或网上的配置过程自己独立完成,加深印象。这个过程可以结合寄存器配置了解底层运作原理

总的来说我的学习过程是先观其广再究其深。

 

浪花:

刚开始接触STM32是正点原子的MiniSTM32,那时候在学校有的就是时间,当时就用寄存器将提供的所有例程,自己重新对照着DataSheet敲一次,根据自己的想法做一些改变。从C到编程思想再到STM32的了解,都有了较大的进步。现在在单位也在做STM32的编程,不过都不用寄存器了,但是感觉之前敲的例程还是对现在的工作有了很大的帮助。觉得吧,还是得多动手,基础的东西还是得自己去完整的过一遍。

 

Ruiutry:

和学其他单片机一样:

1. 买块开发版,熟悉编译,下载环境

2. 写个跑马灯,自己感受一下

3. 把STM32的中断,尤其是定时中断搞清楚

4. 作为硬件应用来说,一定还要仔细看看IO管叫相关电气方面的参数。

到这一步就基本入门了。

但是要熟练使用STM32,还要踏踏实实的把stm32的文档手册读一遍。

然后学习编译器自带的例程,把这些例程精简以后移植到自己得开发版上去跑一跑。

其实做几个模块后,就基本熟悉了。

 

现正处于疫情期间,复工的情况,每个人都在迷茫和重新规划的时候,你是否也该为自己的未来重新做一个规划及选择了呢?

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值