Datawhale AI 夏令营(生命科学方向)

1、RNN

RNN就像是你读故事时,一边读一边在脑子里记住之前的内容,这样你就能更好地理解接下来的故事发展了。它是一种神经网络,专门处理这种有前后关联的数据。

2、特征工程

特征工程,简单来说,就是“准备食材给机器学习模型做饭”。这包括:

洗食材:去掉数据中的脏东西和不需要的部分,比如错误的数据、缺失的信息等。

挑食材:从一堆食材中选出最有用、最适合做这道菜的那些。

切食材:有时候,食材太大块或形状不合适,需要切割或重新组合,这样模型才能更好地“吃”下去。

调味:调整食材的“味道”,让它们都在一个差不多的水平线上,这样模型吃起来才不会觉得有的太淡有的太咸。

贴标签:有些食材是模型不认识的(比如文字、颜色等),需要给它们贴上标签,告诉模型这是什么。

精简食材:如果食材太多,模型可能会消化不良,所以要精简一下,只保留最重要的部分。

通过这些步骤,我们让原始数据变得更加适合机器学习模型去“学习”和“预测”。

3、LSTM

LSTM(Long Short-Term Memory,长短期记忆网络)是一种特殊的循环神经网络(RNN),它在处理序列数据方面非常有效,特别是那些需要“长期记忆”的序列.

  1. 长期记忆与短期记忆:当我们阅读或听故事时,我们的大脑会同时处理短期记忆和长期记忆。短期记忆帮助我们记住当前正在阅读或听到的内容,而长期记忆则存储了我们之前阅读或听到的信息,这些信息可以在之后的某个时刻被回忆起来。LSTM就像是这样一个大脑,它有一个“长期记忆”单元(cell state),用于存储和传递序列中的重要信息。这个单元在整个序列处理过程中保持不变,只有在需要时才进行更新。
  2. 门控机制
  3. LSTM通过三个“门”来控制信息的流动:遗忘门、输入门和输出门。
    • 输出门:它决定了当前时间步应该输出哪些信息给下一层或外部系统。
    • 输入门:它决定了哪些新信息应该被添加到长期记忆中。
    • 遗忘门:它决定了哪些信息应该被遗忘,即从长期记忆中删除不再需要的信息。
    • 这些门控机制使得LSTM能够更好地处理序列中的长期依赖关系,避免了传统RNN中的梯度消失或梯度爆炸问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值