- 博客(4)
- 收藏
- 关注
原创 #Datawhale #AI夏令营
与传统的前馈神经网络(Feedforward Neural Network)不同,RNN 能够在处理序列的每个元素时保留对前面元素的信息,这使得它特别适合处理那些元素之间有时间或空间依赖性的任务,比如时间序列分析、文本生成、语音识别、机器翻译等。在本次竞赛中,我们需要预测的目标是反应的产率,是0-1之间的一个连续的数值,所以是一个回归任务。这样,RNN 就能够捕获序列中的历史信息。对于结构复杂的分子,例如苯环上链接其他不同的分子式,可以用不同的向量来表示不同的结构,再将其结合到一块,实现分子到代码的转化。
2024-07-30 00:00:11 1023
原创 #Datawhale #AI夏令营
目前,反应条件的筛选在很大程度上依赖于经验判断和偶然发现,导致催化反应条件的优化过程既耗时又费力,并且严重制约了新的高效催化合成策略的开发。model = RandomForestRegressor(n_estimators=10,max_depth=10,min_samples_split=2,min_samples_leaf=1,n_jobs=-1) # 实例化模型,并指定重要参数。借助产率预测AI模型,仅需输入底物和条件的信息,我们就能够预测该反应组合下的产率,从而有效提升催化反应的条件筛选效率。
2024-07-28 19:16:03 296
原创 #Datawhale #AI夏令营
对于输入序列中的每个元素,通过线性变换(通常是权重矩阵乘法)分别生成查询向量(Q)、键向量(K)和值向量(V)。这些向量代表了元素在自注意力机制中的不同角色:查询向量用于与其他元素的键向量进行匹配,键向量用于被查询向量匹配,值向量则包含了元素的实际内容信息。对于序列中的每个元素(作为查询),计算其与序列中所有其他元素(作为键)之间的注意力分数。接下来重要的是编码器-译码器结构, 两者都是6层结构,由编码器的第一层结构开始,一层层经过解码器的解读,将中间转化得到的词向量得到为转化为最终输出结果。
2024-07-20 22:06:12 1431
原创 #Datawhale #AI夏令营
是一个用于自然语言处理(NLP)任务的库,它提供了丰富的功能,包括数据预处理、词汇构建、序列化和批处理等,特别适合于文本分类、情感分析、机器翻译等任务。进行数据的导入,并且做出标记,即标记数据的两端:开头和结尾,并且对文本中的个别输入词汇进行<UNK>标记,然后将数据进行读取,转化为向量。下图是spacy运作的示意图,先分词,进行词性标注再进行还原,获得每个词的具体属性再进行迭代。目前存在的问题:翻译效果差,基本以逗号和的为主,很难连成一句话。:是一个强大的自然语言处理库,支持70+语言的分词与训练。
2024-07-17 00:17:26 1285 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人