![](https://i-blog.csdnimg.cn/direct/8cba49809a634dbba6c0e676ea9d1bbd.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
AI技术栈
文章平均质量分 86
人工智能技术栈
CS-Polaris
诗经风雅,代码亦然
展开
-
AI技术栈 ——深度学习环境安装与配置
当你在一个 conda 虚拟环境中使用 conda install 安装包时,包会被安装到 conda 虚拟环境的 pkgs 目录中。这个目录通常位于环境的根目录下。当你在一个 Python 虚拟环境中使用 pip install 安装包时,包会被安装到该虚拟环境的 site-packages 目录下。:按照上述的安装方式,虽然都是在同一个virtual env环境下的安装,pip和conda 各自 install的内容会放在同一个目录吗?前提是得有英伟达的显卡。原创 2024-05-20 09:27:19 · 421 阅读 · 0 评论 -
深度学习技术栈 —— Pytorch之TensorDataset、DataLoader
简单来首,与DataLoader这两个类的作用, 就是将数据读入并做整合,以便交给模型处理。就像石油加工厂一样,你不关心石油是如何采集与加工的,你关心的是自己去哪加油,油价是多少,对于一个模型而言,DataLoader就是这样的一个予取予求的数据服务商。参考文章或视频链接[1]本篇工作虽然简单,但确是进阶的一个不大不小的绊脚石,功夫虽小,也不能不练。原创 2024-01-23 13:36:05 · 1027 阅读 · 0 评论 -
深度学习技术栈 —— 用Pytorch搭建神经网络识别数字(Kaggle实战)
详细代码过程我就不再赘述了,网上有很多关于逻辑回归,神经网络及CNN的代码与讲解。# 训练过程# Variable是 PyTorch 中的一个类,用于表示张量(Tensor),即深度学习中的多维数据。清空梯度,固定套路模板。# Forward propagation,根据你模型的不同,这里千变万化。监督学习中计算误差,固定套路模板。# 当调用loss.backward()函数时,它会计算损失函数对每个参数的梯度,# 并将梯度存储在参数的grad属性中。原创 2024-01-20 18:45:47 · 595 阅读 · 0 评论 -
论文阅读笔记AI篇 —— Transformer模型理论+实战 (四)
如果说钢铁侠中的(贾维斯)是一个AGI通用人工智能的话,那么现阶段的AI Agent只是做到了感知任务、规划任务、执行任务。下面这张图的这个过程,看上去和强化学习是一模一样的。Agent结构图——参考视频[1]参考文章或视频链接[1]【动画科普AI Agent:大模型之后为何要卷它?[2]【【卢菁老师说】Agent就是一场彻头彻尾的AI泡沫】- bilibili[3]《读懂AI Agent:基于大模型的人工智能代理》[4]原创 2024-01-20 18:17:45 · 1296 阅读 · 0 评论 -
论文阅读笔记AI篇 —— Transformer模型理论+实战 (三)
所谓ai的黑箱模型,恐怕说的就是这一点,神经网络的拟合能力太过强大了,以至于我们都不知道内部究竟发生了什么。但是对于Word Embedding与Positional Embedding二者相加后,这个位置信息是如何体现出来的,则不甚明了,因为这就像两种颜色的墨水进行混合,Word Embedding是黑墨水,Positional Embedding是红墨水,两种数据直接相加就像把两种颜色的墨水混合到一起,那么要如何在相加之后的混合结果中体现Positional信息,则是我感到疑惑的。原创 2024-01-19 21:20:12 · 1511 阅读 · 1 评论 -
深度学习技术栈 —— Pytorch中保存与加载权重文件
在使用 nn.Module进行训练和推理时,有时需要将模型设置为评估模式,这可以通过调用eval()方法实现。在评估模式下,PyTorch 中的某些层和操作会发生一些变化,例如 Dropout 和 BatchNormalization 层会被禁用,因为它们在训练和推理时的行为是不同的。权重文件是指训练好的模型参数文件,不同的深度学习框架和模型可能使用不同的权重文件格式。没有人想让自己的辛苦白费,计算好的权重文件就应该保存下来,不仅方便自己,也方便他人。原创 2024-01-18 17:50:47 · 2093 阅读 · 4 评论 -
论文阅读笔记AI篇 —— Transformer模型理论+实战 (二)
图1——Transformer结构图图2——Attention结构图中说,ByteNet和ConvS2S都使用了CNN结构作为基础模块去计算input和output之间的潜在联系,其中,关联来自两个任意输入或输出位置的信号所需的计算量,伴随着distance的增长而增长,ConvS2S呈线性增长,ByteNet呈对数增长,而在Transformer中,这个操作所需的计算量只是常数级别,尽管代价是平均了注意力的加权位置降低了有效分辨率(这里的有效分辨率是什么?),但作者用Multi-Head Attentio原创 2024-01-15 13:16:03 · 1626 阅读 · 0 评论 -
论文阅读笔记AI篇 —— Transformer模型理论+实战 (一)
Abstract中强调Transformer摒弃了循环和卷积网络结构,在English-to-German翻译任务中,BLEU得分为28.4, 在English-to-French的翻译任务中的BLEU得分为41.0,用8张GPU训练了3.5天,与各文献中的best models相比,这是非常小的训练成本。中对RNN的一些工作做了总结,它说RNN结构本身,在序列长度变长时会产生限制,虽然有些工作通过factorization tricks因式分解。原创 2024-01-15 12:15:44 · 603 阅读 · 1 评论 -
机器学习技术栈—— 概率学基础
如何科学的马后炮得到后验概率呢?就要先依托历史规律,然后摆数据,历史规律+实事求是的数据就是科学的马后炮。后验概率,是在有数据后,对先验概率进行。这么大,是一个根据数据统计得到的概率,这一点性质和先验是一样的。(likelihood)概率,似然,即。,population也有全体的意思。(posterior)概率,即马。的判断,而非基于客观事实。做出一定条件下的概率判断。入为主,基于历史规律或经。(prior)概率,即。原创 2023-11-20 11:56:59 · 694 阅读 · 0 评论 -
机器学习技术栈 —— 支持向量机(一)
支持向量机(一)原创 2022-12-15 21:59:08 · 94 阅读 · 0 评论 -
机器学习技术栈 ——《跟着迪哥学Python数据分析与机器学习实战》(1)
下采样和过采样实战部分到此结束了,机器学习问题的处理过程,我们的妈妈才是大师。(1) 分析问题,检查数据。(今天想吃什么菜,挑菜选菜)(2) 清洗数据,数据预处理。(洗菜,切菜)(3) 选择建模方法,进行建模。(蒸炸煎煮焖溜熬炖炒,下锅)(4) 调参。(油盐酱醋放多少)(5) 分析建模效果。(今天味道怎么样,吃的好不好,吃的饱不饱)原创 2023-11-09 15:11:06 · 407 阅读 · 0 评论 -
机器学习技术栈 ——《跟着迪哥学Python数据分析与机器学习实战》(2)
接上文。原创 2023-11-21 15:30:48 · 1113 阅读 · 0 评论