自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(53)
  • 收藏
  • 关注

原创 OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized.

解决方法import os。

2024-06-24 12:21:21 56

原创 python高级:协议使用示例

协议(Protocol)在Python中是一种隐式接口,通过实现特定的方法来定义对象的行为。迭代协议__iter__()__next__()容器协议上下文管理协议数值协议通过这些协议,Python实现了灵活且强大的对象行为定义方式。开发者可以根据需求实现这些协议,从而自定义对象的行为。

2024-06-23 22:35:24 273

原创 python中日志怎么配置与使用

核心步骤:1.添加配置类定义日志格式和默认打印级别2.在需要用的地方导入要用用日志3.调用日志方法打印。

2024-06-23 22:29:03 243

原创 如何从0倒1训练出一个大模型?模型训练过程如何控制?

定义问题:设定目标:数据收集:数据清洗和预处理:数据增强:三、模型设计选择模型架构:模型配置:四、训练准备选择优化器和损失函数:设置学习率调度器:选择硬件环境:五、模型训练训练循环:监控和记录:六、模型调优超参数调优:正则化技术:模型剪枝和量化:模型部署:持续监控和更新:常见问题及解决方案数据不足:过拟合:欠拟合:训练不稳定:硬件限制:数据隐私:模型偏差:生产环境问题:在大规模模型训练过程中,控制和优化训练过程至关重要,以确保模型的稳定性和高效性。以下是一些常见的方法

2024-06-23 22:08:54 522

原创 要训练一个大模型怎么开始? 从哪几方面开始 ? 模型一直欠拟合 越训练效果越差 ?总是没有进展怎么办? 如何使用预训练模型进行训练?

训练一个大模型是一个复杂的过程,涉及多个步骤和方面。以下是一个全面的指南,帮助你从头开始训练大模型,以及解决模型欠拟合和训练效果差的问题。定义问题和目标:数据准备:选择模型架构:配置训练环境:设置超参数:训练模型:模型欠拟合通常是指模型无法捕捉数据中的模式,表现为训练误差和验证误差都较高。以下是解决欠拟合和训练效果差的方法:增加模型复杂度:数据增强:正则化:调整学习率:增加训练数据:使用预训练模型:综合示例以下是一个完整的示例,展示从数据准备、模型构建、训练到监控的过程:

2024-06-23 21:58:30 658

原创 模型爆炸怎么办?有哪些思路解决?

模型爆炸(Gradient Explosion)是指在训练深度神经网络时,梯度值变得非常大,从而导致模型参数更新幅度过大,使得损失函数值激增。解决模型爆炸问题有多种方法,可以从优化器、权重初始化、正则化和网络架构等多个方面入手。

2024-06-23 21:53:42 684

原创 模型监控和调试怎么做?

在模型的监控和调试过程中,主要目的是确保模型在实际应用中能够稳定运行并达到预期的性能指标。

2024-06-23 21:45:04 531

原创 模型微调方法有哪些?怎么用?

模型微调(Fine-tuning)是指在已经训练好的模型基础上,使用新的数据集或目标任务进行进一步的训练和调整,以适应新任务或提升模型性能的过程。

2024-06-23 21:41:56 511

原创 模型训练和优化方法总结

本文讲了:1.模型训练方法2.模型优化方法3.方法选型在机器学习和深度学习中,模型训练方法和优化方法是两个重要的方面。模型训练方法主要关注于如何使用数据来训练模型,而优化方法主要关注于如何调整模型参数以最小化损失函数。以下是一些常见的模型训练方法和优化方法。

2024-06-23 21:32:11 427

原创 模型训练思想总结(teacher forcing、scheduled sampling 和 professor forcing)

讲解思路:1,结合生活例子解释2,代码演示使用3,技术选型。

2024-06-23 21:11:40 845

原创 GRU推理过程解释

假设你是一位小说作家(解码器),正在写一篇小说。你参考了前一章节的内容(前一时刻的隐藏状态 prev_hidden)以及整本书的摘要(编码器的输出 encoder_outputs)来决定当前要写的内容(当前时刻的输入 input)。生活中的类比:写小说的过程。循环神经网络 (GRU)线性层和 Softmax。嵌入与 Dropout。

2024-06-23 13:10:21 780

原创 python/pycharm怎么写测试用例test方法讲解

python/pycharm怎么写测试用例test方法讲解

2024-06-23 13:08:07 152

原创 数组与张量中[]和[][]怎么区分含义

*类比**:你走到书架前,取下第二书柜的第一层书架,这层上有书编号 6, 7, 8。- **多层索引 `[[]]`**:用于在多个维度上进行索引,逐层深入直到获取具体的元素。**类比**:你走到书架前,取下第一层的整个书架,这层上有书编号 0, 1, 2。**类比**:你走到书架前,取下第二书柜的第一层书架上的第三本书(编号为8的书)。**类比**:你走到书架前,取下整个第一书柜,这里面有两个层书架,每层有多本书。**类比**:你走到书架前,取下第一层书架上的第二本书(编号为1的书)。

2024-06-22 20:31:55 261

原创 pycharm使用gpu训练报错RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchr

**`os.environ["CUDA_VISIBLE_DEVICES"] = "1"`**:设置环境变量 `CUDA_VISIBLE_DEVICES` 为 "1",指定只使用编号为 1 的 GPU。- **设置前要检查 GPU 可用性**:确保编号为 1 的 GPU 是可用且未被其他重要任务占用的,可以使用 `nvidia-smi` 命令查看 GPU 使用情况。- **GPU 编号从 0 开始**:如果机器有多个 GPU,它们的编号是从 0 开始的。比如,编号为 1 表示第二个 GPU。

2024-06-22 17:22:33 226

原创 张量的拼接和numpy拼接区别

拼接式张量的下扩展,表现为两个张量尺寸的和stackcatstackaxisdim。

2024-06-22 13:55:58 339

原创 维度/标量/张量/一维/二维/三维/shape/size/索引/view理解

创建一个三维张量])# 查看三维张量的形状print(tensor3d.shape) # 输出: torch.Size([3, 2, 3])# 查看具体元素print(tensor3d[0, 0, 0]) # 输出: tensor(1)print(tensor3d[1, 1, 2]) # 输出: tensor(12)print(tensor3d[2, 0, 1]) # 输出: tensor(14)# 查看子张量。

2024-06-22 12:01:06 900

原创 RNN/LSTM/GRU/TRANFORMER/编码器解码器理解

你将朋友的推荐 (Q) 和餐馆的评价 (K) 合并,通过一个线性转换(比如结合推荐和评价的分数),然后用tanh函数(类似于给分数加上一个非线性调节)处理,再求和(可能是总结了所有推荐和评价的总分),然后用Softmax处理,决定对每个餐馆的兴趣度。你有两种信息来源:朋友的推荐 (Q) 和餐馆的评价 (K)。你将朋友的推荐 (Q) 与餐馆的评价 (K) 进行匹配(点积运算类似于计算两个信息的匹配度),然后除以一个缩放系数(类似于标准化处理),用Softmax处理,决定你对每个餐馆的兴趣度。

2024-06-22 10:42:17 601

原创 文本张量入门

张量,英文为Tensor,是机器学习的基本构建模块,是以数字方式表示数据的形式。

2024-06-20 21:33:03 1252

原创 rnn-人名案例实现

total_loss_list, all_time, total_acc_list = train_RNN() # 假设train_my_rnn是另一个函数,用于训练RNN模型并返回损失列表、总时间消耗和准确率列表。# todo 方法: 单步 多步 递归预测(模型使用已有的预测结果作为下一个时间步的输入,依次递归预测整个序列)# todo 模型预测和训练区别: 数据不一致:训练要标签数据 预测不需要 训练要反向传播 预测不需要。# # todo 上下文管理器 关闭梯度计算 推理过程关闭。

2024-06-20 20:18:11 829

原创 LSTM与BiLSTM-传统rnn升级模型

LSTM(Long Short-Term Memory)是一种特殊的RNN(Recurrent Neural Network)结构,它能够有效地学习长期依赖关系。LSTM的内部原理包括三个门控机制:遗忘门、输入门和输出门,以及一个细胞状态(cell state)来存储信息。遗忘门遗忘门负责决定前一时间步的细胞状态中有多少信息应该被遗忘。这个过程通过一个Sigmoid层来完成,它将输入数据与前一时间步的隐藏状态(h_t-1)作为输入,并输出一个介于0和1之间的值。

2024-06-18 19:56:55 727

原创 文本分析-文本特征获取

什么是文本特征:标签数量分布: 句子长度分布: 词频统计与关键词词云写在文本数据分析目录什么是n-gram特征:n-gram特征: n-gram是一种自然语言处理中的统计语言模型,它通过将文本内容按照字节、字符、单词等不同粒度进行大小为n的滑动窗口操作,形成一系列的n个连续项的组合。每个组合就是一个n-gram。在处理自然语言时,n-gram模型可以用来预测下一个词语或字符,是许多语言处理任务的基础,如文本分类、机器翻译、语音识别等。

2024-06-18 19:51:45 930

原创 文本数据增强常用方法总结

文本数据增强方法

2024-06-18 19:48:37 778

原创 算法思想个人总结(结合生活理解)

结合生活和游戏理解算法,然后选用算法解决实际问题

2024-06-17 19:57:40 281

原创 个人学习算法总结的基础crud与算法思想数据结构解释

数据结构个人总结

2024-06-17 19:52:52 135

原创 个人知识库(python/AI/机器学习/数据分析/神经网络/机器视觉/共享文档)

个人开发经验文档共享

2024-06-17 19:20:45 300

原创 rnn定义(rnn批次,核心思想理解)循环神经网络(递归)

当batch_first设置为False时,输入张量的形状应该是(sequence_length, batch_size, input_size)。当你创建一个nn.RNN的实例时,你实际上并没有执行前向传播,只是定义了前向传播的计算图。当你使用rnn(input, h0)这样的形式调用nn.RNN实例的forward方法时,你才真正执行了前向传播。因此,当你看到代码中出现rnn = nn.RNN(5, 6, 1)时,这行代码只是创建了一个nn.RNN的实例,并没有执行前向传播。所以true后要调整参数。

2024-06-17 19:13:03 467

原创 gpt网站总结(gpt工具-免费gpt)免费!!!!

免费gpt网站

2024-06-17 10:08:41 177

原创 AI时代冲击下,程序员本质思考

【代码】AI时代冲击下,程序员本质思考。

2024-06-15 15:48:32 194

原创 python中open万物用法

python中打卡文件用open,但是很多人认为知道用excel读excel,不知道open可以直接读,更新一下观念,open可以打开任何我格式文件。

2024-06-15 15:15:17 88

原创 TensorBoard看板显示没有数据解决办法

TensorBoard看板显示没有数据解决办法

2024-06-15 14:50:57 105

原创 安装fasttext报错解决办法

主要思想:安装报错根本原因不匹配,fasttext要求必须与python版本一致,系统一致,win32与win64区分开。这个网站下载合适的版本。

2024-06-14 20:02:23 175

原创 hanlp词性对照表

【Particle:DEC,DEG,DEV,DER,AS,SP,ETC,MSP,小品词】如“的话”【Ordinal Number——OD,次序词】如“第三十一”【Determiner——DT,限定词】如“这”,“全体”【Localizer——LC,定位词】如“内”,“左右”【Interjections:IJ,感叹词】如“哈”【Measure word——M,单位词】如“杯”【Adverb:AD,副词】如“近”,“极大”【Conjuctions:CC,连词】如“和”【Verb:VA,VC,VE,VV,动词】

2024-06-14 19:47:51 220

原创 word2vec原理理解(最简单,最详细结合生活,结合原理,结合推理)讲解

CBOW通过预测中心单词的上下文单词来学习词汇之间的关系,而Skip-Gram通过预测上下文单词的中心单词来学习词汇之间的关系。预测矩阵的作用是生成一个概率分布,其中每个单词的概率对应于预测矩阵中的一个元素。● 计算过程:Skip-Gram首先将中心单词的词向量输入到神经网络中,通过神经网络的计算,得到一个上下文向量,然后使用这个上下文向量来预测上下文单词。● 计算过程:CBOW首先将上下文单词的词向量输入到神经网络中,通过神经网络的计算,得到一个上下文向量,然后使用这个上下文向量来预测中心单词。

2024-06-14 19:40:53 444

原创 jieba(结巴)分词词性对照表

ag 形容词性语素。- ng 名词性语素。- nt 机构团体名。- rg 代词性语素。- vg 动词性语素。- vi 不及物动词。- ud 结构助词 得。- uj 结构助词 的。- ul 时态助词 了。- uv 结构助词 地。- uz 时态助词 着。

2024-06-14 19:37:14 142

原创 NLP中十四种分词词性解释

nz: 其他专有名词 (other proper noun)vi: 不及物动词 (intransitive verb)nt: 机构名 (organization name)vg: 动词性语素 (verbal morpheme)vd: 副动词 (auxiliary verb)an: 名形词 (noun-adjective)nr: 人名 (person name)vn: 名动词 (noun-verb)a: 形容词 (adjective)n: 名词 (noun)v: 动词 (verb)

2024-06-14 14:53:47 197

原创 数据结构分类总结[多达80种,offer收割机]

线性结构: 数组(Array) 链表(Linked List):包括单链表、双向链表和循环链表 栈(Stack):后进先出(LIFO)的数据结构 队列(Queue):先进先出(FIFO)的数据结构 双端队列(Deque):允许在两端进行插入和删除操作 非线性结构: 树(Tree):包括二叉树、平衡二叉树、二叉搜索树、AVL树、红黑树等 图(Graph):包括有向图、无向图、加权图、无权图等 散列结构: 哈希表(Hash Table):通过哈希函数将键映射到表中的位置

2024-06-14 14:15:16 551

原创 AI国内外公司对比

2024-06-12 20:56:28 313

原创 神经网络-文本-图像-音频-视频基础知识

文本、图像、音频和视频是数字媒体中的四种基本类型,它们各有不同的组成、单位和基础知识。

2024-06-11 15:30:37 1125

原创 神经网络-卷积神经网络案例详解

卷积神经网络案例详解

2024-06-11 01:02:30 895

原创 神经网络-二手手机预测案例(神经网络入门最完整案例)

【代码】神经网络-二手手机预测案例(神经网络入门最完整案例)

2024-06-08 21:16:52 223

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除