- 博客(8)
- 资源 (1)
- 收藏
- 关注
原创 大模型Interview
https://blog.csdn.net/jianjun0706/article/details/148033860?sharetype=blogdetail&sharerId=148033860&sharerefer=PC&sharesource=jianjun0706&spm=1011.2480.3001.8118
2025-06-08 18:45:12
136
原创 神经网络中的激活函数
激活函数是指在多层神经网络中,上层神经元的输出和下层神经元的输入存在一个函数关系,这个函数就是激活函数。激活函数是神经网络中非线性变换的关键组件,给网络引入非线性因素,使其能学习和表示复杂的模式与关系。常见激活函数有Sigmoid、ReLU、Tanh等。
2025-05-28 20:33:22
366
原创 Hugging Face 模型微调训练(如何处理超长文本训练问题)
新闻分类是一种经典的自然语言处理任务。通常需要对新闻文本进行分类,将其归入不同的类别。如果你有自定义的新闻分类数据集,可以将其保存为 CSV 文件,并通过 datasets 库加载。
2025-05-10 23:10:37
845
原创 大模型的本地部署、微调及量化
注:这里是使用transformers的API来调用LLMA3大模型,虽然可能成功调用,16G的GPU的显存大概在80%左右,但是一般在实际工作中不使用该方法。一来是调用速度较慢,二来是每次调用时都要加载一次大模型。实际中一般使用ollama和vLLM来部署。下载模型的方式有很多种,这里使用modelscope的API下载。
2025-05-10 22:37:58
386
原创 第四章 卷积神经网络
netreturn out这是 PyTorch 中所有神经网络模块的基类。自定义的神经网络需要继承。通过继承,可以自动管理网络中的参数(如权重和偏置),并提供一些默认的功能(如参数初始化、模型保存等)。这是类的构造函数,用于初始化网络的层和参数。n_feature是输入特征的维度。n_output是输出特征的维度。调用父类的构造函数,确保正确初始化网络。定义了一个线性层(全连接层),作为网络的唯一隐藏层。表示一个线性变换层,输入维度为n_feature,输出维度为n_output。
2025-05-05 23:41:19
996
原创 Hugging Face模型微调训练——基于 BERT 的中文评价情感分析
函数collate_fn是 PyTorchDataLoader的一个参数,用于自定义如何将多个样本合并成一个批次(batch)。它的输入data是一个列表,其中每个元素是MyDataset返回的一个样本(通常是(文本, 标签)的元组)。collate_fn分词 + 编码(填充/截断(转为张量(# 1. 提取文本和标签sentes = [i[0] for i in data] # 所有句子(文本)label = [i[1] for i in data] # 所有标签。
2025-05-05 22:45:02
77
转载 Linux 通过lseek()来实现文件大小的设置
一 函数介绍:函数名: lseek()功 能: 移动文件读/写指针所需头文件:#include #include 函数原型:off_t lseek(int fd, off_t offset, int whence);重新定位已打开的文件的偏移量,与whence的取值有关;参数:fd:文件描述符,对应已经打开的文件;
2015-01-17 20:35:19
389
转载 【Github教程】史上最全github使用方法:github入门到精通
原文 http://www.eoeandroid.com/thread-274556-1-1.html【初识Github】首先让我们大家一起喊一句“Hello Github”。YEAH!就是这样。Git是一个分布式的版本控制系统,最初由Linus Torvalds编写,用作Linux内核代码的管理。在推出后,Git在其它项目中也取得了很大成功,尤其是在Ruby社区中。目前,包括
2014-12-06 20:33:19
299
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人