自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 资源 (1)
  • 收藏
  • 关注

原创 练习word2vec和torch包做文本向量化

【代码】练习word2vec和torch包做文本向量化。

2024-09-05 12:00:00 49

原创 部署并访问本地模型

官网:https://huggingface.co/HuggingFace 是一个自然语言处理(NLP)领域的开源社区和平台,它提供了一系列强大的工具、库和预训练模型,帮助开发者快速构建和部署自然语言处理应用。HuggingFace 平台的主要组成部分和特点如下:1.:HuggingFace 的 Transformers 库是其最著名和核心的部分。

2024-09-05 06:30:00 324

原创 大语言模型的进阶之路

大型语言模型(LLM)是指包含数千亿(或更多的)参数的语言模型 这些参数是在大量文本数据上训练的, 例如模型GPT-3、PalM、Galactica和LLAMA 具体来说,LLM建立在Transformer架构之上,其中多头注意力层堆叠在一个非常深的神经网络中 现有的LLM主要采用与小语言模型类似的模型架构(即Transformer)和与训练目标(即语言建模)

2024-09-04 20:26:09 702

原创 大模型知识点--个人心得

大模型知识点。

2024-09-03 19:30:00 1372

原创 深度学习--个人学习心得

Google Net / Inception Models:包括InceptionV1至InceptionV4等多个版本,通过复杂的"inception模块"提高模型的效率和性能,适合图像分类任务。VGG Networks:一系列深度卷积神经网络,以其层数命名(如VGG16、VGG19),因其简洁和有效性而在图像分类任务中很受欢迎。Residual Networks(Res Nets):引入了残差连接,帮助解决深层网络中的梯度消失问题,使得训练更深的网络成为可能。包括多层感知器(MLP)

2024-09-02 18:30:00 1089

原创 大模型--个人学习心得

大模型LLM,全称Large Language Model,即大型语言模型LLM是一种基于Transformer架构模型,它通过驯良大量文本数据,学习语言的语法、语义和上下文信息,从而能够对自然语言文本进行建模这种模型在自然语言处理(NLP)领域具有广泛应用。

2024-09-02 14:18:18 585

原创 机器学习--个人心得

将数据集中的对象分成多个组(簇),使得同一个组内的对象彼此相似,不同组的对象彼此相异。

2024-09-02 14:05:25 1350

原创 关于Langchain的个人心得

然后,在处理文档B时,会将文档B的内容和之前生成的答案作为上下文,生成一个新的答案。聊天模型是语言模型的一个变体,聊天模型以语言模型为基础,其内部使用语言模型,不再以文本字符串为输入和输出,而是将聊天信息列表为输入和输出,他们提供更加结构化的 API。它利用 React 框架(在 LangChain 的上下文中,React 框架指的是一种用于决定何时调用哪个工具的逻辑框架,而非前端开发中的 React 库)来动态地选择和执行工具,同时利用会话记忆(如对话历史)来增强交互的连贯性和上下文理解能力。

2024-09-01 21:31:25 2041

练习word2vec和torch包做文本向量化-NBA新闻

导包所需要的资源

2024-09-04

关于langchain的个人心得

关于langchain的个人心得

2024-09-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除