- 博客(94)
- 收藏
- 关注
原创 【Finetune】(四)、transformers之Prefix-Tuning微调
本文主要介绍了Prefix-Tuning微调的基本原理以及主要的代码实战过程。
2024-09-23 09:06:38 333
原创 【Finetune】(二)、transformers之Prompt-Tuning微调
本文主要介绍了Prompt Tuning微调方法以及代码实现过程,希望大家多多动手实践。
2024-09-19 09:08:47 419
原创 【Finetune】(一)、transformers之BitFit微调
本文主要介绍了语言模型及大语言模型微调方法,重点介绍了BitFit微调方法以及代码实现过程,希望大家多多动手实践。
2024-09-19 09:06:18 570
原创 【Advanced】(十)、transformers实战生成式对话机器人
本节介绍了如何使用transformers实战生成式对话机器人,介绍了详细的代码流程,希望大家多多支持
2024-08-15 09:54:26 720
原创 【Advanced】(九)、transformers实战文本摘要
本节介绍了如何使用transformers实战文本摘要,介绍了详细的代码流程,希望大家多多支持
2024-08-15 09:53:32 262
原创 【Advanced】(八)、transformers实战模型预训练——因果语言模型
本节介绍了如何使用transformers实战因果语言模型预训练,介绍了详细的代码流程,希望大家多多支持
2024-08-14 09:26:16 337
原创 【Advanced】(七)、transformers实战模型预训练——掩码语言模型
本节介绍了如何使用transformers实战掩码语言模型预训练,介绍了详细的代码流程,希望大家多多支持
2024-08-14 09:25:14 358
原创 【Advanced】(六)、transformers实战检索机器人
本节介绍了如何使用transformers实战检索机器人任务,希望大家多多支持
2024-08-13 11:23:19 335
原创 【Advanced】(五)、transformers实战文本相似度匹配
本节介绍了如何使用transformers实战文本相似度匹配任务,希望大家多多支持
2024-08-13 11:21:57 433
原创 【Advanced】(四)、transformers实战多项选择
本节介绍了如何使用transformers实战多项选择,介绍了详细的代码流程,希望大家多多支持
2024-08-12 09:16:21 341
原创 【Advanced】(三)、transformers实战机器阅读理解
本节介绍了如何使用transformers实战机器阅读理解,介绍了详细的代码流程,希望大家多多支持
2024-08-12 09:14:56 349
原创 【Advanced】(二)、transformers实战命名实体识别
本节介绍了如何使用transformers实战命名实体识别,介绍了详细的代码流程,希望大家多多支持
2024-08-09 11:52:45 314
原创 【Advanced】(一)、transformers实战文本分类
本节介绍了如何使用transformers实战文本分类,介绍了详细的代码流程,希望大家多多支持
2024-08-09 11:51:36 492
原创 【Foundation】(五)transformers之Evaluate
本节为大家介绍了Evaluate库的基本使用,并将其应用在了文本分类的代码中,整体上较为容易
2024-08-07 10:04:04 307
原创 【Foundation】(四)transformers之Dataset
本章节中介绍了Datasets库的介绍,包括Datasets的基本使用以及如何写数据加载脚本
2024-08-07 10:02:15 461
原创 【Foundation】(三)transformers之Model
本章节介绍了Transformers中的Model模块的基本使用,包括分类以及加载和调用等内容,最后基于Model和Tokenizer实现了一个原生的文本分类的代码。
2024-08-06 17:12:31 836
原创 【Foundation】(一)transformers之pipeline
本章节中为大家介绍了Transformers中的Pipeline,通过Pipeline我们可以快速调用现有的解决各类任务的预训练模型,以及背后的原理
2024-08-06 16:39:47 252
原创 【论文阅读】《KNOWLEDGE CARD: FILLING LLMS’ KNOWLEDGE GAPS WITH PLUG-IN SPECIALIZED LANGUAGE MODELS》
LLMs是静态的通用的语言模型,需要频繁的重新训练或者更新,来适应新的不同的任务。很明显这样的设计,无法生成相关的,最新的知识。本文提出Knowledge Card,一个模块化框架,将新的事实和相关的知识插入到通用的LLM中。
2024-06-06 09:42:12 959
原创 【PySide6】QLabel显示视频流
PySide6显示视频流——使用opencv读取视频数据并显示到QLabel组件上,实现视频的暂停/播放和清空。
2024-04-10 09:37:14 1029
原创 【论文阅读】《HGPROMPT:Bridging Homogeneous and Heterogeneous Graphs for Few-shot Prompt Learning》
本文提出HGPROMPT,一种基于少样本提示的框架,通过双模板设计,不仅实现了预训练任务和下游任务的统一(任务目标统一为链接预测),还统一了同质图和异质图(将异质图转化为多个同质图)。
2024-04-02 10:24:18 853
原创 【PySide6】登录和注册信号绑定以及代码实现
用代码实现登录界面的登录功能和注册功能,并把登录信号与注册信号与对应的槽函数进行绑定,完成登录界面的设计
2024-03-31 10:14:07 1073 2
原创 【论文阅读】《GraphPrompt-Unifying pre-training and downstream tasks for graph neural networks》
本篇基于“pretrain,prompt,fine-tune”的范式,提出GraphPrompt少样本的提示框架,统一下游不同的任务目标,将下游任务目标和预训练模型目标对齐。
2024-03-29 17:14:46 803 1
原创 【论文阅读】《PRODIGY: Enabling In-context Learning Over Graphs》
本文提出Pretraining Over Diverse In-Context Graph Systems(PRODIGY),第一个在图上使用上下文学习的预训练框架。关键思想是,设计了一种提示图来表示图上的上下文学习,这个提示图连接了提示示例和查询。然后又提出了一个图神经网络架构的提示图和相应的上下文预训练目标组件。这样,PRODIGY预训练模型可以通过上下文学习直接在看不见的图上执行新的下游分类任务。
2024-03-01 15:59:12 1278 1
原创 【论文阅读】《Graph Neural Prompting with Large Language Models》
本文提出了图神经提示(Graph Neural Prompt),从知识图谱中学习到拥有的知识并整合到与训练的LLM,帮助预训练的LLMs从知识图谱中学习有用的知识。
2024-03-01 15:50:35 1519 2
基于PyQt实现的word转PDF小工具
2023-02-09
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人