愤怒的可乐
码龄15年
关注
提问 私信
  • 博客:1,469,656
    社区:263
    问答:9
    动态:84
    1,470,012
    总访问量
  • 567
    原创
  • 1,261
    排名
  • 59,748
    粉丝
  • 1,653
    铁粉
  • 学习成就

个人简介:主要研究NLP、深度学习、大模型。添加微信:greyfoss_szu 一起交流~,添加时请备注CSND。

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
  • 加入CSDN时间: 2010-01-06
博客简介:

日积月累,天道酬勤

博客描述:
我代码写的少,你可别骗我
查看详细资料
  • 原力等级
    成就
    当前等级
    9
    当前总分
    9,528
    当月
    52
个人成就
  • 自然语言处理领域优质创作者
  • 博客专家认证
  • 获得4,805次点赞
  • 内容获得869次评论
  • 获得12,327次收藏
  • 代码片获得21,982次分享
创作历程
  • 87篇
    2024年
  • 95篇
    2023年
  • 63篇
    2022年
  • 110篇
    2021年
  • 88篇
    2020年
  • 61篇
    2019年
  • 35篇
    2018年
  • 29篇
    2017年
  • 1篇
    2015年
成就勋章
TA的专栏
  • 从零实现深度学习框架
    付费
    57篇
  • 论文翻译/笔记
    付费
    66篇
  • 文本匹配[论文]
    17篇
  • 大模型[论文]
    60篇
  • 强化学习
    4篇
  • 大模型
    3篇
  • 自然语言处理
    139篇
  • NLP项目实战
    34篇
  • 从Transformer到LLM
    18篇
  • 文本匹配实战
    15篇
  • 聊天机器人
    5篇
  • 数学基础
    10篇
  • 人工智能
    206篇
  • 数据结构与算法
    34篇
  • java
    56篇
  • python
    36篇
  • 读书笔记
    170篇
  • 在线编程
    32篇
  • 经典排序算法
    2篇
  • 双指针
    7篇
  • 贪心算法
    2篇
  • 归纳法
    1篇
  • 快慢指针
    1篇
  • 斐波那契数列
    2篇
  • 动态规划
    11篇
  • 消息队列
    7篇
  • Netty in action
    10篇
  • Spring Cloud 1.5.x
    8篇
  • zookeeper
    1篇
  • 其他
    3篇
  • 常见问题
    5篇
  • 网络编程
    4篇
  • 前端技术
    1篇
  • 常用工具
    13篇
  • 数据库
    6篇
TA的推广
兴趣领域 设置
  • 人工智能
    机器学习神经网络自然语言处理nlp
原创公众号
扫码关注,获取更多内容~ 原创公众号
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

175人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 关注/订阅/互动
搜TA的内容
搜索 取消

[论文粗读][REALM: Retrieval-Augmented Language Model Pre-Training

⭐ 为了以更可解释和模块化的方式捕捉知识,作者提出了REALM预训练框架,通过学习文本知识检索器来增强语言模型预训练算法。
原创
发布博客 2024.11.06 ·
1021 阅读 ·
20 点赞 ·
0 评论 ·
12 收藏

[论文粗读]HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models

⭐ 作者提出了HippoRAG,首先使用大语言模型将语料库转换为无模式知识图(KG)来模拟新皮层处理感知输入的能力,作为人工海马体索引。给定一个新的查询,HippoRAG识别查询中的关键概念,并在KG上运行个性化PageRank(PPR)算法,使用查询概念作为种子,以整合跨段落的检索信息。
原创
发布博客 2024.10.28 ·
255 阅读 ·
5 点赞 ·
0 评论 ·
8 收藏

[论文粗读]STRUCTRAG: BOOSTING KNOWLEDGE INTENSIVE REASONING OF LLMS VIA INFERENCE-TIME HYBRID INFORMATIO

⭐ 现有的RAG方法在知识密集型推理任务中存在困难,因为这些任务所需的有效信息严重分散。本篇工作受认知理论的启发,该理论认为人类在处理知识密集型推理时会将原始信息转换为各种结构化知识,提出了StructRAG框架,它可以识别当前任务的最佳结构类型,将原始文档重建为这种结构化格式,并根据生成的结构推断答案。
原创
发布博客 2024.10.24 ·
1003 阅读 ·
21 点赞 ·
0 评论 ·
23 收藏

[论文笔记]ColPali: Efficient Document Retrieval with Vision Language Models

⭐ 作者介绍了一种新的多模态检索框架ColPali,可以生成文本和图像的ColBERT类多向量表示,也引入后期交互计算每个查询标记和文档标记之间的交互,最终得到一个分数可用于检索排名。
原创
发布博客 2024.10.23 ·
244 阅读 ·
2 点赞 ·
1 评论 ·
1 收藏

[论文笔记]HERMES 3 TECHNICAL REPORT

⭐ 本篇工作提出了如何良好地训练base模型提供指令遵循和函数调用能力,其提出的函数调用格式启发了vLLM和Ollama等支持工具调用。
原创
发布博客 2024.10.19 ·
742 阅读 ·
27 点赞 ·
0 评论 ·
28 收藏

[论文笔记]RA-DIT: RETRIEVAL-AUGMENTED DUAL INSTRUCTION TUNING

⭐ 作者提出了一种检索增强微调的方法,为语言模型和检索器进行微调。引导LLM最佳地利用检索到的信息并忽略干扰内容。
原创
发布博客 2024.10.18 ·
868 阅读 ·
17 点赞 ·
0 评论 ·
27 收藏

[论文笔记]Improving the Domain Adaptation of Retrieval Augmented Generation (RAG) Models for Open Domain

⭐ 作者提出对检索器和生成器进行联合训练来完成QA任务和领域自适应,通过微调RAG模型及其检索器,同时在训练期间异步更新知识编码。
原创
发布博客 2024.10.17 ·
951 阅读 ·
19 点赞 ·
0 评论 ·
20 收藏

[论文笔记]Active Retrieval Augmented Generation](Active Retrieval Augmented Generation

⭐ 在RAG长文本的生成过程中,作者提出主动检索增强生成的方法,首先开始回复问题,如果LLM对于生成的句子不太确信,则使用它作为查询检索相关文档,然后根据检索到的文档重新生成下一句话,直到生成结束。
原创
发布博客 2024.10.12 ·
974 阅读 ·
9 点赞 ·
0 评论 ·
12 收藏

[论文笔记]ColBERT: Eficient and Effective Passage Search via Contextualized Late Interaction over BERT

⭐ ColBERT引入了一种晚期交互(late interaction)架构,该架构使用BERT独立编码查询和文档,然后采用一种廉价但强大的交互步骤来建模它们的细粒度相似性。通过推迟这种细粒度的交互,ColBERT能够利用深度语言模型的表达能力,同时获得离线预计算文档表示的能力,从而显著加快查询处理速度。
原创
发布博客 2024.10.11 ·
617 阅读 ·
30 点赞 ·
1 评论 ·
23 收藏

[论文笔记]DAPR: A Benchmark on Document-Aware Passage Retrieval

⭐ 作者提出了可以直接将长文本的全局文本信息拼接到切分后的文本块前面。全局文本信息有(1) 文档的标题 (2) 文档的关键短语,使用TopicRank算法抽取 (3) 共指解析,通过跨段共指解析消解来处理文本块中的代词。
原创
发布博客 2024.10.10 ·
1028 阅读 ·
27 点赞 ·
0 评论 ·
17 收藏

[论文笔记]SGPT: GPT Sentence Embeddings for Semantic Search

⭐ 作者提出了利用仅编码器的类GPT架构来产生句子嵌入以支持语义检索和其他嵌入任务。在Bi-Encoder设置中,使用位置加权平均池化来得到具有语义信息的句子嵌入。在Cross-Encoder设置中,提取预训练GPT模型的对数概率产生无监督结果。
原创
发布博客 2024.10.03 ·
1570 阅读 ·
11 点赞 ·
2 评论 ·
26 收藏

如何处理模型API速率限制

当我们访问大模型相关的API服务时,通常会遇到速率限制(即限流),它用于防止用户向某个API发送大量请求,防止请求过载,确保每个人都能公平地访问API。
原创
发布博客 2024.09.16 ·
1188 阅读 ·
28 点赞 ·
0 评论 ·
24 收藏

[论文笔记]MEMORAG: MOVING TOWARDS NEXT-GEN RAG VIA MEMORY-INSPIRED KNOWLEDGE DISCOVERY

⭐ 作者提出了MemoRAG,一种通过长期记忆增强的检索增强生成新范式。它使用轻量且长上下文的LLM构建全局记忆,用于生成上下午相关的线索。用另一个表达力强的LLM,根据检索到的信息生成最终答案。
原创
发布博客 2024.09.12 ·
1561 阅读 ·
33 点赞 ·
1 评论 ·
33 收藏

[论文笔记]ChatQA: Surpassing GPT-4 on Conversational QA and RAG

⭐ 作者介绍了 ChatQA,一种两阶段指令微调方法,提高了 RAG 的表现。还引入了一种针对多轮对话 QA 优化的密集检索器。
原创
发布博客 2024.09.11 ·
1908 阅读 ·
29 点赞 ·
5 评论 ·
21 收藏

[论文笔记]RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs

⭐ 作者提出了一种新的两阶段指令微调框架RankRAG,该框架对LLM进行指令微调,以实现RAG中上下文排名和答案生成的双重目的。阶段一利用SFT对高质量指令跟随数据集进行微调,阶段二对LLM进行检索增强生成和上下文排名的指令微调。
原创
发布博客 2024.09.10 ·
1020 阅读 ·
32 点赞 ·
0 评论 ·
28 收藏

Cross-Encoder实现文本匹配(重排序模型)

本文介绍了CrossEncoder重排序模型的原理和代码实践。
原创
发布博客 2024.09.10 ·
1084 阅读 ·
34 点赞 ·
0 评论 ·
30 收藏

[论文笔记]QLoRA: Efficient Finetuning of Quantized LLMs

⭐ 作者提出了QLoRA,一种高效的微调方法,它在减少内存使用的同时保持16位微调任务的完整性能。这是通过:4位NormalFloat、双重量化(对量化常数进行量化)、分页优化器(GPU内存不足的情况下,自动进行CPU和GPU之间的页面传输)来管理内存峰值实现的。微调时冻结**4位量化预训练语言模型**而向低秩适配器(LoRA)反向传播梯度。
原创
发布博客 2024.09.07 ·
2123 阅读 ·
28 点赞 ·
2 评论 ·
30 收藏

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

⭐ 作者开发了一个两部分量化程序LLM.int8()。首先使用向量级量化,对矩阵乘法中的每个内积使用单独的归一化常数,从而对大多数特征进行量化。然而,对于突现的异常值(outlier),还包括了一种新的混合精度分解方案,将异常特征维度隔离到16位矩阵乘法中,同时仍然有99.9%以上的值在8位中进行乘法运算。
原创
发布博客 2024.09.07 ·
1481 阅读 ·
16 点赞 ·
0 评论 ·
29 收藏

Sentence-BERT实现文本匹配【CoSENT损失】

目前最流行的文本嵌入训练方法CoSENT详细介绍!
原创
发布博客 2024.09.06 ·
1075 阅读 ·
28 点赞 ·
0 评论 ·
14 收藏

[论文笔记]Making Large Language Models A Better Foundation For Dense Retrieval

⭐ 本工作提出了LLaRA,该方法作为对 LLM 进行后处理适应以用于密集检索应用。LLaRA 包含两个前置任务: LLM 的文本嵌入分别用于重构输入句子的词元和预测下一个句子的词元。通过这种方式旨在捕捉输入文本本身和下一句的全局语义,从而使LLM变成一个有效的密集检索器。
原创
发布博客 2024.09.06 ·
1795 阅读 ·
26 点赞 ·
1 评论 ·
11 收藏
加载更多