AGI的大荔枝
码龄149天
关注
提问 私信
  • 博客:46,522
    46,522
    总访问量
  • 50
    原创
  • 55,620
    排名
  • 688
    粉丝
  • 0
    铁粉
  • 学习成就
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:湖南省
  • 加入CSDN时间: 2024-06-17
博客简介:

2401_85773359的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    3
    当前总分
    272
    当月
    2
个人成就
  • 获得891次点赞
  • 内容获得1次评论
  • 获得772次收藏
  • 代码片获得111次分享
创作历程
  • 50篇
    2024年
成就勋章
兴趣领域 设置
  • 编程语言
    python
  • 数据结构与算法
    算法
  • 大数据
    flink
  • 人工智能
    机器学习深度学习神经网络自然语言处理tensorflowpytorch图像处理nlp数据分析
  • 音视频
    opencv语音识别计算机视觉
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

175人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

LLM 安全 大语言模型应用安全入门

第 60 层可能包含一个 John 的向量,其中包含括号注释,例如"(主角,男性,与 Cheryl 有婚姻关系,Donald 的表兄,来自明尼苏达,目前在 Boise ,试图找到他丢失的钱包)"。通过前文的介绍,我们了解了 LLM 的基本原理、GPT 的训练过程、LLM 的缺陷,以及与 LLM 应用安全相关的监管态度和常见的应用安全风险。假设我们采用强化词语接龙的特性的思路,让词语接龙的目标优先级高于内容围栏的优先级,则引出第一种构造越狱提示词的思路,前缀注入(prefix injection)。
原创
发布博客 2024.08.08 ·
444 阅读 ·
3 点赞 ·
0 评论 ·
4 收藏

大模型私有化部署:手把手教你部署并使用清华智谱GLM大模型

部署一个自己的大模型,没事的时候玩两下,这可能是很多技术同学想做但又迟迟没下手的事情,没下手的原因很可能是成本太高,近万元的RTX3090显卡,想想都肉疼,又或者官方的部署说明过于简单,安装的时候总是遇到各种奇奇怪怪的问题,难以解决。本文就来分享下我的安装部署经验,包括本地和租用云服务器的方式,以及如何通过API调用大模型开发自己的AI应用,希望能解决一些下不去手的问题。
原创
发布博客 2024.08.08 ·
2080 阅读 ·
46 点赞 ·
1 评论 ·
35 收藏

【LLM大模型】2024开源项目汇总_dify chat2sql

当大模型成本逐渐降低,可靠性提升后,这意味着越来越多的业务应用将会与 LLM 结合,为了让这种结合更加顺畅,需要有与现有来支撑 LLM 应用开发的快速开发对比说明可参考:开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 、Agent、模型管理、可观测性功能等,让您可以快速从原型到生产。2.2 FastGPT:一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。
原创
发布博客 2024.08.08 ·
767 阅读 ·
4 点赞 ·
0 评论 ·
5 收藏

大型语言模型微调入门指南

你可以根据特定的用例,通过微调大型语言模型的方式定制现有通用模型。为了更高效地微调模型,你可以考虑使用 LoRA 或模型分片(使用FSDP等框架)等技术。Modal的Llama和Mistral微调模板实现了许多这类的技术,能够帮助你快速启动分布式训练任务。你可以通过在 Modal 上微调 Llama 2 或Mistral 等开源模型获得一个定制的模型,这样不仅成本和延迟低于现有 API 服务,而且还非常适合自己的需求。
原创
发布博客 2024.08.06 ·
749 阅读 ·
16 点赞 ·
0 评论 ·
18 收藏

为什么一线大厂都在高薪抢 AI 产品经理?

不知道你是否听过“**移动互联网产品经理”**这个说法,当移动互联网成为整个互联网行业的基础建设,深入到各行各业,所有产品经理,其实都是移动互联网产品经理。而近些年,随着 AI 技术逐渐落地和市场认可度的不断提升,AI 产业岗位和泛 AI 产业岗位变得越来越走俏,很多产品经理希望借此风口转型成为“AI 产品经理”,进而拓宽自己的职业道路。最近,我身边不少产品经理,都会和我讨论 AI 相关的问题,比如:传统行业的产品经理是否适合转行做 AI 产品经理?如果转行的话,需要做哪些准备?
原创
发布博客 2024.08.06 ·
652 阅读 ·
20 点赞 ·
0 评论 ·
13 收藏

一文搞定 大语言模型(LLM)微调方法

众所周知,大语言模型(LLM)正在飞速发展,各行业都有了自己的大模型。其中,大模型微调技术在此过程中起到了非常关键的作用,它提升了模型的生成效率和适应性,使其能够在多样化的应用场景中发挥更大的价值。那么,今天这篇文章就带大家深入了解大模型微调。其中主要包括什么是大模型微调、什么时候需要大模型微调、大模型微调方法总结、大模型微调最佳实践等。在介绍大模型微调方法之前,首先带大家了解一下大语言模型的项目生命周期,它大致可以分为以下几个步骤,如下图所示:首先,明确项目目标。
原创
发布博客 2024.08.06 ·
973 阅读 ·
23 点赞 ·
0 评论 ·
24 收藏

LLM的7种推理框架

我们如何在本地安全地运行私有的LLMs呢?开源模型为此提供了可能的解决方案。本文将介绍七种方法。这是一个Python库,可以简化本地运行LLM的过程。特点:Llama.cpp是一个基于C++的推理引擎,专门为Apple Silicon优化,可以运行Meta的Llama2模型。它针对GPU和CPU都做了推理优化。优点:性能高于基于Python的解决方案,支持在适度的硬件上运行大型模型,如Llama 7B,并提供绑定,可以用其他语言构建AI应用程序,同时通过Llama.cpp运行推理。
原创
发布博客 2024.07.29 ·
748 阅读 ·
3 点赞 ·
0 评论 ·
9 收藏

小白也能看懂的AI大模型学习路线(附:全套学习资源

AI大模型,即大规模预训练模型,是指拥有数亿乃至数百亿参数的深度学习模型,如BERT、GPT-3等。这些模型通过在互联网规模的数据集上进行自我学习,能捕捉到语言、图像、声音等多模态数据的复杂特征,展现出了强大的语言理解、图像识别、创造性生成等能力。它们的创新之处在于跨任务的泛化能力和通过少量示例即可适应新任务的微调能力。
原创
发布博客 2024.07.29 ·
407 阅读 ·
3 点赞 ·
0 评论 ·
4 收藏

# LLM高效微调详解-从Adpter、PrefixTuning到LoRA_llm高效微调技术

目前NLP主流范式是在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。指令微调是预训练语言模型微调的主流范式,其目的是尽量让下游任务的形式尽量接近预训练任务。从而减少下游任务和预训练任务之间的Gap, 实现预训练语言模型适应下游任务,而非下游任务去适应模型指令微调的效果要优于基于Zero/Few-shot的提示词工程的上下文学习。但随着预训练语言模型进入LLM时代,其参数量愈发庞大。全量微调模型所有参数所需的显存早已水涨船高。
原创
发布博客 2024.07.29 ·
337 阅读 ·
3 点赞 ·
0 评论 ·
4 收藏

大模型应用:一文搞懂Fine-tuning,模型微调有啥好处,从理论到实操_fine turning和p turning

我们前面几篇博文中出现的大模型,都是通用的大模型。但在更专业的领域,需要更专业的模型,这就需要用到模型微调的能力。从NLP范式发展的趋势来看,prompt+模型的方式已经成为主流,已经很成熟了,在进行模型微调之前最好确信自己需要这样做。
原创
发布博客 2024.07.26 ·
457 阅读 ·
3 点赞 ·
0 评论 ·
3 收藏

巅峰对决:OpenAI与Google如何用大模型开创未来_大模型 openai 谷歌_大模型与open ai

当前,ChatGPT系列产品凭借其在听觉、视觉和语言处理领域的集成能力,以及**对物理世界的强大理解力、流畅的多模态交互功能,确立了其在行业中的领先地位。**GPT4技术整合到微软的Windows软件、Azure云服务以及工具中,进一步强化了其在技术特性和应用前景上的优势。Google的Gemini虽然在超长上下文理解与复杂数学逻辑问题解决方面有着出色的表现,但在多模态交互、训练成本和落地应用的实施中仍有提升空间。
原创
发布博客 2024.07.26 ·
467 阅读 ·
3 点赞 ·
0 评论 ·
8 收藏

Transformer模型全解析:从原理到实践,图解+手撕代码_transformer模型详解(1)

Transformer 通过其捕捉上下文和理解语言的能力,彻底改变了自然语言处理(NLP)领域。通过注意力机制、编码器-解码器架构和多头注意力,它们使得诸如机器翻译和情感分析等任务得以在前所未有的规模上实现。随着我们继续探索诸如 BERT 和 GPT 等模型,很明显,Transformer 处于语言理解和生成的前沿。它们对 NLP 的影响深远,而与 Transformer 一起的发现之旅将揭示出该领域更多令人瞩目的进展。
原创
发布博客 2024.07.26 ·
1147 阅读 ·
5 点赞 ·
0 评论 ·
10 收藏

怎么成为大模型开发工程师?

利用工作之余的空闲时间,努力学习大模型知识吧。目前,这个行业对专业人才的需求量大,无论是大型企业还是中小型企业,都在迅速推进大模型应用的落地。但是,OpenAI 前段时间发布了重磅更新,使普通人和 AI 大模型交互的门槛进一步降低。GPT-4o 的发布可能会进一步拓展具备情绪表达的应用场景,并利用 AI 的千人千面能力真正实现个性化体验。紧接着在 Google I/O 大会,AI 被提及了 121 次。Google 宣称,在 Gemini 的支持下,Google 搜索将被彻底重塑。
原创
发布博客 2024.07.24 ·
392 阅读 ·
5 点赞 ·
0 评论 ·
6 收藏

Ollama:一个在本地部署、运行大型语言模型的工具

Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的工具。所谓自定义模型就是不适用Ollama官方模型库中的模型,理论可以使用其他各类经过转换处理的模型Ollama库中的模型可以通过提示进行自定义。# 设置温度参数# 设置SYSTEM 消息SYSTEM """作为AI智能助手,你将竭尽所能为员工提供严谨和有帮助的答复。"""Modelfile文档One-API是一个OpenAI接口管理 & 分发系统,支持各类大模型。这里使用Docker快速进行部署。拉取镜像。
原创
发布博客 2024.07.24 ·
997 阅读 ·
15 点赞 ·
0 评论 ·
10 收藏

(服务端篇)如何在本地私有化部署chatgpt?github上那些助力搭建私有chatgpt的项目_本地化部署coze

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。天道酬勤,你越努力,就会成为越优秀的自己。
原创
发布博客 2024.07.24 ·
1353 阅读 ·
32 点赞 ·
0 评论 ·
28 收藏

2024年度最佳大型语言模型(LLMs)汇总大全

LLM,或大型语言模型,是一种通用的人工智能文本生成器,是所有人工智能聊天机器人和人工智能写作生成器的后台系统。LLMs具有超级的自动完成能力。除去花哨的界面和其他变通方法,他们所做的更本任务是接受一个提示,并使用一串貌似合理的后续文本生成一个答案。建立在LLMs之上的聊天机器人不会寻找关键词,以便他们可以用固定答案回答,相反,他们会尽最大努力理解被问到的问题,并适当地回答。
原创
发布博客 2024.07.22 ·
1088 阅读 ·
18 点赞 ·
0 评论 ·
18 收藏

大模型是什么?大模型可以在哪些场景应用落地?

大模型是什么?大模型是指模型具有庞大的参数规模和复杂程度的机器学习模型。在深度学习领域,大模型通常是指具有数百万到数十亿参数的神经网络模型。大模型是指模型具有庞大的参数规模和复杂程度的机器学习模型。在深度学习领域,大模型通常是指具有数百万到数十亿参数的神经网络模型。这些模型需要大量的计算资源和存储空间来训练和存储,并且往往需要进行分布式计算和特殊的硬件加速技术。大模型的设计和训练旨在提供更强大、更准确的模型性能,以应对更复杂、更庞大的数据集或任务。
原创
发布博客 2024.07.22 ·
1745 阅读 ·
37 点赞 ·
0 评论 ·
23 收藏

零基础零成本,手把手部署一个属于你的私有大模型, 训练自己私有大模型_自己训练大模型

看了那么多chatGPT的文章,作为一名不精通算法的开发,也对大模型心痒痒。但想要部署自己的大模型,且不说没有算法相关的经验了,光是大模型占用的算力资源,手头的个人电脑其实也很难独立部署。就算使用算法压缩后的大模型,部署在个人电脑上,还要忍受极端缓慢的计算速度以及与chatGPT相差甚远的模型效果。有什么办法能够部署属于我们自己的大模型呢?有编程基础:作为一个合格的程序员,这应该是必备素质。
原创
发布博客 2024.07.22 ·
752 阅读 ·
12 点赞 ·
0 评论 ·
31 收藏

小白也能看懂的AI大模型学习路线(附:全套学习资源

AI大模型,即大规模预训练模型,是指拥有数亿乃至数百亿参数的深度学习模型,如BERT、GPT-3等。这些模型通过在互联网规模的数据集上进行自我学习,能捕捉到语言、图像、声音等多模态数据的复杂特征,展现出了强大的语言理解、图像识别、创造性生成等能力。它们的创新之处在于跨任务的泛化能力和通过少量示例即可适应新任务的微调能力。
原创
发布博客 2024.07.18 ·
293 阅读 ·
5 点赞 ·
0 评论 ·
8 收藏

AI大模型-关于推理、可解释性和 LLMs_ai 推理模型

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。-END-👉AGI大模型学习路线汇总👈大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)
原创
发布博客 2024.07.18 ·
302 阅读 ·
5 点赞 ·
0 评论 ·
4 收藏
加载更多