自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(30)
  • 收藏
  • 关注

原创 大模型在金融行业的应用场景和落地路径

大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。本文深入讲解了大模型在金融行业的应用场景和落地路径,希望能对学习大模型的同学们有所帮助。

2024-06-29 15:00:00 773

原创 大模型有什么用,从技术上看

TensorFlow在推荐系统中的分布式训练优化实践随着美团业务的发展,推荐系统模型的规模和复杂度也在快速增长,具体表现如下:训练数据:训练样本从到百亿增长到千亿,增长了近10倍。稀疏参数:个数从几百到几千,也增长了近10倍;总参数量(也就是tf.Variable)从几亿增长到百亿,增长了10~20倍。模型复杂度:越来越复杂,模型单步计算时间增长10倍以上。对于大流量业务,一次训练实验,从几个小时增长到了几天,而此场景一次实验保持在1天之内是基本的需求。

2024-06-29 12:00:00 911

原创 加速文档解析与向量化技术:实现多模态大模型训练与应用

本文介绍了当前大型模型文档解析面临的问题,包括版面检测、阅读顺序还原、表格还原和公式识别等技术挑战。针对这些问题,介绍了TextIn文档解析技术和文字向量化技术的应用,以及TextIn平台的产品和服务。本文详细介绍了当前大型模型文档解析面临的问题,以及针对这些问题的解决方案。TextIn文档解析技术结合了先进的计算机视觉和自然语言处理技术,能够有效处理版面检测、阅读顺序还原、表格还原和公式识别等问题,提高了文档解析的准确性和效率。同时,文字向量化技术的应用进一步提高了大型模型在文档处理任务中的表现。

2024-06-29 09:30:00 898

原创 边缘计算 - 在移动设备上部署深度学习模型的思路与注意点

深度模型需要在资源有限的移动设备上部署应用,需要克服计算速度和内存资源等限制。我们提到了一些方法来减小模型大小和加快计算速度,包括网络端、数据端不同的思路,大家在进行移动端AI应用时可以参考和优化。

2024-06-28 21:00:27 941

原创 从 ELMo 到 ChatGPT:历数 NLP 近 5 年必看大模型

先上 “万恶之源”:Transformer按机构分类。

2024-06-28 20:58:18 860

原创 高效又稳定的ChatGPT大模型训练技巧总结,让训练事半功倍!

近期,ChatGPT成为了全网热议的话题。ChatGPT是一种基于大规模语言模型技术(LLM, large languagemodel)实现的人机对话工具。现在主流的大规模语言模型都采用Transformer网络,通过极大规模的数据进行自监督训练。但是,如何构建自监督训练数据?在基础的Transformer结构上,大家又做了哪些创新呢?为了保证训练过程高效且稳定,又有哪些黑科技呢?今天给大家介绍一篇来自人民大学的综述论文,为大家解密这些大模型的训练技巧。各个大模型的研究测试传送门。

2024-06-28 20:57:25 852

原创 大白话聊聊“深度学习”和“大模型”

与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。!x-oss-

2024-06-27 12:30:00 879

原创 游戏实战篇|原神人物模型下载教程,并在Unity中给模型 添加动画【伯嫖最新原神所有人物模型】

本文对原神中的模型进行下载格式转换导入Unity进行调整渲染/添加动画等操作。正好借此来学习一下怎样拿到一些人物模型、转换格式和添加动画等方法。当然最主要的还是拿到了最新原神中所有的人物模型!这样我们就可以直接使用这些模型在Unity中进行日常学习开发小项目啦~ 当然不要进行一些危险操作就好!那本篇文章就到此结束啦,喜欢的小伙伴记得一键三连,下次再见!

2024-06-27 12:00:00 1186

原创 大模型的发展与解决的问题

目前FoundationModel或者是大模型,特别地火,接下来介绍什么是大模型,大模型的基本概念;接着看看大模型的实际作用,然后基于这些实际作用,我们简单展开几个应用场景。最后就是介绍支持大模型训练的AI框架。在往下看之前,想抛出几个问题,希望引起大家的一个思考:1)为什么预训练网络模型变得越来越重要?2)预训练大模型的未来的发展趋势,仍然是以模型参数量继续增大吗?3)如何预训练一个百亿规模的大模型?

2024-06-27 10:30:00 1610

原创 开源大语言模型(LLM)汇总(持续更新中)

大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。GLM-130B是一个开放的双语(英汉)双向密集模型,拥有1300亿个参数,使用通用语言模型(GLM)的算法进行预训练。大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。由于对当前多语言模型的非英语性能不满意,Polyglot团队制作了非英语语言性能更高的多语言模型,并将其命名为“Polyglot”。

2024-06-26 22:02:02 771

原创 人工智能时代大模型算法之文心大模型4.0

大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。今天给大家带来的是国产精品:人工智能时代大模型算法之文心大模型4.0,希望能对学习大语言模型的同学们有所帮助。

2024-06-26 22:01:21 1235

原创 百度智能云“千帆大模型平台”升级:大模型最多,Prompt模板最全

当谈到人工智能领域时,我们不得不提到ChatGPT。许多人都在积极尝试利用它来提高工作效率或解决各种问题。然而,要使用ChatGPT,我们必须克服一些使用门槛。首先,我们需要“科学上网”才能访问它,其次,GPT4的价格相对较高。值得庆幸的是,国内也有一些优秀的大模型平台供我们使用。与ChatGPT相比,这些平台的价格更为经济实惠,而且不需要像“科学上网”这样的额外准备。更重要的是,它们支持的功能也更加全面。

2024-06-26 22:00:50 877

原创 【网安AIGC专题10.11】①代码大模型的应用:检测、修复②其安全性研究:模型窃取攻击(API和网页接口) 数据窃取攻击 对抗攻击(用途:漏洞隐藏) 后门攻击(加触发器+标签翻转)

[大模型是指容量较大,用于深度学习任务的模型,通常具有海量的参数和复杂的架构。国内外生成式大模型研究现状总结GPT 系列模型的发展历程总结这个工作,效果肉眼可见的差hh。

2024-06-25 21:04:04 801

原创 2023 第十二届中国智能产业高峰论坛 - 文档大模型的未来展望

在2023年的第十二届中国智能产业高峰论坛上,合合信息副总经理和高级工程师丁凯博士为我们带来了一场精彩的演讲,分享了关于文档大模型的最新研究成果以及对未来的展望。合合信息是一家领先的人工智能和大数据科技企业,以其创新的智能文字识别和商业大数据解决方案而闻名。本文将介绍丁凯博士在大会上的演讲内容,涵盖了文档图像分析、识别、以及大模型在这一领域的应用和挑战。让我们一起深入了解,探索文档大模型的未来前景,以及合合信息在推动智能产业发展方面的独特贡献。

2024-06-25 21:03:17 1082

原创 【ChatOCR】OCR+LLM定制化关键信息抽取(附开源大语言模型汇总整理)

在Apache-2.0协议下开源了中文LLaMA模型和指令精调的Alpaca大模型,以进一步促进大模型在中文NLP社区的开放研究。而这种方式依赖于LLM能准确无误的将OCR结果对应到给定列表中的某一个场景,若OCR结果不属于给定场景列表中的任何一个,或者将其错误的归于其他场景,都会导致关键信息提取失败,前者会使程序报错,而后者可能导致不正确的信息提取结果。Generations 训练出来的助手式大型语言模型,这个模型接受了大量干净的助手数据的训练,包括代码、故事和对话,提供的模型性能接近text-

2024-06-25 21:02:47 1099

原创 分享200+个关于AI的网站_ai训练网站

分享200+个关于AI的网站。

2024-06-22 12:00:00 1093

原创 大语言模型技术系列讲解:大模型应用了哪些技术_大语言模型(如gpt-3)主要依赖于哪种技术()

为了弄懂大语言模型原理和技术细节,笔者计划展开系列学习,并将所学内容从简单到复杂的过程给大家做分享,希望能够体系化的认识大模型技术的内涵。本篇文章作为第一讲,先列出大模型使用到了哪些技术,目的在于对大模型使用的技术有个整体认知。后续我们讲一一详细讲解这些技术概念并解剖其背后原理。大语言模型(LLMs)在人工智能领域通常指的是参数量巨大、能够处理复杂任务的深度学习模型。大模型通常是深度神经网络的一种,具有多层结构,能够学习数据的复杂表示。

2024-06-22 11:00:00 817

原创 大语言模型的微调方法_大语言模型六种微调方法

自2018年BERT发布以来,“预训练+微调”成为语言模型的通用范式。以ChatGPT为代表的大语言模型针对不同任务构造Prompt来训练,本质上仍然是预训练与微调的使用范式。千亿规模的参数微调需要大量算力,即使提供了预训练的基座模型,一般的研究机构也很难对其进行全量微调(即对所有参数进行微调)。为了应对这个问题,相关学者提出了PEFT(Parameter-Efficient Fine-Tuning,高效参数微调)技术,本文将总结并介绍几种常见的PEFT技术。

2024-06-22 10:30:00 633

原创 大型语言模型微调入门指南

你可以根据特定的用例,通过微调大型语言模型的方式定制现有通用模型。为了更高效地微调模型,你可以考虑使用 LoRA 或模型分片(使用FSDP等框架)等技术。Modal的Llama和Mistral微调模板实现了许多这类的技术,能够帮助你快速启动分布式训练任务。你可以通过在 Modal 上微调 Llama 2 或Mistral 等开源模型获得一个定制的模型,这样不仅成本和延迟低于现有 API 服务,而且还非常适合自己的需求。

2024-06-21 21:47:27 992

原创 大模型什么时候应该进行微调

经常会遇到一个问题——LinkedIn 上的人们问我如何微调 LLaMA 等开源模型,试图找出销售 LLM 托管和部署解决方案的业务案例的公司,以及试图利用人工智能和大模型应用于他们的产品。但当我问他们为什么不想使用像 ChatGPT 这样的闭源模型时,他们并没有真正的答案。因此,我决定以一个每天应用大模型来解决业务问题的人的身份来写这篇文章。

2024-06-21 21:46:29 887

原创 大模型扫盲系列——大模型实用技术介绍_大模型底层技术是哪些

从公式知,输入是正的,则直接输出该值;如果输入是负的,则输出0。ReLU因其简单性和效率在深度学习中非常流行。它有助于解决梯度消失问题,加速了神经网络的收敛,并且计算简单。

2024-06-21 21:45:51 949

原创 AI打造“魔法博物馆”,五分钟完成一件“3D展品”

注意看,这是一家“魔法博物馆”,陈列的展品琳琅满目,甚至还有机甲套装……魔法镜子、水晶法杖……也是一应俱全,仿佛真的进入了魔法世界。没错,这个“博物馆”里的“展品”全都是由AI打造的,而且一件只需要五分钟。来自南洋理工大学、上海AI实验室等机构的研究人员,共同推出了新款文生3D基础模型。只需要一组文本,它就可以在5分钟内生成出多样化、高精度的3D模型。除了“魔法博物馆”里的展品之外,日常的物品3DTopia更是可以精准合成。

2024-06-20 17:36:36 443

原创 10条提升大模型任务微调效果的tricks

在大型语言模型(LLMs)的研究和应用中,如何通过微调来适应特定任务是一个关键问题。尽管提示工程(PE)在提升LLMs的零样本学习和上下文内学习方面取得了显著成效,但关于如何设计有效的微调样本以进一步提升LLMs性能的研究还相对欠缺。为解决上述问题,提出了,这是一种系统化的方法,旨在通过精细化设计来增强LLMs在特定任务上的表现。

2024-06-20 17:35:38 818

原创 5个好用的中文AI大语言模型_中文大语言模型

AI大语言模型(Large Language Models, LLMs)是近1-2年来人工智能领域的重要发展,它们通过深度学习技术,特别是基于Transformer的架构(如GPT、BERT等),实现了对自然语言处理的巨大突破。AI大语言模型的主要功能和作用有:文本生成、创意写作、对话生成、问答系统、文本翻译、代码生成、代码解释、文档生成、辅助写作、辅助设计等。1.讯飞星火大模型-AI大语言模型-星火大模型-科大讯飞讯飞星火认知大模型是科大讯飞发布的大模型。

2024-06-20 17:33:32 1060

原创 新职业年薪40-80W!大模型入局最靠谱指南!

今年招聘市场确实是好点了,我发现群友都在讨论,得赶快学点 AI 大模型。这也可以理解,ChatGPT 推出仅一年半的时间,就将生成式 AI 推向主流。不夸张地说,无论是从技术趋势、市场需求、提升解决问题的竞争力,又或职业发展各方面考虑,学 AI 都已经是程序员必须搞定的技能。但知道是一回事,做又是另一回事,绝大部分人不知道该,现在还是停留在各种简单的 AI 工具使用上,跟 GPT 聊聊天写写代码,让 MJ 画个图啥的。

2024-06-19 17:40:44 816

原创 如何打造你的AI大模型:开源大模型指南

本地大语言模型已知目前最强的gpt4等大模型是商用闭源的,这些模型参数更大,更加智能,为什么我们会关注开源模型呢?可以本地部署运行(利用自己的电脑或服务器,运行)数据交互不需要和外网连接,数据安全性提升不需要购买服务,不用开会员,跑在自己的电脑上,想用多少就用多少。

2024-06-19 17:40:03 854

原创 神仙级AI大模型入门教程(非常详细),从零基础入门到精通,从看这篇开始!

坚持到了这儿,恭喜你,表示你有做AI大模型工程师的潜力。其实我想说的上面的内容只是冰山一角,刚开始大家不需要多么精通了解这些内容。主要是不断练习,让自己跳出「舒适区」,进入「学习区」,但是又不进入「恐慌区」,不断给自己「喂招」。记住,学习是一个持续的过程。大模型技术日新月异,每天都有新的研究成果和技术突破。要保持对知识的渴望,不断学习最新的技术和算法。同时,实践是检验学习成果的最佳方式。通过实际项目实践,你将能够将理论知识转化为实际能力,不断提升自己的技术实力。最后,不要忘记与同行交流和学习。

2024-06-19 17:39:30 866

原创 大模型太贵?哪里贵了?不要乱说!多找找自己的原因好吧

什么?炼个大模型还嫌贵?到底哪里贵了!??争先恐后训练大模型,搞得现在“算力慌”“一卡难求”,算力当然水涨船高了!“特供版”GPU又贵又缩水,大家自己愿意当“冤大头”囤卡,还好意思埋怨贵了?这么多年有没有认真工作?为什么这么多算力还依赖进口!自己为什么不能制造芯片?有没有在自主化上想想办法?数据需要存,接入AI模型需要网,部署AI模型需要终端。哪个不需要投入了!任何一个地方出现短板,就会出现木桶效应!加一加算一算,当然不便宜了!有时候找找自己的原因!综合成本那么高,

2024-06-18 20:30:44 644

原创 大模型技术工程师:抓住时代机遇,成为行业精英_

伴随AI大模型的火热,中国科技大厂们正在掀起一场「跑步AI化」的风暴。从顶层战略到业务线重构,AI无疑已成为大厂们押注未来的新故事。

2024-06-18 20:29:14 654

原创 大模型的高考数学成绩单:及格已经非常好了,快来测测你能拿下多少分!

让考生头皮发麻的高考数学,可难倒了顶尖 AI 大模型。一年一度的高考即将落幕,衷心希望各位考生都超常发挥,考出满意的好成绩!!和往年一样,除了让 AI 大模型写写高考作文,我们也选取了六家国内头部大模型公司的产品与考生们一同参与一场客观且公平(让众多考生头皮发麻)的高考数学考试(新课标 Ⅰ 卷),其中包括 GPT-4o、GLM-4、文心一言 4.0、豆包、百小应(百川 4)以及通义千问 2.5。

2024-06-18 20:28:25 924

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除