xiaoli8748_软件开发
计算机专业
展开
-
【人工智能时代】- 大模型的私有化部署
企业在进行大模型私有化部署时,还可能面临一些挑战,如模型选择、AI算力选择、框架和部署模式的确定、以及模型二次开发和精调的复杂性。一些企业已经推出了私有化部署的解决方案和产品,如达观数据的“曹植”大模型一体机、科大讯飞的星火一体机等。此外,企业还可以采用不同的模型部署策略,如蓝绿部署、金丝雀部署、A/B测试等,以确保模型部署的平滑过渡和稳定性。总之,大模型的私有化部署是一个系统工程,需要企业综合考虑多方面因素,并采取合适的策略和工具来实现。原创 2024-08-21 07:02:47 · 241 阅读 · 0 评论 -
【人工智能时代】- SFT大模型解析:原理、应用与未来趋势
SFT大模型是一种基于深度学习的自然语言处理模型,其核心在于对海量文本数据进行高效训练,从而实现对自然语言的理解和生成。其中,SFT大模型凭借其卓越的性能和广泛的应用前景,受到了业界的广泛关注。本文将为您详细解析SFT大模型的原理、应用与未来趋势,带您领略这一技术的魅力。总之,SFT大模型作为自然语言处理领域的重要成果之一,在智能客服、文本生成、情感分析和机器翻译等方面具有广泛的应用前景。本文将深入解析SFT大模型的原理和工作机制,探讨其在不同领域的应用实例,并展望其未来发展趋势。二、SFT大模型应用。原创 2024-08-20 20:39:52 · 959 阅读 · 0 评论 -
【人工智能时代】- 大模型训练阶段
大模型训练是一个复杂的过程,需要考虑模型设计、数据质量、训练策略、硬件资源等多方面因素。随着模型规模的增大,还需要考虑分布式训练和模型并行等技术问题。原创 2024-08-21 07:02:18 · 223 阅读 · 0 评论 -
【人工智能时代】- 在大模型训练中,如何选择合适的预训练任务?
通过上述指导原则,研究者可以为大模型选择合适的预训练任务,从而为后续的微调和特定任务应用打下坚实的基础。:预训练旨在让模型在大量通用数据上学习,捕获广泛有用的特征,以提升模型在目标任务上的表现和泛化能力。:对于需要处理图像、视频、音频等多种模态数据的模型,设计合适的多模态预训练任务,如图像-文本匹配。:预训练数据的质量和多样性对模型性能有重大影响,应确保数据的高质量和覆盖广泛的主题。:预训练完成后,需要评估模型在预训练任务上的表现,以及在下游任务上的迁移能力。原创 2024-08-21 07:02:24 · 158 阅读 · 0 评论 -
【人工智能时代】- Langchain 及其核心概念
举例:如上图所示展示了一个智能问答系统的工作流程,它从用户提出的问题(Question)开始,然后通过相似性搜索(Similarity Search)在一个大型数据库或向量空间中找到与之相关的信息。Langchain 的这种结构设计使LLMs不仅能够处理文本,还能够在更广泛的应用环境中进行操作和响应,大大扩展了它们的应用范围和有效性。总之,Langchain 打开了一个充满可能性的新世界,让AI技术更加贴近我们的实际需求和数据,使得机器学习应用的发展更加多样化和个性化。原创 2024-08-23 07:04:29 · 678 阅读 · 0 评论 -
【人工智能时代】- 从零到精通:大模型训练的实用指南
通过遵循上述指南和建议,您将能够逐步掌握大模型训练的核心技能,并在人工智能和机器学习领域取得卓越成就。基于预训练模型:考虑使用预训练的大型模型(如BERT、GPT等),这些模型已经在大规模数据上进行了训练,可以通过微调来适应特定任务。模型解释性:研究模型解释性和可解释性技术,以了解模型的决策过程,特别是在需要可解释性的应用中。数据增强:使用数据增强技术(如随机旋转、翻转、裁剪等)来扩充训练数据集,提高模型的泛化能力。知识蒸馏:通过知识蒸馏将大模型的知识转移到小模型中,以实现更好的性能和效率。原创 2024-08-21 07:02:27 · 388 阅读 · 0 评论 -
【人工智能时代】- AI大模型的生命周期:深度剖析与实战指南
部署完成后,需要监控模型的运行状态和性能指标,及时处理可能出现的问题。在这个阶段,需要根据任务需求和数据特点选择合适的模型架构,并设置合适的超参数。通过深入解析其生命周期的各个阶段并结合实际应用和实战经验,我们可以更好地理解和掌握AI大模型的开发和运维技巧。本文将详细解析AI大模型的生命周期,从开发到退役的每个阶段,并结合实际应用和实战经验,为读者提供全面的指导。随着数据的不断更新和业务需求的变化,模型需要定期进行更新和微调。同时,还需要注意数据的多样性和代表性,以确保模型能够泛化到不同的应用场景中。原创 2024-08-22 07:04:26 · 343 阅读 · 0 评论 -
【人工智能时代】- 对于不同的模型结构,有哪些推荐的预训练任务?
XLNet中提出的预训练任务,通过随机排列输入序列的方式来捕获双向上下文信息,避免了BERT中MLM任务的一些问题。:这种任务通过给输入文本添加噪声(如随机替换或删除词元),然后让模型恢复原始文本,常用于BERT和T5等模型的预训练。:任务将文本序列的中间部分移至末尾,要求模型填充中间缺失的信息,有助于提升模型的文本补全能力。:这种任务专注于根据给定的前缀生成合理的后缀文本,适用于采用前缀解码器架构的模型。选择预训练任务时,应考虑模型结构的特点和下游任务的需求,以实现最佳的预训练效果。原创 2024-08-21 07:02:31 · 225 阅读 · 0 评论 -
【人工智能时代】- 人工智能全域变革图景
原创 2024-08-21 07:02:39 · 89 阅读 · 0 评论 -
【人工智能时代】- 大模型各阶段
3. 奖励模型阶段:基于有监督微调模型,通过对同一提示多次调用模型产生不同的输出,并请人对这些输出进行评分。1.预训练阶段:在这个阶段,大模型使用大量语料进行预训练,这个过程是不受控制的,因此生成的知识也是不可控的。2.微调阶段:在微调阶段,模型使用少量人为编写的语料进行有监督的微调。通过这个过程,模型能够生成可控的知识。4.强化学习阶段:综合预训练和奖励模型阶段的结果,通过强化学习对模型进行调优,形成最终的模型。大模型的发展经历了几个关键阶段,每个阶段都有其特定的目标和成果。原创 2024-08-22 07:04:22 · 204 阅读 · 0 评论 -
【人工智能时代】- 腾讯 HunYuan 大模型全景图和人工智能说明
2022 年 4 月,腾讯首次对外披露混元 AI大模型,协同了腾讯预训练研发力量,以统一的平台实现技术复用和业务降本,支持更多的场景和应用。当前,混元 AI 大模型完整覆盖 NLP 大模型、CV 大模型、多模态大模型、文生图大模型及众多行业与领域任务模型 , 先后在 MSR-VTT、MSVD 等五大权威数据集榜单中登顶,实现跨模态领域的大满贯。新一代集群基于自研星脉高性能计算网络及存储架构,集成了腾讯云自研的TACO 训练加速引擎,大幅缩短训练时间,节约训练调优和算力成本。◼ 用户生态繁荣,促进模型迭代。原创 2024-08-22 07:04:29 · 278 阅读 · 0 评论 -
【人工智能时代】- 词向量及向量知识库
当我们在数据库检索时,如果数据库存储的是文字,主要通过检索关键词(词法搜索)等方法找到相对匹配的数据,匹配的程度是取决于关键词的数量或者是否完全匹配查询句的;但是词向量中包含了原文本的语义信息,可以通过计算问题与数据库中数据的点积、余弦距离、欧几里得距离等指标,直接获取问题与数据在语义层面上的相似度;向量数据库是用于高效计算和管理大量向量数据的解决方案。Chroma:是一个轻量级向量数据库,拥有丰富的功能和简单的 API,具有简单、易用、轻量的优点,但功能相对简单且不支持GPU加速,适合初学者使用。原创 2024-08-21 07:02:21 · 270 阅读 · 0 评论 -
【人工智能时代】- 国内外人工智能的分类
从产业应用的角度,可以分为AI芯片、AI平台、AI服务、AI解决方案等。:按照技术实现的不同,人工智能可以分为机器学习、深度学习、自然语言处理、计算机视觉、语音识别、强化学习等。:人工智能的应用场景广泛,包括医疗健康、教育培训、金融服务、智能制造、交通物流、家居生活、公共服务等。:随着人工智能的发展,政策法规方面的分类也日益重要,包括数据安全、隐私保护、伦理道德、知识产权等方面。:AI产品和工具可以按照功能和用途分为通用软件、工具型应用、行业软件、智能硬件等。原创 2024-08-21 07:02:34 · 262 阅读 · 0 评论 -
【人工智能时代】- 什么是多模态机器学习
首先,什么叫做模态(Modality)呢?每一种信息的来源或者形式,都可以称为一种模态。例如,人有触觉,听觉,视觉,嗅觉;信息的媒介,有语音、视频、文字等;多种多样的传感器,如雷达、红外、加速度计等。以上的每一种都可以称为一种模态。同时,模态也可以有非常广泛的定义,比如我们可以把两种不同的语言当做是两种模态,甚至在两种不同情况下采集到的数据集,亦可认为是两种模态。原创 2024-08-22 07:20:51 · 964 阅读 · 4 评论 -
【产品经理修炼之道】- 产品经理的一些关键职责和技能
他们负责定义产品愿景、策略、发布计划和市场定位,同时与多个团队合作,确保产品满足用户需求和业务目标。产品经理在不同行业和公司中可能有不同的职责和工作重点,但核心目标始终是确保产品成功满足用户需求并实现商业目标。随着技术的发展和市场的变化,产品经理的角色也在不断演进,需要不断学习和适应新的工具和方法。:与设计师合作,设计产品界面和用户体验,确保产品易用性和吸引力。:制定产品路线图,确定产品愿景、目标市场、关键特性和里程碑。:收集和优先排序产品特性和需求,创建用户故事和需求文档。原创 2024-08-28 06:13:48 · 256 阅读 · 0 评论 -
【人工智能时代】- 大模型应用的 10 种架构模式
在塑造新领域的过程中,我们往往依赖于一些经过实践验证的策略、方法和模式。这种观念对于软件工程领域的专业人士来说,已经司空见惯,设计模式已成为程序员们的重要技能。然而,当我们转向大模型应用和人工智能领域,情况可能会有所不同。面对新兴技术,例如生成式 AI,我们尚缺乏成熟的设计模式来支撑这些解决方案。作为一位老码农,我在这里整理总结了一些针对大模型应用的设计方法和架构模式,试图应对和解决大模型应用实现中的一些挑战,如成本问题、延迟问题以及生成的不准确性等。原创 2024-08-30 05:58:11 · 584 阅读 · 0 评论 -
【人工智能时代】- 从0开始搭建自己的大模型
---> 确定模型类型(如Transformer)|---> 监控模型在实际应用中的表现。|---> 部署模型到服务器或云平台。|---> 确保模型开发和应用合规。|---> 确定目标任务和性能指标。|---> 收集大量相关领域的数据。|---> 清洗、标注、标准化数据。|---> 在验证集上评估模型性能。|---> 针对特定任务微调模型。|---> 使用训练数据训练模型。|---> 调整学习率、优化器等。|---> 确定层数、参数量等。|---> 安装软件、配置硬件。|---> 根据反馈优化模型。原创 2024-08-30 05:58:14 · 512 阅读 · 0 评论 -
【人工智能时代】- 在AI硬件的硬件架构优化方面,有哪些最新的技术或趋势值得关注?
它还包括多种功能特性,如新的媒体加速功能和AI加速能力,以提高边缘和网络工作负载的性能和效率。3. **英特尔Gaudi 3 AI加速器**:专为生成式AI模型的训练和推理而设计,该加速器通过创新的架构和高能效矩阵乘法引擎,实现了卓越的性能与能效,解决了部署生成式AI工作负载时的扩展性问题。7. **AI芯片的硬件加速器发展**:包括图像处理单元(IPU)、神经网络处理单元(NPU)和张量处理单元(TPU),这些加速器通过专门设计和优化的硬件结构,显著提升了芯片的计算能力和能效比。原创 2024-08-29 06:45:49 · 151 阅读 · 0 评论 -
【人工智能时代】- 人工智能技术总结
1)感知机:神经元,接收多个输入x1,x2,...,xnx_1, x_2, ..., x_nx1,x2,...,xn, 根权重矩阵相乘,产生输入。通用近似定理证明,神经网络只需要一个隐藏层,该隐藏层包含足够多的神经元,在激活函数作用下,能够以任意精度模拟任意连续型函数。1)定义:无监督学习,根据样本的相似度,将其划分放到不同的聚簇,同一个聚簇样本相似度较高,不同的聚簇样本相似度较低。4)经典卷积神经网络:LeNet,AlexNet,VGG,GoogLeNet,ResNet。原创 2024-08-23 07:04:35 · 717 阅读 · 0 评论 -
【人工智能时代】- 大模型技术的发展与实践
我们对大模型相关的发展历史、openAI技术的发展脉络、当前国内外主流的大语言模型进行了简单的介绍,同时针对大模型区别于之前模型的核心技术原理进行了简单讲解,本章提到的预训练、指令微调、对齐微调、上下文学习、思维链提示、规划等核心技术读者需要了解。相信通过本章的讲解,读者大致了解了大模型相关的知识。在最后一节从内容生成、问题解答、互动式对话、生产力工具/企业服务、搜索推荐等5个维度介绍了大模型能够赋能的领域和应用场景。未来大模型一定会革新所有的行业和场景的。原创 2024-08-26 21:20:08 · 1342 阅读 · 0 评论 -
【人工智能时代】- 浅显易懂的Langchain快速上手
随着GPT模型的问世,大语言模型(LLM)时代已经来临。LLM的出现,使得人工智能在语言处理方面的能力得到了极大的提升。Langchain作为一个面向后端开发者的框架,旨在帮助开发者快速上手并利用LLM开发出强大的应用程序。本教程将为您提供一份全面的指南,帮助您快速掌握Langchain的使用方法!Langchain是一个基于大语言模型的应用开发框架,随着社区的快速成长,它现在已不仅仅是一个开发框架,更多的是一个LLM应用的基建工程,提供从开发到上线整个闭环流程的全程支持。原创 2024-08-27 07:04:20 · 1045 阅读 · 0 评论 -
【人工智能时代】- 国内外编程助手与编程大模型汇总
用RAG技术给大模型配个“资料袋”大模型外挂向量数据库。给大模型“大脑”装上记忆体、手和脚,让它可以作为智能体进行自主决策、任务拆解和执行。基于基座大模型的Fine Tuning。大模型训练,高端赛道的角逐。因此普通程序员研究大模型,不妨选择从外到内的思路,从套壳应用,再了解部署、微调和训练。原创 2024-08-24 16:11:42 · 142 阅读 · 1 评论 -
【人工智能时代】- AI所需的硬件有哪些
这些硬件组件共同构成了AI系统的基础架构,不同的AI应用可能需要不同配置的硬件以满足特定的性能和效率需求。随着AI技术的不断发展,新的硬件解决方案也在不断涌现,以支持更复杂的AI模型和应用场景。原创 2024-08-28 07:15:40 · 485 阅读 · 0 评论 -
【人工智能时代】- 在AI硬件的选择上,如何平衡性能和成本?
例如,Intel Core Ultra 7 268V、AMD Ryzen AI 9 HX 370、Apple M4以及Qualcomm Snapdragon X Elite X1E-84-100都是集成了NPU的AI处理器,它们在CPU、GPU和NPU性能上各有优势,同时功耗设计也影响成本效益。:选择稳定性好、扩展性强的主板,并配备足够功率的电源,以确保系统的长期稳定运行,这通常需要在性能和成本之间做出权衡。:最终,选择AI硬件时,需要在性能、成本、能效和系统价格之间找到最佳平衡点。原创 2024-08-29 06:45:44 · 305 阅读 · 0 评论 -
【人工智能时代】- 详细介绍搭建大模型的每个步骤
搭建大模型是一个迭代和持续改进的过程,需要跨学科知识和团队协作。随着技术的发展,新的方法和工具将不断涌现,为大模型的开发提供更多可能性。原创 2024-08-30 05:58:19 · 300 阅读 · 1 评论 -
【人工智能时代】- AIGC 相关概念
AIGC(人工智能生成内容,Artificial Intelligence Generated Content)是一种新型的内容创作方式,它结合了专业生产内容(PGC)和用户生成内容(UGC)的优点,并利用人工智能技术进行内容生成。AIGC技术的核心是利用算法模型,通过对大量数据的学习,生成具有一定创意和质量的内容,如文章、图像、音频等。"2021年之前,AIGC生成的主要还是文字,而新一代模型可以处理的格式内容包括:文字、语音、代码、图像、视频、机器人动作等等。原创 2024-08-28 06:13:40 · 608 阅读 · 0 评论 -
【人工智能时代】- LLM大语言模型
2022年末,聊天程序ChatGPT的上线,在短短5天被注册用户就破百万。ChatGPT的爆火,在一夜之间,带领人类穿越到了真正的人工智能时代。本文会从ChatGPT作为切入点,在介绍其底层的GPT模型诞生史后,再深入浅出地讲解大语言模型(LLM)及工作原理。在整篇文章中,从点到面到又介绍了自然语言处理(NLP)、深度学习、Transformer模型等,让你对LLM和AI领域有更加清晰透彻的理解。原创 2024-08-27 07:04:16 · 1085 阅读 · 0 评论 -
【人工智能时代】- RAG(检索增强生成) | 概念理论介绍+ 代码实操(含源码)
然而,当我们在提示大模型生成训练数据之外的知识时,例如最新知识、特定领域知识等,LLM的输出可能会导致事实不准确,这就是我们常说的模型幻觉。针对大型语言模型效果不好的问题,之前人们主要关注大模型再训练、大模型微调、大模型的Prompt增强,但对于专有、快速更新的数据却并没有较好的解决方法,为此检索增强生成(RAG)的出现,弥合了LLM常识和专有数据之间的差距。因此,弥合大模型的常识与其它背景知识之间的差距非常重要,以帮助LLM生成更准确和更符合背景的结果,同时减少幻觉。定义了 RAG 链,就可以调用它了。原创 2024-08-23 07:04:32 · 887 阅读 · 0 评论 -
【人工智能时代】- 国内主流AI 大模型架构及应用场景深度分析
华为云规划“L0 基础大模型-L1 行业大模型-L2 细分场景大模型”的发展路径。L0 阶段的盘古大模型由 NLP 大模型,CV 大模型、语音大模型、多模态大模型、科学计算大模型等组成,其中 CV 大模型超 30 亿参数,预训练时输入 10 亿级图像数据,兼顾图像判别与生成能力;飞桨深度学习平台能助力解决大模型研发和部署的各类问题,大模型使得 AI 模型的研发门槛更低、效果更好、流程更加标准化,硬件厂商、开发者以及模型应用企业在文心+飞桨生态中,紧密链接、相互促进,形成共聚、共研、共创的健康生态。原创 2024-08-30 05:58:07 · 878 阅读 · 0 评论 -
【人工智能时代】- AI硬件在不同行业中的应用有哪些具体案例?
例如在CES 2024上展出的可检测心理健康的智能镜子BMind、自动检测刷牙规范性的Oclean X Ultra智能牙刷、自动识别和缓解鼾声的Motion Pillow智能枕头,以及能读懂婴儿啼哭的Maxi Cosi婴儿监视器。随着AI技术的不断发展,预计将出现更多创新的AI硬件产品和应用场景。:智能医疗设备,例如便携式超声设备和智能血糖仪,利用AI技术进行健康监测和诊断,提高医疗服务的准确性和及时性。:AI可穿戴设备,如智能手表和健康追踪器,集成了大模型技术,提供个性化的健康和运动追踪服务。原创 2024-08-28 07:11:41 · 261 阅读 · 0 评论 -
【产品经理修炼之道】- 产品经理如何更好的需求分析
通过这些方法和步骤,产品经理可以更准确地理解用户的真实需求,制定有效的产品策略,并创造出满足市场需求的产品。同时,AIGC技术的应用为需求分析带来了新的可能性,提高了设计和研究的效率。产品经理进行需求分析是确保产品成功的关键步骤,它涉及到对用户需求的深入理解和转化。:对收集到的需求进行分类和优先级排序,确定哪些需求是关键的,哪些可以推迟或忽略。:建立需求池,使用项目管理工具或Excel来跟踪需求状态,确保需求的跟进与维护。:从需求的提出到研发、测试、上线,再到收集用户反馈和迭代优化。原创 2024-08-28 06:13:51 · 717 阅读 · 0 评论 -
【人工智能时代】- AI 聚合平台
最近听朋友介绍,国内有个团队开发了一个全功能的 AI 聚合平台,包含主流的 GPT 和 绘画功能,以及一些其他的衍生功能,几乎应有尽有。于是,对 AI 很感兴趣的我,便也来瞧瞧这是个什么样的存在,以下便是我的真实使用感受。除此以外,作为一个程序员,我还使用了该平台提供的 API 接口,开发了一个简单的小程序。文章的末尾,我将提供免费的 AI 机器人,以及小程序体验地址,记得查收哦~注:现在注册后填写问卷,还能免费获得 1 PTC,感兴趣的朋友可以试试看。原创 2024-08-26 21:14:51 · 1382 阅读 · 0 评论 -
【人工智能时代】- AIGC技术在不同行业中有哪些具体的应用案例?
随着技术的不断发展,预计将在更多领域看到AIGC技术的广泛应用。:AIGC技术通过生成商品的三维模型,改善了购物体验,如阿里巴巴的每平每屋业务利用AIGC技术实现线上商品模拟展示效果。:三菱重工(MHI)利用Lumen5的AIGC视频平台,扩展了内容策略并加快了工作流程,提高了内容发布的多样性和效率。:AIGC技术在快手电商设计中的应用,如使用“快意大模型”进行创意发散和视觉设定,提升了设计效率和质量。:AIGC技术在多模态大模型中的应用,如谷歌的GEMINI模型,通过预训练和微调提升多模态数据处理能力。原创 2024-08-28 06:13:43 · 387 阅读 · 0 评论 -
【人工智能时代】- 如何创建大模型
探索不同的大模型应用方式,如Pretrain-Finetune、Prompt、Prompt-tuning、Prefix-tuning、Adapter-tuning、Instruction-tuning和Knowledge Distillation,找到最适合自己业务场景的方法。随着技术的发展,新的工具和框架不断涌现,为大模型的创建和应用提供了更多可能性。:考虑不同的大模型应用架构模式,如代理模式、多任务微调模式、分层缓存策略模式、混合规则模式和知识图谱模式,以适应不同的业务需求和提高效率。原创 2024-08-30 05:58:01 · 176 阅读 · 0 评论 -
【人工智能时代】- 大语言模型的基础与前沿探索
大语言模型,简而言之,是一种通过大规模语料库训练得到的、能够理解和生成自然语言的神经网络模型。其核心在于利用深度学习技术,特别是Transformer架构,实现对文本数据的深度理解和生成。这些模型能够捕捉语言中的复杂模式和关系,从而在多种任务上表现出色,如文本生成、问答系统、机器翻译等。大语言模型作为AI领域的一项重要技术成果正引领着智能时代的变革。通过本文的介绍我们希望能够让读者对LLM有一个初步的了解和认识并激发其进一步探索的兴趣。原创 2024-08-19 06:24:26 · 679 阅读 · 0 评论 -
【人工智能时代】- 使用 LLM API 开发应用
3. 跨语言情感分析模型的构建与应用——使用跨语言模型构建情感分析模型,通过比较模型在不同语言上的准确性和一致性,分析不同语言中情感表达的差异,并探索在多语言场景下的情感分析应用。4. 多任务学习下的跨语言模型训练——探索多任务学习下跨语言模型的训练方法和效果,通过同时训练多个任务来提高跨语言模型的泛化能力和性能,并验证多任务学习对跨语言模型的影响。1. 跨语言文本分类模型的比较和优化——通过比较不同跨语言模型的性能,分析其在不同语言之间的适应性和准确性,并尝试优化现有模型,提高跨语言文本分类的效果。原创 2024-08-20 07:00:10 · 199 阅读 · 1 评论 -
【人工智能时代】- Ollama部署方案中提到的硬件要求具体包括哪些方面?
例如,运行7B型号的模型至少需要8 GB的RAM,而更大的模型如33B则需要32 GB的RAM。:由于大型语言模型的文件可能非常大,因此需要有足够的存储空间来保存模型文件。:如果用户希望利用GPU加速模型的运行,需要确保系统具备NVIDIA GPU,并且安装了相应的驱动程序和CUDA工具包。:虽然Ollama可以使用CPU运行大模型,但是拥有高性能的CPU可以提高模型运行的效率。:某些情况下,可能需要安装特定的软件或库来支持Ollama的运行,例如Node.js、Python等。原创 2024-08-19 06:23:58 · 412 阅读 · 0 评论 -
【人工智能时代】- 深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
参与过传统AI项目的人应该都知道,自然语言处理(NLP)一直是难以克服的核心难点,语义表示、歧义消除、上下文联系等都是语义理解的头疼问题,也是之前很多人工智能被称作“人工智障”的罪魁祸首,LLL的出现改变了这一现状。当大模型变得无处不在,基于大模型的AI任务运行也就需要管理,特别在调试阶段,这些任务的执行过程需要做细粒度的跟踪,以用于优化提示词与流程设计,进而影响大模型的任务决策与执行过程。而在一个复杂的AI任务完成过程中,需要自行记忆决策与行动过程,进而形成大模型的上下文,以增加大模型输出的确定性。原创 2024-08-19 06:24:56 · 628 阅读 · 0 评论 -
【人工智能时代】- 检索增强生成 RAG 简介
Datawhale 知识库助手 是结合本课程内容、在由散步打造的 ChatWithDatawhale—— Datawhale 内容学习助手的基础上,将架构调整为初学者容易学习的 LangChain 架构,并参考第二章内容对不同源大模型 API 进行封装的 LLM 应用,能够帮助用户与 DataWhale 现有仓库和学习内容流畅对话,从而帮助用户快速找到想学习的内容和可以贡献的内容。—— "天机不可泄漏。RAG 结合检索到的信息和模型的生成能力,通过提供额外的背景知识和数据支持,增强了模型的推理和理解能力。原创 2024-08-20 04:55:14 · 323 阅读 · 0 评论 -
【人工智能时代】- 大型语言模型(LLM)理论简介
1.1 大型语言模型(LLM)的概念大语言模型(LLM,Large Language Model),也称大型语言模型,是一种旨在理解和生成人类语言的人工智能模型。LLM 通常指包含数百亿(或更多)参数的语言模型,它们在海量的文本数据上进行训练,从而获得对语言深层次的理解。目前,国外的知名 LLM 有 GPT-3.5、GPT-4、PaLM、Claude 和 LLaMA 等,国内的有文心一言、讯飞星火、通义千问、ChatGLM、百川等。原创 2024-08-19 07:14:10 · 1347 阅读 · 0 评论