自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(64)
  • 收藏
  • 关注

原创 一文搞懂大模型从入门到精通!(大模型入门必读)

随着技术的不断进步和数据的不断增长,大模型将在更多领域发挥重要作用。未来,大模型将更加智能化、个性化,为我们带来更加美好的生活体验。同时,我们也需要关注大模型带来的挑战和问题,如数据隐私、算法偏见等,共同推动大模型的健康发展。

2024-06-20 11:38:23 446

原创 在Ubuntu系统下部署大语言模型

在Ubuntu系统下部署大语言模型,可以使用Hugging Face的Transformers库来加载和使用预训练的模型。

2024-06-20 09:58:45 142

原创 【机器学习】大模型驱动少样本学习在图像识别中的应用

在人工智能的浪潮中,机器学习技术的快速发展为我们带来了前所未有的机遇。其中,数据作为训练模型的关键因素,其获取成本却往往成为制约技术进步的瓶颈。特别是在图像识别领域,标注数据的获取尤为昂贵和耗时。然而,少样本学习(Few-Shot Learning)的提出,为我们打开了一扇新的大门,即使在有限的数据下,模型也能展现出强大的学习和泛化能力。本文将深入探讨大模型在少样本学习中的应用,并展望其在图像识别领域的新篇章。

2024-06-20 09:33:45 217

原创 大模型行业需要怎样的科技技术人才?

同时,他们还需要不断跟进最新的技术动态,保持对新技术、新方法的敏锐洞察力和学习能力。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。大模型技术离不开海量的数据支持。他们需要能够处理各种类型的数据,并从中提取出有价值的信息,为模型的训练和优化提供有力支持。作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

2024-06-19 16:31:01 1177

原创 突破AI大模型工业化开发,生成式AI迎来全链条服务商

随着LLM“百模大战”的逼近,行业用户需要更加快速地基于现有LLM大模型,开发面向本行业、本企业的定制大模型及生成式AI应用。在2023年7月6日的2023世界人工智能大会(WAIC)上,与全球领先AI公司合作超过27年的澳鹏重磅推出智能LLM大模型开发平台。同时宣布面向生成式AI战略升级——从AI数据服务“破圈”进入全栈AI服务。

2024-06-19 10:17:18 403

原创 AI大模型量化

AI大模型量化是一种优化模型大小和计算效率的方法。它通过减少模型参数和降低模型精度,从而在保持相对较高性能的同时,降低了模型的存储需求和计算开销。

2024-06-19 09:41:56 537

原创 AI大模型的黄金时代:Kimi引领长文本革命,巨头们的新战场

在人工智能的浪潮中,AI大模型应用正成为科技界的新宠。Kimi的爆火不仅在资本市场掀起波澜,更引发了一场关于长文本处理能力的角逐。本文将深入探讨Kimi的成功背后的故事,以及它如何影响着AI大模型应用的未来。Kimi,这款由月之暗面科技有限公司开发的AI大模型应用,以其卓越的长文本处理能力迅速在市场上占据了一席之地。Kimi的核心优势在于其能够处理和解析大量的文本数据,这在以往的AI模型中是难以想象的。它不仅能够理解文本的表层含义,更能深入挖掘文本背后的深层信息,为用户提供更为精准的数据分析和内容摘要。

2024-06-18 22:03:09 509

原创 大模型迎来爆发节点,谁来帮中国AI产业打好地基?

没有大数据,数字经济便是‘无米之炊’;没有智能算法,数字经济就不能‘创造价值’。在日前的2023世界人工智能大会(以下简称WAIC)“大模型生产与产业落地合作论坛”上,国务院参事、中国科学院虚拟经济与数据科学研究中心主任、中国科学院大数据挖掘与知识管理重点实验室主任石勇说。近一年来,随着通用人工智能(AGI)与生成式人工智能(AIGC)的兴起,人工智能产业掀开了新的篇章——AI对部分产业的颠覆开始加速,我们正在迎来一个属于AI的新时代。

2024-06-18 19:32:48 641

原创 大模型系列——解读RAG

RAG即检索增强生成,为 LLM 提供了从某些数据源检索到的信息,并基于此修正生成的答案。RAG 基本上是 Search + LLM 提示,可以通过大模型回答查询,并将搜索算法所找到的信息作为大模型的上下文。查询和检索到的上下文都会被注入到发送到 LLM 的提示语中。嵌入式搜索引擎可以通过 Faiss 来实现,向量搜索领域成为了RAG的一个助力。像pinecone 这样的向量数据库可以构建开源搜索索引,为输入文本增加了额外的存储空间,还增加了一些其他工具。关于向量数据库,可以参考[解读向量数据库]

2024-06-18 16:07:58 790

原创 激活函数(Activation Function)

激活函数是一种用于神经网络和机器学习模型中的非线性函数。它被应用于神经元的输出,以引入非线性性质和复杂性。激活函数可以帮助模型学习非线性关系,并提高模型的表达能力。在神经网络的每一层都使用激活函数,将输入信号转换为输出信号。

2024-06-18 15:30:22 793

原创 Python Langchain基础应用框架的使用

Langchain代码中使用了FastApi和Streamlit框架,本文简单介绍总结一些python基础应用框架的概念和使用方式。

2024-06-17 22:20:41 602

原创 真正的AI产品经理太少了!!!

为了更好的理解AI产品经理的定义,我们不妨把时间线拉长,回顾互联网的几次大规模技术迭代,以及每次迭代中催生的新岗位:Step1,从纯代码协议到PC端的网页浏览器,使互联网从小众到大众。在这个时期,产品经理都不那么重要,网页浏览器这种载体,相对复杂度还没那么高,程序员+设计师就基本能应付个七七八八。我们现在耳熟能详的好多产品大神都是程序员出身,因为那个时期就没什么产品经理啊!这就给后世留下一个印象:好产品经理必须懂技术?懂技术更能成为好产品经理?其实真不见得。

2024-06-17 19:39:24 785

原创 5分钟明白LangChain 的输出解析器和链

本文主要聊了LangChain的输出解析器 和 使用LCEL构建链,希望对你有帮助!

2024-06-17 16:59:39 846

原创 LangChain进阶之Embedding Models

为什么需要有词嵌入这一步?本质还是因为 LLM 接受的数据质量越高,输出就越精准。词嵌入后会根据相似度算法去找 Top n 相关的输入数据给到 LLM,从而确保 LLM 的输出符合预期。以上就是本次 Embedding Models 的全部内容,希望你们会喜欢。

2024-06-17 13:58:53 625

原创 Transformer系列:残差连接原理详细解析和代码论证

残差连接的做法是将上一层的输出直接连接到下一层的输出,及上一层的输出直接和下一层的原始输出对应位置相加形成最终输出,如图残差连接示意图上一层的输出是X,下一层的原始输出是F(x),relu(F(x)+X)是最终残差连接的结果,X输入下一层的同时直接连接到下一层的输出,如同构建了桥梁一般。

2024-06-16 08:00:00 701

原创 大厂裸辞2个月转行AIGC产品经理,月薪5W

2.1 什么是特征清洗、数据变换?2.2 什么是过拟合和欠拟合?2.3 什么是跨时间测试和回溯测试?2.4 什么是训练集、验证集和测试集?2.5 你之前负责产品中使用的最核心的算法是什么?这种算法有哪些优缺点?2.6 对深度学习有哪些了解?深度学习的应用场景有哪些?2.7 机器学习的三大类应用场景都是什么?2.8 逻辑回归相比于线性回归,有什么区别?2.9你能介绍一下KNN/朴素贝叶斯/SVM/CNN/Diffusion/NLP的原理吗?你熟悉哪几种深度学习和机器学习算法?

2024-06-15 11:33:07 689

原创 Transformer系列:Beam Search束搜索原理图文详解和源码分析

解码目标:序列联合概率最大Beam Search原理和可视化Beam Search对文本长度的惩罚项Beam Search的停止条件Beam Search的时间复杂度分析Beam Search源码解读。

2024-06-15 11:13:23 810

原创 Embedding技术:Sentence-BERT句嵌入模型介绍和实践

Embedding技术和句嵌入简述Sentence-BERT快速开始Sentence-BERT原理综述孪生神经网络和对比学习Sentence-BERT模型搭建和语义检索实践。

2024-06-15 11:02:31 1046

原创 AI模型部署:Triton Inference Server模型部署框架简介和快速实践

Triton Inference Server简介Docker构建Triton Inference Server环境Triton Inference Server部署一个线性模型Triton Inference Server是一款开源的推理服务框架,它的核心库基于C++编写的,旨在在生产环境中提供快速且可扩展的AI推理能力,具有以下优势支持多种深度学习框架:包括PyTorch,Tensorflow,TensorRT,ONNX,OpenVINO等产出的模型文件至此多种机器学习框架。

2024-06-15 10:51:54 886

原创 AI模型部署:Triton+vLLM部署大模型Qwen-Chat实践

而在Triton+vLLM的组合中,Triton不会做任何的调度处理,而是将请求全部打给vLLM,让vLLM根据PagedAttention和异步API自行处理请求,vLLM的调度策略更适配大语言模型decode场景的KV-Cache,提高GPU的利用率,因此在Triton+vLLM的组合中,由vLLM来负责调度,而Triton负责辅助vLLM的推理过程,添加前后处理,以及部署为服务,暴露对应的HTTP和GRPC接口。笔者的环境为一块GTX 2080ti的GPU,显存11G,忽略网络延迟。

2024-06-15 10:20:30 824

原创 大模型+知识,赋能政府智慧服务

大模型和知识库技术的结合,为政府智慧服务提供了新的可能性。通过智能化、精细化的服务,不仅能够提高公众的办事体验,也能够减轻政府工作人员的工作压力,实现政府服务的现代化。

2024-06-15 09:38:56 662

原创 大模型参数与传统算法策略的比较及Prompt在大模型应用中的重要性

穷举法,也称为枚举法,依赖于计算机的高速运算能力,尝试所有可能的解决方案以找到正确答案。它通常在问题解答的范围已知且较为有限时应用。相对地,暴力算法遍历待求解问题的所有元素,不依赖任何启发式或剪枝技巧,直接寻找问题的解答。尽管这两种方法在某些情况下效率不高,但在缺乏更有效算法时,它们仍是解决问题的可靠手段。

2024-06-14 16:12:30 290

原创 AI时代的产品经理的成长指南

随着人工智能(AI)技术的迅猛发展,我们正处在一个变革的时代。在这个时代,产品经理的角色和职责也在不断地发生变化和演进。为了在这个充满机遇和挑战的AI时代中脱颖而出,产品经理需要不断地学习、成长和适应。以下是一份针对AI时代产品经理的成长指南,帮助你更好地应对未来的挑战。

2024-06-14 11:21:51 358

原创 突破瓶颈:如何优化 LLMs 的落地成本和延迟

高成本和延迟是将大语言模型应用于生产环境中的主要障碍之一,二者均与提示词信息的体量(prompt size)紧密相连。鉴于大语言模型(LLM)展现出极强的广泛适用性,不少人视其为解决各类问题的灵丹妙药。通过与诸如检索增强生成技术(RAG)及 API 调用等在内的工具整合,并配以精细的指导性提示词,LLM 时常能展现出逼近人类水平的工作能力。

2024-06-14 10:23:20 560

原创 大模型应用开发:编写插件获取实时天气信息

首先给大家简单展示下插件的运行效果,如下图所示:可以看到,每次询问GPT,它都会返回指定城市的实时天气信息,这个天气是真实的,不是GPT瞎编的,是GPT通过一个实时天气插件查询到的。

2024-06-14 09:58:51 826

原创 Llama3-8B到底能不能打?实测对比

前几天Meta开源发布了新的Llama大语言模型:Llama-3系列,本次一共发布了两个版本:Llama-3-8B和Llama-3-70B,根据Meta发布的测评报告,Llama-3-8B的性能吊打之前的Llama-2-70B,也就是说80亿参数的模型干掉了700亿参数的模型,这个还真挺让人震惊的。Llama-3-8B真的有这么强吗?鉴于8B的模型可以在24G显存下流畅运行,成本不高,我就在AutoDL上实际测试了一下。

2024-06-14 09:41:07 832

原创 Pytorch 循环神经网络-实现情感极性判定

pack_padded_sequence 技术的应用#squeeze(0)的作用是将张量中维度大小为1的维度进行压缩,减少张量的维度数量和大小。#如果张量中没有维度大小为1的维度,那么squeeze(0)函数不会对张量进行任何修改,它会返回与原始张量相同的张量# view(-1)将张量重塑为一维形状关于pack_padded_sequence(处理Pad问题)的解释:"Pad问题"是指填充操作中的一个常见问题,即如何处理填充元素(通常用特殊的占位符,如)对模型训练和推理的影响。

2024-06-14 09:21:43 1000

原创 ComfyUI 完全入门:ControlNet

很多同学对ComfyUI可能还不太了解,我这里做一个简单的介绍。在AI绘画领域,Stable Diffusion 因其开源特性而受到广泛的关注和支持,背后聚拢了一大批的应用开发者和艺术创作者,是AI绘画领域当之无愧的王者。目前使用 Stable Diffusion 进行创作的工具主要有两个:Stable Diffusion WebUI 和 ComfyUI。

2024-06-13 17:41:22 894

原创 构建企业核心竞争力:拥有自主大模型,引领行业未来

在人工智能时代,拥有自主大模型已经成为企业提升竞争力、引领行业未来的重要手段。作为一位具有前瞻性的企业家,您应该紧跟时代步伐,积极拥抱大模型技术。通过深入了解大模型技术、组建专业团队、投入研发资源和加强数据管理和安全等措施,构建出具有自主知识产权的大模型平台。这将有助于企业更好地把握市场机遇、提升服务质量、优化业务流程,实现业务创新和价值提升。那么,我们该如何学习大模型?作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。至于能学习到多少就看你的学习毅力和能力了。

2024-06-13 12:41:42 585

原创 通往 AGI 的道路上,OpenAI 逐渐构建了全模态的工具集

几天前,OpenAI 公司官宣将发布一个名为“Voice Engine”的小规模模型,引起巨大的声浪。该模型支持仅使用文本输入和单个 15 秒音频样本来生成与原始说话者非常相似的自然语音。可应用于“语音转录”、“语音克隆”、“语音翻译”等场景。笔者感叹 AI 技术的发展太快了,OpenAI 正在逐步构建起一个全面的 AIGC 工具站。接下来我们主要谈谈 OpenAI 当前各个业务板块的代表技术。

2024-06-13 11:28:24 367

原创 未来已来:解锁AGI的无限潜能与挑战

目前,我们所使用的AI系统,比如能够识别你的猫照片并自动打上“可爱”的标签的那种,它们非常擅长处理特定任务。想象一下,你的智能家居助手不仅能控制温度和灯光,还能根据你的表情和语气来调节家中的氛围——这简直就像是家里多了一个心灵手巧的家政员。那么,让我们一起揭开AGI的神秘面纱,看看它究竟是如何一步步接近人类智能的,同时也让我们思考一下,当AGI真的来临时,我们该如何与这些比我们还要聪明的机器共处。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。

2024-06-13 11:20:04 226

原创 你为什么不相信 LLM 模型评测:深入评测 LLM 接口

讲真,我在思考 MELLM 算法的时候,压根没有考虑测试数据的事情。全世界,人类调用大语言模型来解决问题,可能调用量有个上百亿、上千亿都很正常。我从中即便随机抽取十万条,都是一个极其小的采样,很难有非常强的说服力。再一个,每个人关注的测试数据是不同的。我关注计算机和 AI 领域,可能你就关注医学、法律、文学、化学领域。所以,单拿出一套公用的数据来做测试,缺乏定制性,不适用于所有人。因此,我在这里就是在测试我所期望的测试题。

2024-06-13 11:03:10 1022

原创 AI产品经理还不会数据挖掘❓看完这篇就够了

在数字化时代的浪潮中,AI产品经理正成为推动科技与商业融合的重要力量。然而,面对海量的数据,如何从中挖掘出有价值的信息,为AI产品的开发提供有力支持?这已成为AI产品经理必须面对的挑战。今天,我们就来探讨一下数据挖掘在AI产品经理工作中的重要性,以及如何通过掌握数据挖掘方法论,打造卓越的AI产品。

2024-06-12 11:13:51 2721

原创 面向LLM编程:感受AI的力量

,它是一种非常强大的人工智能模型,特别擅长处理和生成自然语言文本;为什么叫它是LLM,因为它通过深度学习技术,经过海量文本数据训练而成;有着非常庞大的数据库,它优越的自然语言处理能力NLP,能够理解并生成像人类一样连贯、复杂的语言表达。今天就让我们一起面向LLM编程,一起揭秘AIGC。

2024-06-12 10:38:00 578

原创 XTuner 微调 LLM:1.8B、多模态、Agent

两者的不同是在询问 “你是我的小助手” 的这个问题上,300轮的时候是回答正确的,回答了 “是” ,但是在600轮的时候回答的还是 “我是剑锋大佬的小助手,内在是上海AI实验室书生·浦语的1.8B大模型哦” 这一段话。但是假如炼丹的材料(就是数据集)本来就是垃圾,那无论怎么炼(微调参数的调整),炼多久(训练的轮数),炼出来的东西还只能且只会是垃圾。而对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 adapter ,因此是不需要进行模型整合的。

2024-06-12 09:54:22 693

原创 学习大模型的必经之路:Transform

学习Transformer模型是掌握大模型技术的必经之路。通过深入理解模型的原理、动手实践、调试与优化以及拓展应用等步骤,可以逐步掌握Transformer模型的使用方法和技巧。同时,需要保持对新技术和新方法的关注和学习,以不断提升自己的技术水平。

2024-06-11 15:38:15 726

原创 详细介绍 CNN 完成 CIFAR 图像分类任务

这里就是使用训练集和测试集进行模型的训练和验证,速度还是有点慢的,通过打印的结果我们可以看到,最后 accuracy 和 val_accuracy 都在正常进行,基本没有出现过拟合或者欠拟合的风险,只是模型的结构还是很单薄,所以最后的准确率只有 75% 上下,如果用其它专业的大模型,准确率应该在 98% 以上。使用测试集进行模型的测试工作,因为之前验证集和测试集用的是同一份数据,所以最后的准确率肯定和训练过程的最后的 val_accuracy 是一样的。😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓。

2024-06-11 10:24:11 340

原创 离线创建 anaconda 虚拟环境

有时候我们会被甲方要求在离线机器上部署 anaconda 环境,那么可以准备一台联网机器和一台离线机器,先在联网机器上安装所需的东西,然后迁移到离线机器即可。

2024-06-11 10:07:32 693

原创 使用 Keras 的 Stable Diffusion 实现高性能文生图

在本文中,我们将使用基于 KerasCV 实现的 [Stable Diffusion] 模型进行图像生成,这是由stable.ai开发的文本生成图像的多模态模型。是一种功能强大的开源的文本到图像生成模型。虽然市场上存在多种开源实现可以让用户根据文本提示轻松创建图像,但 KerasCV 有一些独特的优势来加速图片生成,其中包括XLA 编译和混合精度支持等特性。所以本文除了介绍如何使用 KerasCV 内置的模块来生成图像,另外我们还通过对比展示了使用 KerasCV 特性所带来的图片加速优势。

2024-06-09 16:00:00 923

原创 使用 ESPCN 模型进行超分辨率图像处理

使用 ESPCN (Efficient Sub-Pixel CNN) 模型对低分辨率的图像,进行超分辨率处理。

2024-06-08 11:45:00 639

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除