自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(75)
  • 收藏
  • 关注

原创 一文读懂:AI大模型!

近年来,随着深度学习技术的迅猛发展,AI大模型已经成为人工智能领域的重要研究方向和热点话题。AI大模型,指的是拥有巨大参数规模和强大学习能力的神经网络模型,如BERT、GPT等,这些模型在自然语言处理、计算机视觉等领域取得了令人瞩目的成果。AI大模型的意义不仅在于其巨大的参数规模和学习能力,更在于它们对于解决现实世界复杂问题的潜力。这些模型可以通过大规模数据的学习,自动发现数据之间的关联性和特征,从而实现对文本、图像等数据的高效处理和理解。

2024-06-16 15:15:00 430

原创 争取比ChatGPT多知道一点,如何创建和使用embedding?

昨天有小伙伴留言问我:问题来了,如何生成embedding呢?这个问题很简单,可以直接问ChatGPT。即使是3.5的版本,也可以得到不错的回复:我这里贴一下它给出的代码,首先是TensorFlow2版本:接着是pytorch版本:这两个版本的embedding创建过程大同小异,都有现成的api可以使用。传入的参数也类似,两个值,一个是vocab_size,表示的embedding的数量。简单理解就是你需要创建的embedding的值的数量,另外一个。

2024-06-15 12:00:41 1266

原创 关于LLM:揭秘token与embedding的机制

「GPT4 Turbo 的上下文长度为 128K token」「Claude 2.1 的上下文长度为 200K token」听起来像是一些重要的细节,那么token到底是什么?请看一句话——It’s over 9000!我们可以将其表示为 [“It’s”, “over”, “9000!”] 每个数组元素都可以称为一个token。在自然语言处理(NLP)领域,它是我们定义的最小分析单位。如何称呼token取决于你的token化方法;有很多这样的方法。创建token基本上是大多数 NLP 任务的第一步。让我们直

2024-06-15 11:59:21 495

原创 文本数据常用Embedding实现方案

目前最常用的还是Word2Vec,简单且高效,在深度学习领域后续需要进行某些文本分类、情感分析等任务时用Bert,FastText一般是资源有效数据量大并且文本较为复杂时使用。​。

2024-06-15 11:50:28 771

原创 Embedding 模型的选择和微调

万物皆可 Embedding。在推荐系统、自然语言处理和计算机视觉等领域,Embedding 是一个非常重要的概念。Embedding 的本质是一种将高维稀疏数据转换为低维稠密向量的技术,通过这种转换,能够捕捉数据中的语义或特征关系。具体来说,Embedding 用一个多维稠密向量来表示事物的多维特征,从而在一个连续的向量空间中刻画事物之间的相似性和差异性。这种表示方式不仅提高了计算效率,还增强了模型对数据内在结构和关系的理解能力。

2024-06-14 16:30:00 1554

原创 拿下SOTA!最强中文Embedding模型对标OpenAI,技术路线公开

RAG的一大优点就在于知识库可以通过文档的形式进行外挂,这使得知识能够更频繁地更新,而无需耗时耗力再通过二次预训练向LLM灌入这些知识,并且RAG的检索步骤能够提供上下文给模型作为参考依据,让大模型回答更加准确。因此在Piccolo2中,商汤采用了多任务混合损失训练方法,针对不同的下游任务利用不同的训练损失,并证明了其优越的性能。通过多任务混合损失训练的方式,Piccolo2在C-MTEB上达到了70.95的平均精度,相比之前同量级的SOTA模型acge-embedding,综合评分提升了约1.9个点。

2024-06-14 16:00:00 476

原创 3B模型新SOTA!开源AI让日常调用不同大模型更简单

大模型,大,能力强,好用!但单一大模型在算力、数据和能耗方面面临巨大的限制,且消耗大量资源。而且目前最强大的模型大多为闭源,对AI开发的速度、安全性和公平性有所限制。AI大模型的未来发展趋势,需要怎么在单一大模型和多个专门化小模型之间做平衡和选择?他们开发了一个名叫Octopus v4的模型,利用functional token智能地将用户查询引导至最合适的垂直模型,并重新格式化查询以实现最佳性能。介绍一下,Octopus v4是前代系列模型的演化,擅长选择和参数理解与重组。

2024-06-14 11:41:35 497

原创 多模态和多模态大模型

以前,我们的机器学习模型一般都只处理一种类型的数据,比如只处理文本(翻译、语言建模)、图像(对象检测、图像分类)或音频(语音识别)。但是,想想我们人类的大脑。我们不仅仅读写文字,还可以看图、看视频,听音乐,还能够辨识各种不同的声音。所以,为了让AI更接近真实世界,处理多种类型的数据显得非常重要。OpenAI 在他们的这种融合的方法就是将大语言模型 (LLMs) 扩展到多种数据类型,从而得到所谓的多模态大模型 (LMMs)。

2024-06-13 16:00:00 589

原创 港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

当前,(MLLM)在多项视觉任务上展现出了强大的认知理解能力。然而大部分多模态大模型局限于,难以将理解的内容映射回图像上。比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。直接限制了多模态大模型在图像编辑,自动驾驶,机器人控制等下游领域的应用。针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式——通过来提升多模态大模型的感知定位能力。在融入定位后,Groma可以将文本内容和图像区域直接关联起来,从而显著提升对话的交互性和指向性。

2024-06-13 11:39:45 275

原创 中国版Sora?快手「可灵」到底行不行?

可灵”与Sora有相似的技术架构,生成的视频动作流畅、幅度大,对物理世界理解力与还原度很高。可生成的高清视频,分辨率高达,并且支持多种不同的屏幕比例。我们看这个火车在铁轨上行驶,、铁轨和石头、天空树林等,模拟得相当到位,仔细看第一张车身反射的光影变化,也很写实。(视频来源:阢)唯一不足的是,火车在铁轨上,,尤其第二张更为明显。(视频来源:阢)这个复古飞行器和舰艇相当惊艳,尤其舰艇的很有的感觉,不说的话,我会以为是从哪部《星球大战》《星河战舰》里截的片段。(视频来源:闲人一坤)

2024-06-13 11:34:51 839

原创 使用Transformer进行抄袭检测

这个定义要求我们的向量具有相同的大小,这可能是一个问题,因为文档向量的维度取决于该文档的长度。我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。(2) 使用与原文不同语言编写的内容也是一个巨大的问题,即使是最先进的基于机器学习的工具也面临着这个问题,因为上下文完全转移到了另一种语言。再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

2024-06-12 11:56:44 1826

原创 利用Transformer进行端到端的目标检测及跟踪(附源代码)

现存的用检测跟踪的方法采用简单的heuristics,如空间或外观相似性。这些方法,尽管其共性,但过于简单,不足以建模复杂的变化,如通过遮挡跟踪。1、简要多目标跟踪(MOT)任务的关键挑战是跟踪目标下的时间建模。现存的用检测跟踪的方法采用简单的heuristics,如空间或外观相似性。这些方法,尽管其共性,但过于简单,不足以建模复杂的变化,如通过遮挡跟踪。所以现有的方法缺乏从数据中学习时间变化的能力。在今天分享中,研究者提出了第一个完全端到端多目标跟踪框架MOTR。它学习了模拟目标的长距离时间变化。

2024-06-12 11:55:28 581

原创 为什么看了那么多资料还是无法理解Transformer啊???

一个新模型的诞生,一般是解决了现有的模型不能解决的一些问题。因此需了解该技术提出的背景和创新点。:熟悉这个模型的内容和架构、训练过程等:了解模型的应用场景,将模型为我们所用。接下来就从这三步骤来聊聊Transformer最早是Google在2017年的Attention Is Al You Need论文中提出,用于解决解决传统的序列到序列(sequence-to-sequence,Seq2Seq)模型在时遇到的问题。

2024-06-12 11:27:28 803

原创 数据说话:26 种 prompt 套路,效果比较

这是一篇论文解读,来自《驯服大模型,你要有话好好说》(我翻译的名字)。论文比较了各种提示词套路,比如“我会给你 $20 小费”。论文地址:相关代码:测试集:感觉有点意思,就尝试用更清晰易懂的方式来解读下。

2024-06-11 11:52:23 325

原创 揭秘2025最抢手职业:AI提示词工程师的崛起!

在2025年,随着科技的飞速发展,一个新的职业——AI提示词工程师,正在迅速崛起并成为市场上最抢手的职业之一。这一职位的诞生和普及,不仅标志着人工智能技术的深度发展,也预示着人类与机器之间沟通方式的根本变革。AI提示词工程师的角色定位于设计和优化人工智能系统的交互界面,使之能够更加自然、高效地与人类进行交流。他们通过对语言模型的深入理解和创新应用,为AI系统提供丰富的词汇库和应答机制,从而让机器能够更好地理解人类的意图和情感。

2024-06-11 11:49:08 280

原创 免费!快速!干货!手把手教你如何在个人电脑上搭建你自己的大模型服务!

Ollama官网:https://ollama.com/Ollama的GitHub地址:https://github.com/ollama/ollamaOllama是一个“支持在本地快速部署大模型服务”的解决方案,目前已经支持了很多开源的大模型,如下图所示,其中包括了Meta开源的最知名的大模型Llama,其他比如Mistral等也是享誉业内:

2024-06-11 11:44:09 582

原创 ChatGPT对话基本原则和玩法

ChatGPT作为一个人工智能语言模型,具有强大的知识储备和处理能力。这意味着在许多工作和生活场景中,你都可以向它请教问题或寻求帮助。无论是科学、技术、艺术还是生活琐事,ChatGPT都有可能提供有用的建议和答案。不过请注意,虽然ChatGPT非常强大,但它仍然是一个人工智能,不能替代专业人士在某些领域的专业意见,例如法律、医疗等。这意味着在时效性方面,无法提供最新的信息和动态。对于一些领域,特别是科技、政治和经济等快速变化的领域,ChatGPT可能无法提供最新的数据和见解。

2024-06-10 09:30:00 787

原创 人人都是提示工程师:自动化输出高质量的Prompt!(纯干货)

使用 Prompt 中最直观的感受就是结构化 , 将各种想要的, 不想要的, 都清晰明确地表述在设计好的框架结构中:该项目的语法:这个结构支持 Markdown 语法, 也支持 YAML 语法, 甚至纯文本手动敲空格和回车都可以. 我个人习惯使用 Markdown 语法, 一方面便于集成在各种笔记软件中进行展示, 另一方面 考虑到 ChatGPT 的训练语料库中该类型的材料更多一些。

2024-06-09 09:45:00 601

原创 Prompt逆向工程:轻松复刻OpenAI“神级”提示词

通过上面这些例子,给大家详细介绍了解剖式逆向prompt的主要流程:1.提取高效的提示词语句。2.解析提示词的结构体。3.组合为通用的提示词模板框架。其中对每个步骤所使用到的提示词也进行了演示,在逆向一些复杂的提示词时,可以尝试提取一些其他的提示词特征,比如有些提示词会给自己设计一套指令集,/language 切换语言,/setting 重置任务等等,都是处理复杂任务时可以借鉴的设计。

2024-06-08 10:30:00 844

原创 深度解析:AI Prompt 提示词工程的兴起、争议与未来发展

在人工智能领域中,一个新的领域——提示词工程(prompt engineering)——开始显露头角。随着AI技术的飞速发展,特别是在大型语言模型(LLM)的推动下,提示词工程成为了一个备受瞩目的焦点。权威机构分析,全球AI市场预计将在2030年达到1.6万亿美元的规模。在这样的大背景下,像OpenAI这样的公司提供的薪酬高达90万美元,反映了AI领域专业人才的高需求。而在这个领域中,提示词工程因其在提高AI模型性能方面的潜力而变得尤为重要。

2024-06-07 13:40:30 829

原创 最近爆火的新职业Prompt提示工程师到底是做什么的?迈向大模型Prompt主流策略

上篇文章将Prompt提示工程大体概念和具体工作流程阐述清楚了,我们知道Prompt工程是指人们向生成性人工智能(AI)服务输入提示以生成文本或图像的过程中,对这些提示进行精炼的过程。生成人工智能是一个根据人类和机器产生的数据训练的机器人,它不具备筛选你正在交流的内容以理解你实际在说什么的能力。也就是说你说的就是你得到的。那么我们使用Prompt在不进行高成本的调参,显得尤为重要。因此有很多Prompt策略适用于不同的语言大模型中,在图像大模型中Prompt策略可谓是核心必学科目了。

2024-06-07 13:38:24 885

原创 最近爆火的新职业Prompt提示工程师到底是做什么的?迈向大模型第一步Prompt提示工程基础原理及实践

想象一下,你在装饰房间。你可以选择一套标准的家具,这是快捷且方便的方式,但可能无法完全符合你的个人风格或需求。另一方面,你也可以选择定制家具,选择特定的颜色、材料和设计,以确保每件家具都符合你的喜好和空间要求。比如,选择一个特制的沙发,你可以决定其尺寸、布料类型、甚至是扶手的样式。你还可以根据房间的主题选择颜色,甚至添加一些独特的装饰,比如刺绣或特别的缝线。这就是Prompt工程的概念。就像你通过选择不同的设计元素来定制家具一样,Prompt工程涉及对AI的输入进行精细调整,以获得更加贴合需求的结果。

2024-06-07 13:36:44 570

原创 2024大模型从业者的至暗时刻

但她并没有着急回答,因为她正在嫌12.9的瑞幸太贵,换成了9.9的库迪咖啡。朋友说从事大模型这么久,有些时候实在是太离谱了。我们聊了半天,总结了一些大模型从业者的至暗时刻——调研测试新出的AI应用,买了会员公司不报销,痛失20刀。,还忘了取消自动续费,深夜又被扣了20刀。想到了个自以为天才的产品点子,结果发现别人早就做过了。,才结果发现别人早就做过了,且并没有火。产品终于上线了,用户列表一共9个人,其中5个是同事。拥抱了半年大模型,公司买显卡买数据,最终赔了几百万。

2024-06-06 12:02:06 778

原创 AI产品经理是如何炼成的?青铜逆袭必修课

深度学习相较其他机器学习最厉害的一点:可以对数据特征进行预处理(省去数据人工标注的麻烦,同时可以对更多维和复杂的特征进行向量提取和空间向量的转换,方便后续处理),这也是它为什么很多层的原因,因为其中多出来的层数都是要用来进行数据特征提取预处理的。从而从当前行业痛点入手,寻找具有商业价值并足够细分的垂直场景分析透彻,提炼出场景中可以帮助产品建立优势的关键点,评估投入产出比,调研用户若使用我们的产品解决当前问题愿意支付的价格,之后制定合适的商业推广策略和产品定价包装策略,最终实现产品变现。

2024-06-06 11:59:13 836

原创 AI产品经理薪资30k起步?0基础可以转行AI产品吗?

AI产品经理是对AI技术应用和功能落地负责,并为公司带来商业价值的一群人,主要集中在。

2024-06-06 11:56:03 594

原创 LangChain:简化大模型应用

LangChain 框架提供了常见用例的抽象,简化了大型语言模型(LLM)(如 OpenAI GPT4 或 Google PaLM)的应用。它支持 JavaScript 和 Python。为了弄清楚为什么需要 LangChain,我们先来看下 LLM 的工作原理。本质上,LLM 是统计模型,它可以从一组给定的文本块(从一个字符到几个单词都可以)预测下一组文本块。起初的文本块称为提示,提示工程是一门通过提供最合适的提示集来优化 LLM 预测结果的艺术。

2024-06-05 11:58:22 802

原创 基于LangChain的Prompt模板

LangChain是一个开源库,它致力于让开发基于LLM的AI应用更简单,它是一个AI开发领域的万能适配器。

2024-06-05 11:54:38 789

原创 Prompt提示词助力AI写作

Prompt说白了就是人机对话,你更好的向机器提问,机器才能更好的回答你的问题。所以与AI对话也是一门艺术哦,

2024-06-05 11:47:10 884

原创 Langchain的一些问题和替代选择

本文只总结了Langchain用户在使用中遇到的一些问题,并非所有使用过Langchain的人都会遇到,但是也不能保证你以后不会遇到,所以还是应该注意这些别人遇到的问题。虽然Langchain对于初学者来说是一个强大的工具,但是随着对框架的学习和理解的加深,应该意识到有更有效和直接的方法来处理高级任务。Langchain非常适合入门,但不一定适合生产。​。

2024-06-04 11:42:30 326

原创 聊聊大模型:开源LLaMA背后的底层逻辑与赚钱之道?大模型的发展瓶颈?如何一键部署LLaMA3?

如果我们相信未来比今天更好,坚信自己生活在一个好地方,所要做的便是认识到未来时代的特征和规律。把握住一些不变的道理,使用正确的方法,做那些能够不断让自己获得可叠加式进步的事情,这样便能立于不败之地。—吴军最近关注两个方向,也是公司重点发展和投资的两个方向,一是数据资产入表,二是大模型及应用。前段时间写数据资产入表相关内容更多一些,利用假期,把最近一些大模型相关的信息做一个整理,给大家做一个分享。背后的商业逻辑与赚钱之道*

2024-06-04 11:39:48 1251

原创 大模型之战:你降你的,赢家却是Ta?

回过头来看,大模型打价格战,不一定是个坏事。毕竟它可以吸引到更多开发者和企业来尝试这项新技术。但新技术的普及,不能只依赖降价,关键还得看产品能不能解决用户的实际问题。随着这些厂商纷纷降价,我相信会有更多优秀的AI产品脱颖而出。到那时,商业化的路径就会像地图上的路线一样清晰,用户自然也会愿意为那些真正有价值的好产品掏腰包。然而我们也要客观看待现状,好产品的打磨,不是一朝一夕的事。就拿天工AI PPT来说,虽然它在很多方面都让人眼前一亮,但相比同类竞品,也会有不完善的地方。

2024-06-04 11:34:57 913

原创 浅谈AI大模型的数据特点和应用问题

综上所述,目前大模型规模化应用存在的成本、性能、安全和商业变现等问题,制约着其中数据要素价值的进一步发挥。如何将大模型中的价值数据转化为可量化、可交易、可持续增值的资产,并推动大模型产业和数据要素市场的高质量健康发展,是当前大模型平台方、数据持有方、数据使用方和数据监管方等多元主体共同关心的话题。​。

2024-06-04 11:32:29 926

原创 从LangChain升级LangGraph,大幅提升智能体性能

迁移至LangGraph的智能体会获得更深层次的能力和灵活性。按照既定步骤并理解系统消息的概念,将有助于实现平滑过渡,并优化智能体的性能表现。为了获得更全面的迁移指导和掌握高级技术,建议查阅官方LangChain文档。​。

2024-06-03 11:58:52 750

原创 【AI】如何优雅而又装逼的使用LangChain?

LangChain的LangGraph Agents为制定智能工作流程提供了一个强大的平台,集成Retriever-Augmented Generator(RAG)模型将电子邮件通信的效率提升到一个新的水平。本文探讨了 RAG 如何专门用于回复客户电子邮件的 LangChain 代理。

2024-06-03 11:54:12 649

原创 无限可能LangChain——开启大模型世界

大语言模型是一种人工智能模型,通常使用深度学习技术(如神经网络)来理解和生成人类语言。这些模型拥有非常多的参数,可以达到数十亿甚至更多,使得它们能够处理高度复杂的语言模式。我们可以将大语言模型视为一个巨大的预测机器,其训练过程基于“猜词”任务:给定一段文本的开头,模型需要预测下一个词是什么。通过大量的训练数据(如互联网上的文本),模型试图理解词语和词组的用法和含义,以及它们如何组合形成意义。通过不断学习和调整参数,模型的预测能力变得越来越准确。

2024-06-03 11:37:29 538

原创 Langchain新玩法:LangGraph赋能RAG Agent,自适应、自校正、Self-RAG,一网打尽!

Langchain的新框架,LangGraph结合3个突破性的框架:Corrective Retrieval Augmented Generation (CRAG,自纠正检索增强生成), Self-Reflective Retrieval-Augmented Generation (Self-RAG,自反射检索增强生成) , Adaptive QA framework(自适应 QA 框架)。重新定义语言模型的能力。

2024-05-31 16:47:48 570

原创 独家 | 开始使用LangChain:帮助你构建LLM驱动应用的新手教程

自从ChatGPT发布以来,大型语言模型 (LLMs) 已经获得了很大的普及。尽管你可能没有足够的资金和计算资源在你的地下室从头开始训练一个LLM,但你仍然可以使用预先训练的LLMs来构建一些很酷的东西,例如:凭借其怪异的api和快速的工程设计,LLMs正在改变我们构建人工智能产品的方式。这就是为什么新的开发工具在 “LLMOpS” 一词下随处可见,其中一个新工具是LangChain(https://github.com/hwchase17/langchain)。什么是LangChain?LangChain

2024-05-31 16:45:48 990

原创 深度|LangChain大革新:与其开发者一起探索开源AI框架的未来与挑战

各位听众,欢迎再次加入我们的《No Priors》节目。今天,我们有幸邀请到Harrison Chase,LangChain的首席执行官兼联合创始人。LangChain是一个受欢迎的开源框架和开发者工具包,帮助人们构建LLM应用程序。我们很兴奋能与Harrison谈论AI应用开发的现状、开源生态系统及其开放性问题。欢迎你,Harrison。

2024-05-31 16:36:27 762

原创 解析大模型的参数世界:权重、偏差及不可解释性

我们今天讨论了模型参数的本质、作用及其重要性。模型参数,无论是权重还是偏差,都是定义神经网络行为的核心因素,它们如同是模型的神经系统,通过调节和学习,使得模型能够捕捉复杂的数据模式,从而执行如分类、预测等任务。然而,正如本文所述,尽管参数的数量和复杂度为模型提供了学习深层模式的能力,它们也带来了不可解释性和计算负担。每一个进步,特别是接二连三的大模型技术的突破,无论是参数的增加还是模型结构的优化,都让我们离“理解”模型的真正工作原理更远一步。

2024-05-30 15:30:00 973

原创 【LangChain-Chatchat】本地部署模型及搭建个人/企业内部知识库

基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。该项目支持开源 LLM 与 Embedding 模型,亦可实现全部使用开源模型离线私有部署。与此同时,也支持 OpenAI GPT API 的调用,当前最新版本为0.2.10。0.3x版本可以关注作者的项目地址。支持加载本地模型及联网模型如智谱AI、阿里云通义千问、百川、讯飞星火、百度千帆、字节火山方舟、ChatGPT、Gimini和Azure OpenAI。

2024-05-30 15:00:00 741

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除