- 博客(2545)
- 收藏
- 关注
原创 解决方案怎么写
解决方案是特定问题或需求行动计划或建议书。:明确需要解决的问题是什么,包括问题的性质、规模和影响范围。:确定解决问题后希望达到的目标或结果。:规划解决问题的方法和步骤,可能包括技术方案、流程改进、资源分配等。:详细描述如何执行策略,包括时间表、责任分配、资源配置等。:分析可能遇到的风险和挑战,以及应对这些风险的策略。:制定如何评估解决方案效果的标准和方法。在实际应用中,解决方案可以是针对个人的小问题,也可以是针对企业乃至行业的大型项目。
2024-03-19 08:47:36 73
原创 应用场景怎么写
应用场景是产品或服务实际应用环境和情境。应用场景的概念在产品设计和市场营销中非常重要,它帮助设计者和营销人员更好地理解用户的需求和使用习惯。:应用场景描述了用户使用产品时的环境背景,包括用户所在的地点、周围的事物以及可能的社会互动情况。:它还包括用户使用产品的目的或目标,即用户希望通过产品解决什么问题或满足什么需求。:应用场景还涉及用户为了达到目标而进行的一系列活动和事件的顺序。
2024-03-19 08:31:07 51
原创 词向量与独热编码
举例来说,在使用 Word2Vec 训练得到的词向量中,相似的词会被映射到向量空间中相近的位置,比如“king”和“queen”会有相似的向量表示。综上所述,词嵌入不仅仅是将词汇数字化的简单过程,它还涉及到对词汇语义信息的编码,以及对上下文的理解,这些都是提高自然语言处理任务效果的关键因素。:一些先进的词嵌入模型如ELMo和BERT考虑了上下文信息,生成的词向量能够根据上下文的不同而变化,从而提供更丰富的语言理解能力。:相比独热编码,词嵌入大幅降低了数据的维度,提高了计算效率并减轻了维度灾难的问题。
2024-03-18 16:43:51 157
转载 9 个B端设计系统
综上所述,这 9 个B端设计系统都是非常优秀的设计工具,它们都拥有丰富的设计组件和模板,用于构建高质量的企业级应用。Pixso提供了丰富的设计工具和组件,包括UI组件、图标、样式库和设计系统等,可以帮助开发者快速构建高质量的企业级应用。B端设计系统在这个领域中扮演着重要的角色。总的来说,使用Pixso快速搭建B端设计系统,可以提高设计效率和一致性,减少设计中的错误和重复工作。第一步:B端设计系统的结构,需要对设计系统进行结构化规划,确定组件库、颜色、字体、图标等设计元素,以及它们之间的关系和规范。
2024-03-18 15:12:42 4
转载 LIMS-实验室信息管理系统
实验室信息管理系统(Laboratory Information Management System 英文缩写LIMS)是将以数据库为核心的信息化技术与实验室管理需求相结合的信息化管理工具。以ISO/IEC17025:2017 CNAS-CL01《检测和校准实验室能力的通用要求》(国标为GB/T 27025:2008)规范为基础,结合网络化技术,将实验室的业务流程和一切资源以及行政管理等以合理方式进行管理。通过LIMS系统,配合分析数据的自动采集和分析,大大提高了实验室的检测效率;
2024-03-18 15:02:15 4
转载 词嵌入技术
词嵌入实际上是一类技术,单个词在预定义的向量空间中被表示为实数向量,每个单词都映射到一个向量。举个例子,比如在一个文本中包含“猫”“狗”“爱情”等若干单词,而这若干单词映射到向量空间中,“猫”对应的向量为(0.1 0.2 0.3),“狗”对应的向量为(0.2 0.2 0.4),“爱情”对应的映射为(-0.4 -0.5 -0.2)(本数据仅为示意)。像这种将文本X{x1,x2,x3,x4,x5……xn}映射到多维向量空间Y{y1,y2,y3,y4,y5……yn },这个映射的过程就叫做词嵌入。
2024-03-15 14:03:22 12
原创 CPU封装类型
CPU封装是指将CPU芯片(即处理器核心)与电路板连接,并加以保护的技术过程。这一过程对于CPU的稳定性和性能至关重要。目前,主要的CPU封装类型包括LGA、PGA和BGA。这是Intel CPU常用的封装方式,特点是CPU底部有一系列金属接触点,需要与主板上的插槽相互对接。LGA是“Land Grid Array”的缩写,中文通常称为“平面网格阵列”,是一种CPU的封装形式。在LGA封装中,CPU底部没有针脚,而是有一系列金属触点,这些触点与主板上的插槽相互对接。
2024-03-15 11:29:30 889
原创 LORA技术
此外,LoRA在RoBERTa、DeBERTa、GPT-2和GPT-3模型的模型质量方面表现与微调相当或更好,尽管它具有较少的可训练参数,更高的训练吞吐量,并且不像适配器(adapters),不会增加推理延迟。而LoRA可以训练较少的参数得到更好的结果。总的来说,LORA提供了一种在保持预训练模型参数不变的情况下,通过增加少量可训练参数来实现对大模型进行微调的方法。冻结预训练模型的权重,并将可训练的秩分解矩阵注入到Transformer体系结构的每个层中,从而大大减少了下游任务所需的可训练参数数量。
2024-03-14 16:34:16 766
转载 全球首位AI软件工程师Devin问世:能自学新语言、开发迭代App、自动Debug
IT之家 3 月 13 日消息,初创公司 Cognition 近日发布公告,宣布推出全球首个 AI 软件工程师 Devin,并号称会彻底改变人类构建软件的方式。Devin 擅长长期推理能力,可以自主规划和完成软件项目,并在此过程中做出数以千计的准确决策。Devin 在 SWE-bench 编码基准测试中取得了突破性的成功,展示了其执行复杂任务的能力,甚至超越了顶尖的人类工程师。有了 Devin,工程师可以专注于更有趣的问题,工程团队可以努力实现更远大的目标。
2024-03-14 16:17:14 15
转载 使用LlamaIndex,Qdrant,Ollama和FastAPI构建本地RAG api
ChatGPT已经改变了我们与AI的互动方式。人们现在将这些大型语言模型(LLMs)作为主要的个人助手来进行写作、头脑风暴甚至咨询。然而,这些LLMs的问题在于,它们的表现只能和它们接受的训练数据一样好。例如,如果一家公司想要向ChatGPT查询一份内部文件,ChatGPT可能无法理解它。此外,它的知识可能不是最新的,而且容易产生幻觉。为了解决这个问题,我们可以在我们的数据上对这些LLMs进行微调,使它们能够从中回答问题。然而,这种方法可能非常昂贵。
2024-03-14 10:37:35 22
转载 全面解读AI框架RAG
RAG,即检索增强生成,英文的缩写。RAG可以通过将检索模型和生成模型结合在一起,从而提高了生成内容的相关性和质量。通俗一点讲就是大模型LLM如何很好的与外部知识源结合在一起, 使其生成的内容质量更高,缓解大模型LLM生成内容「幻觉」的问题。检索模型检索模型旨在从一组给定的文档或知识库中检索相关信息。检索模型的工作就像是在一个巨大的图书馆中寻找信息。设想你有成千上万本书籍和文章,当你提出一个问题时,检索模型就像一个聪明的图书管理员,能迅速理解你的问题并找到与之最相关的最佳信息。
2024-03-14 10:30:00 10
原创 RAG-检索增强生成
检索增强生成(RAG)技术是一种优化大型语言模型(LLM)输出的方法,它通过在生成响应之前引用训练数据来源之外的权威知识库来提高答案的质量和准确性。
2024-03-14 10:17:07 794
转载 如何借助LLMs构建支持文本、表格、图片的知识库
然后,它将执行后处理,将落在每个 title 下的文本聚合起来,并根据用户特定的标志(例如,最小块大小等)进一步将其分块为用于下游处理的文本块。如果数据隐私是一个问题,这个RAG流程可以在消费者笔记本电脑上本地运行,使用开源组件,包括LLaVA 7b进行图像摘要,Chroma向量存储,开源嵌入(Nomic的GPT4All),多向量检索器,以及通过Ollama.ai的LLaMA2-13b-chat进行答案生成。2. 摘要嵌入,在嵌入文档摘要上进行Top K检索,用完整的文档,作为 LLM 的上下文。
2024-03-14 10:00:02 10
转载 轻松创建知识库:开源工具AnythingLLM
AnythingLLM 是一个开源的、可定制的、功能丰富的文档聊天机器人。它专为那些希望与之智能对话或利用现有文档构建知识库的任何人设计。这是一个全栈应用程序,它能够将任何文档、资源或内容片段转化为大语言模型(LLM)在聊天中可以利用的相关上下文。该应用允许用户选择并配置要使用的LLM或向量数据库,并支持多用户管理及权限控制,以确保数据安全和高效协作。
2024-03-14 09:54:53 54
转载 一文看懂LlamaIndex用法,为LLMs学习私有知识
默认情况,llamaIndex 使用,也可以用别的构建 Index...基于使用的Index,llamaIndex 会使用默认的 prompt 模板进行构建 Index(插入 or 创建), 也可以自定义link。对于自定义 embedding 的模型,也可以自定义 embeddinglink。
2024-03-14 09:52:05 13
原创 LLaMA
据Meta创始人扎克伯格透露,Llama 1已经可以与OpenAI的ChatGPT和谷歌的Bard聊天机器人的模型竞争。LLaMA 2大语言模型系列是经过预训练和微调的生成式文本模型,其参数数量从70亿到700亿不等。
2024-03-14 08:40:51 297
原创 ollama介绍
例如,至少需要 8GB 的内存/显存来运行 7B 模型,至少需要 16GB 来运行 13B 模型,至少需要 32GB 来运行 34B 的模型。:Ollama 支持多种大型语言模型,如 Llama 2、Code Llama、Mistral、Gemma 等,并允许用户根据特定需求定制和创建自己的模型。:它将模型权重、配置和数据捆绑到一个包中,称为 Modelfile,这有助于优化设置和配置细节,包括 GPU 使用情况。:安装完成后,用户可以通过简单的命令行操作启动和运行大型语言模型。
2024-03-13 13:43:13 792
转载 uni-app
uni-app(uni,读you ni,是统一的意思)是一个使用Vue.js开发所有前端应用的框架,开发者编写一套代码,可发布到iOS、Android、Web(响应式)、以及各种小程序、快应用等多个平台。
2024-03-13 08:24:24 16
原创 全域流量、付费流量、自然流量
全域流量、付费流量和自然流量是互联网营销中的三个重要概念。1)指的是全网、全渠道、全媒体的互联网流量经营模式。2)它涵盖了企业自身的独立站点,以及通过多个渠道(如推荐、直播广场、商城、搜索等)获取的流量。3)全域流量的目的是打破付费和自然流量的边界,实现流量的最大化利用。1)是指通过支付广告费用在特定平台上获得的流量。2)它通常包括搜索引擎广告、社交媒体广告、内容推广平台广告等形式。3)付费流量可以快速增加曝光度和访问量,但需要投入成本。1)是指。
2024-03-10 10:07:14 252
原创 带货模式有哪些
:这种模式下,个人通过建立自己在某个领域的专业形象,成为KOL(关键意见领袖),利用个人IP影响力进行产品推荐和销售。主播在直播间介绍在售产品,结合观众留言进行互动讲解。这种模式侧重于产品的展示和销售,要求主播具备亲切感和专业知识。主播前往由供应链构建的直播基地进行直播,基地提供商品和较好的直播环境,有时会采用“双簧”形式吸引客户下单。:适用于自产自销或产地直销的商品,如农产品、海鲜等,直播内容简单直接,展示产品来源和新鲜度。
2024-03-09 22:29:26 538
原创 短视频介绍
:短视频的制作不需要复杂的设备和技术,一部智能手机就可以完成拍摄、编辑到发布的全过程。:相比传统的视频制作,短视频让更多普通用户能够轻松参与进来,创作出自己的作品。:短视频的制作周期相对较短,可以迅速响应时事热点,满足用户对即时信息的需求。:短视频内容涵盖了技能分享、幽默搞怪、生活记录等多个领域,形式多样,内容丰富。短视频的传播平台包括抖音、快手等,这些平台通过算法推荐机制,让用户能够看到他们可能感兴趣的内容。这种推荐机制使得短视频能够快速获得大量观众的关注。
2024-03-09 22:21:46 988
原创 私域流量与公域流量
私域流量的核心在于,企业或个人通过建立自己的通信渠道(如微信公众号、APP、微信小程序等),积累用户群体,并能够反复地、无需额外付费地与这些用户进行互动和沟通。:企业可以自主运营,不受第三方平台规则限制。:无需为触达用户支付额外费用,降低了营销成本。:通过持续的互动,可以提高用户的忠诚度和活跃度。:企业可以更好地收集和分析用户数据,优化产品和服务。私域流量并不是一个全新的概念,而是随着互联网的发展和商业模式的演变而产生的一种新的营销方式。它与公域流量相对,
2024-03-09 22:08:36 747
转载 大模型开发 - 一文搞懂Encoder-Decoder工作原理
通过计算Decoder的隐藏状态与Encoder输出的每个词的隐藏状态的相似度(Score),进而得到每个词的Attention Weight,再将这些Weight与Encoder的隐藏状态加权求和,生成一个Context Vector。1)编码器(Encoder):使用一个循环神经网络(RNN)作为编码器(Encoder),读取输入句子,并将其压缩成一个固定维度的编码。2)Attention 机制像人类看图片的逻辑,当我们看一张图片的时候,我们并没有看清图片的全部内容,而是将注意力集中在了图片的焦点上。
2024-03-09 11:18:40 48
转载 讯飞星火大模型Prompt工程指南
Prompt是一种基于人工智能(AI)指令的技术,通过明确而具体的指导语言模型的输出。在提示词工程中,Prompt的定义涵盖了任务、指令和角色三个主要元素,以确保模型生成符合用户需求的文本。1)任务: Prompt明确而简洁地陈述了用户要求模型生成的内容。这包括在特定应用场景中,用户希望模型完成的任务或生成的文本类型。2)指令: 模型在生成文本时应遵循的指令是Prompt中的关键要素之一。这些指令具体规定了模型生成文本的方式,通过清晰的语言来引导模型以获得所需的输出。
2024-03-08 16:55:23 55
原创 生成式AI
生成式AI是一种基于机器学习的人工智能技术,它通过分析大量数据中的模式和结构,能够创造出新的原创内容,如文本、图像、代码等。生成式AI的工作原理涉及深度学习,这是一种复杂的计算过程,它使模型能够识别现有数据中的常见模式和排列,并据此创建新的、令人信服的输出。这些模型通常依赖于神经网络,这是受到人脑处理和解释信息方式启发的技术。生成式AI模型的类型多样,包括了能够执行多个任务的基础模型,如GPT-3和稳定扩散。
2024-03-08 16:43:03 1065
转载 AI Agent(或者LLM Agent)深度讲解
AI Agent是一种超越简单文本生成的人工智能系统。它使用大型语言模型(LLM)作为其核心计算引擎,使其能够进行对话、执行任务、推理并展现一定程度的自主性。简而言之,Agent是一个具有复杂推理能力、记忆和执行任务手段的系统。
2024-03-08 16:15:27 71
转载 AI介绍——chat gpt/文心一言/claude/bard/星火大模型/bing AI
Claude 是一款开源的中文聊天机器人。它由 Anthropic 开发,用于自然对话和问答。Claude 具有以下主要功能:1)自然语言理解能力。claude 可以理解人类的自然语言,并做出相应的响应。2)知识图谱。claude 内置了大量常识知识,这些知识来源于维基百科和其他开放数据源。3)智能问答。claude 可以自动回答关于常识知识的问题。如果它没有找到准确的答案,它会说“我不知道”。4)可扩展的知识。claude 的知识是动态扩展的,会随着时间的推移而不断丰富。5)中文支持。
2024-03-08 13:26:50 145
转载 Gemini
Gemini是一款由Google DeepMind(谷歌母公司Alphabet下设立的人工智能实验室)于2023年12月6日发布的人工智能模型,可同时识别文本、图像、音频、视频和代码五种类型信息,还可以理解并生成主流编程语言(如Python、Java、C++)的高质量代码,并拥有全面的安全性评估。
2024-03-08 11:59:50 8
原创 大型语言模型(LLM)中的token
根据不同的标记化方案,一个token可以是一个单词,单词的一部分(如子词),甚至是一个字符。然而,这不是固定的规则,因为不同语言的特点和所使用的标记化算法会影响token的长度和划分方式。:Token作为原始文本数据与LLM可以使用的数字表示之间的桥梁,帮助模型确保文本的连贯性和一致性,从而有效处理各种任务,如写作、翻译和回答查询。综上所述,token在LLM中扮演着至关重要的角色,它是连接人类语言和计算机理解的纽带,使模型能够执行各种自然语言处理任务。,这限制了模型能够有效处理的文本长度。
2024-03-08 11:12:41 265
转载 统一身份管理平台IAM单点登录流程及第三方接口设计方案
请求类型GET/WEB网页访问请求示例参数说明参数名说明描述client_id应用标识客户端应用注册ID跳转地址跳转地址(uri编码)相应类型codestate任意值用于保持请求和回调状态,可用于防止CSRF攻击处理逻辑1、判断参数;2、验证client_id是否有效;3、校验redirect_uri;4、显示认证授权页面;5、验证身份后页面跳转至redirect_uri并附有参数授权码(写入Cookie中)。返回值。
2024-03-07 17:08:46 19
转载 MaxKey单点登录认证系统
单点登录认证系统,谐音马克思的钥匙,寓意是最大钥匙,是,支持OAuth 2.x/OpenID Connect、SAML 2.0、JWT、CAS、SCIM等标准协议,提供的用户身份管理(IDM)、身份认证(AM)、单点登录(SSO)、RBAC权限管理和资源管理等。MaxKey注重企业级场景下的性能、安全和易用性,广泛应用于医疗、金融、政府和制造等行业。官方网站代码托管简称为,用户只需要登录认证中心一次就可以访问所有相互信任的应用系统,无需再次登录。1)所有应用系统共享一个身份认证系统。
2024-03-07 16:58:25 11
转载 ajax之HttpOnly cookie 如何与 AJAX 请求配合使用
抱歉,我的意思是您可以将 XMLHttpRequest 发送到 StackOverflow 域,然后将 getAllResponseHeaders() 的结果保存到字符串中,用正则表达式输出 cookie,然后发布该结果到外部域。您通常可以注入(inject)脚本以使用 iframe 远程处理或 JSONP 将 cookie 发送到您的域,但 HTTP-Only 会再次保护 cookie,因为它无法访问。,但我仍然可以窃取您的 cookie 并使用 XMLHttpRequest 对象将其发布到我的域。
2024-03-07 16:05:57 7
转载 前端关于单点登录的知识
单点登录(Single Sign On),简称为 SSO,是目前比较流行的企业业务整合的解决方案之一。SSO的定义是在多个应用系统中,用户只需要登录一次就可以访问所有相互信任的应用系统(其实是信任认证中心。SSO一般都需要一个独立的认证中心(passport),子系统的登录均得通过passport,子系统本身将不参与登录操作,当一个系统成功登录以后,passport将会颁发一个令牌给各个子系统,子系统可以拿着令牌会获取各自的受保护资源。
2024-03-05 15:53:33 16
转载 SpringSecurity-OAuth2
密码模式(resource owner password credentials),用户向客户端提供自己在认证服务器上的用户和密码,然后客户端通过用户提供的用户名和密码向认证服务器获取令牌。这个用户名和密码和客户端id和密码是不一样的,客户端ID和密码是应用系统的标识,每个应用系统对应一个客户端id和密码。框架所解决的问题,在这种模式下,用户直接向客户端注册,客户端以自己的名义向认证服务器提供服务,实际上并不存在授权问题。,"服务提供商"根据令牌的权限范围和有效期,向"第三方应用"开放用户对应的资源。
2024-03-05 11:35:40 13
转载 什么是信创云
信创云,是指在信息技术应用创新的背景下,以国产化的CPU、操作系统为底座的自主研发的云平台,统筹利用计算、存储、网络、安全、应用支撑、信息资源等软硬件资源,发挥云计算虚拟化、高可靠性、高通用性、高可扩展性及快速、弹性、按需自助服务等特征,提供可信的计算、网络和存储能力。。云计算当前已成为新基建的关键支撑技术,是推动数字经济与实体经济深度融合的催化剂、重点领域数字产业发展的助推器,是建设数字中国必不可少的一环。,即信创云平台须是自主可控、安全可信的云平台。
2024-03-05 08:40:29 12
转载 使用ChatGTP4的Coze AI
GPT4有什么优点?但缺点是价格昂贵而且网络问题(需要魔法)导致很多人无法使用GPT-4Coze可以免费使用GPT4,并且可以基于GPT更快地构建上层应用Coze目前支持完整的应用程序编辑,配置了海量插件,如联网、画图、同步notion等等,可以更方便地可视化定义自己的工作流。官方市场还提供了大量的机器人,无论你是否已经使用GPT-4,都不能错过Coze。然后用抖音扫一扫就行,当然你也可以选手机验证码登录。登陆后这些工具都能直接免费用,就是GPTs了。无需任何配置直接用,如果自己有需求可以微调。
2024-03-03 17:02:13 47
转载 Luna AI
用户上传预先设定好的“人物设定”文件(pdf、txt等文本文件),让用户自定义配置角色背景信息、设定当用户输入一个查询时,这个系统首先会在本地文档集合中进行相似性搜索,寻找与查询最相关的文档然后,它会把这些相关文档以及用户的查询作为输入,传递给语言模型。这个语言模型会基于这些输入生成一个答案如果系统在本地文档集合中找不到任何与用户查询相关的文档,或者如果语言模型无法基于给定的输入生成一个有意义的答案,那么这个系统可能就无法回答用户的查询POST修改配置文件。
2024-03-02 21:46:43 131
转载 大模型Groq
GPT-4还没吃上,谷歌的GeMini来了;文字生成还没弄懂,生成视频的Sora又火了。这几天,号称世界最快的大模型Grop又刷屏了,号称比GPT-4快18倍,每秒输出500token。经过这一年不停对认知的刷新,你会发现——本文的主角Groq,这完全是杀出来的一匹黑马。最关键的是——外国网友把Groq和GPT-4、Gemini进行了对比;在速度上,Groq完全碾压两者,在输出速度上比Gemini快10倍,比GPT-4快18倍。
2024-03-02 20:44:07 76
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人