![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
大模型
文章平均质量分 88
关于大模型的概念,用法,方案等
伯牙碎琴
知识搬运工,搬着搬着就熟了,不是熟悉的熟是成熟的熟o(╥﹏╥)o
展开
-
二、大模型原理(Transformer )
Transformer是一种基于自注意力机制(Self-Attention Mechanism)的深度学习模型,它在2017年由Vaswani等人在论文《Attention Is All You Need》中提出。Transformer模型的出现极大地推动了自然语言处理(NLP)领域的发展,尤其是在机器翻译、文本摘要、问答系统等任务中表现出色。原创 2024-06-26 10:35:03 · 965 阅读 · 0 评论 -
五、大模型-Prompt
当使用大型语言模型(如GPT-3)时,"prompt" 是指您向模型提供的输入文本或指令,用于引导模型生成相应的输出。原创 2024-03-18 09:46:42 · 12269 阅读 · 1 评论 -
十一、大模型-Semantic Kernel与 LangChain 的对比
代表了微软在 AI 应用开发领域的探索,其功能和 LangChain 有所相似,但 Semantic Kernel 是为应用开发开发人员创建的,使构建企业 AI 编排器变得容易,这是 Copilot Stack 的中心。LangChain则是由 Harrison Chase 创立,其职业是 ML 工程师,更多是从 ML 工程师角度架构应用,LangChain 开源社区的贡献非常活跃,目前已经有 29k star。原创 2024-04-30 09:15:08 · 2725 阅读 · 0 评论 -
十、大模型-Semantic Kernel 介绍
Semantic Kernel 是一个开源的软件开发工具包(SDK),它允许开发人员轻松地将大型语言模型(LLM)与传统编程语言(如C#、Python和Java)相结合。通过Semantic Kernel,开发人员可以创建应用程序,这些应用程序结合了两个世界的优点,即传统编程语言的精确性和灵活性与大型语言模型的自然语言理解和生成能力。Semantic Kernel 提供了一系列核心组件,包括自定义插件、编排计划、信息存储至数据库等功能,使得开发人员能够构建能够回答问题和自动化流程的代理程序。原创 2024-04-30 09:07:15 · 876 阅读 · 0 评论 -
九、大模型-LangChain介绍
LangChain 是一个基于大型语言模型(LLM)的编程框架,它允许开发者利用 LLM 构建端到端的应用程序。LangChain 的核心在于将不同的组件“链”在一起,以创建更高级的 LLM 用例。这些组件可能包括提示模板(PromptTemplates)、LLM 模型(如 GPT-3 或 BLOOM)、以及代理(Agents),它们共同工作来实现特定的功能,如聊天机器人、生成式问答、摘要等25678910。原创 2024-03-27 09:27:15 · 973 阅读 · 0 评论 -
八、大模型-Function Calling
简单来说,就是大模型函数调用,不是你直接调用大模型函数,而是你告诉大模型一个函数,大模型根据你喂给他的数据和参数执行函数调用返回给你想要的函数执行结果,好处就是你可以借助大模型的自然语言理解能力实现自然语言的函数调用。大模型这一能力大大增加了私有定制模型的扩展性!原创 2024-03-21 10:06:04 · 1983 阅读 · 0 评论 -
四、大模型-企业集成openAI技术指导方案(二)
如果您有需要,可以考虑实现对OpenAI GPT模型进行微调或自定义训练的功能。这样可以根据特定领域或任务需求来优化模型性能。原创 2024-03-16 18:58:58 · 676 阅读 · 0 评论 -
七、大模型-什么是Fine-tuning
Fine-tuning 是指在一个已经训练好的模型基础上,通过使用新的数据集或任务来进一步调整模型参数的过程。通常情况下,已经训练好的模型是在大规模数据集上进行训练得到的,而 Fine-tuning 则可以使模型适应新的特定任务或数据集。原创 2024-03-20 09:12:41 · 1712 阅读 · 0 评论 -
六、大模型-Prompt-API介绍
GPT-3.5 API 提供了一个名为的端点,您可以使用该端点来与 ChatGPT 进行交互。以下是。原创 2024-03-18 09:53:05 · 734 阅读 · 0 评论 -
三、大模型-企业集成openAI技术指导方案
请注意,在整个过程中,要遵守OpenAI API的使用政策和要求,确保合规性和法律的遵守。同时,与OpenAI保持紧密联系,获取技术支持和指导,确保顺利开发和部署OpenAI集成应用。原创 2024-03-16 17:57:02 · 769 阅读 · 0 评论 -
二、大模型-企业集成openAI理论指导方案
最后,建议您建立一个跨职能团队,包括开发人员、数据科学家、产品经理和法务专家等,共同参与和支持OpenAI的集成工作。:建立反馈循环和改进流程,与用户保持密切联系,并及时收集和处理用户的反馈和建议。:了解OpenAI API的使用限制和配额,并根据您的需求进行合理的规划和管理。:根据您的具体需求和数据,对OpenAI提供的模型进行调优和微调,以适应特定的任务和领域。:对集成的OpenAI模型进行持续改进和学习,探索新的技术和方法,以提升性能和适应不断变化的需求。原创 2024-03-16 17:32:50 · 506 阅读 · 0 评论 -
一、大模型—概念
大模型通常指的是参数规模庞大、训练难度较高的人工智能模型。随着深度学习技术的发展,研究人员和企业越来越倾向于构建更大的模型,以提高模型的性能和泛化能力。这些大模型往往需要大量的数据和计算资源来训练,并且在实际应用中通常表现出色。原创 2024-03-16 16:54:35 · 2326 阅读 · 0 评论