Cachel wood
这个作者很懒,什么都没留下…
展开
-
智谱AI ChatGLM-4使用教程:Prompt工程
如果后续章节的理解需要依赖于前面章节的信息,那么在当前部分的总结中附加之前内容的连贯摘要,能够显著提升模型的生成质量。在长对话中,为了确保对话的连贯性和有效性,对之前的交流内容进行精炼和总结,可以保持对话的焦点、减少重复和混乱、加快模型处理速度。方法访问智谱开放平台的知识库,用户可上传相关的知识到知识库,模型将基于用户的查询,,提取相关的语义切片,提供更加精准详细的信息。指定按照具体的长度的输出内容,但是让模型精确的生成一个特定的字数难以实现。当你理解用户的预约会议室的意图时,提取相关的实体,并且以。原创 2024-07-01 22:49:21 · 418 阅读 · 0 评论 -
智谱AI ChatGLM-4使用教程:网络搜索
使用参数可以自定义搜索内容,提升搜索结果的相关性和精确度。如果不传参数,系统将根据用户的消息自动进行网页检索。client = ZhipuAI(api_key="您的APIKey")tools = [{"search_query": "自定义搜索的关键词"}]"content": "中国 2024 年一季度的GDP是多少"}]原创 2024-07-01 01:05:47 · 168 阅读 · 0 评论 -
智谱AI ChatGLM-4使用教程:增强检索
通过在大语言模型生成答案之前,先从知识库中检索相关知识,然后将相关知识作为背景信息输入给大模型,有效地提升内容的准确性和相关性。支持将doc、docx、pdf、xlsx类型文件上传到知识库,支持自定义文件切片的大小和规则。文件大小不得超过50MB。用于管理文件,支持上传多个文件,并通过关联知识库ID后进行调用。知识库最大容量为1G、调用方式请参考接口文档。创建知识库后,您将获得一个知识库ID。调用模型服务时,传入知识库ID,使大模型能获取相关内容以响应用户查询。原创 2024-06-30 23:54:05 · 83 阅读 · 0 评论 -
智谱AI ChatGLM-4使用教程:函数调用Function calling(赠送免费500w token)
北京智谱华章科技有限公司(简称“智谱AI”)致力于打造新一代认知智能大模型,专注于做大模型的中国创新。公司合作研发了中英双语千亿级超大规模预训练模型GLM-130B,并基于此推出对话模型ChatGLM,开源单卡版模型ChatGLM-6B。同时,团队还打造了AIGC模型及产品矩阵,包括AI提效助手智谱清言、高效率代码模型CodeGeeX、多模态理解模型CogVLM和文生图模型CogView等。公司践行的市场理念,推出大模型MaaS开放平台(),打造高效率、通用化的“模型即服务”AI开发新范式。原创 2024-06-30 23:52:25 · 437 阅读 · 0 评论 -
cpolar内网穿透工具—无需部署,远程访问网址
cpolar是一种安全的内网穿透服务,它将局域网下面的本地服务器通过加密隧道暴露至公网,使得公网用户可以正常访问内网服务。只需一行命令,就可以将内网站点发布至公网,方便给客户演示。高效调试微信公众号、小程序、对接支付宝网关等云端服务,提高您的编程效率。原创 2024-05-27 00:27:27 · 130 阅读 · 0 评论 -
python调用阿里云通义千问(q-wen-max)API-创建智能体Agent
百炼能够让用户定制化构建一个assistant,这个assistant支持多种不同的指令()和描述(prompt),并且可以使用各类工具插件(plugins)和调用已选择的API来回答用户的问题。目前支持多种插件,如代码解释器、图片生成、夸克搜索等,也支持和自定义插件的录入。原创 2024-05-26 20:42:23 · 387 阅读 · 0 评论 -
python调用阿里云通义千问(q-wen-max)API-智能总结pdf文档内容
插件功能能够使得大模型的生成内容与外部三方应用结合,使得模型生成的内容更加准确和丰富,模型将拥有更好的生成能力。您也可以通过开发自定义插件,来使得模型生成更符合您预期的结果。通义千问的插件包括:文字识别、计算器、图片生成、万豪酒店预定推荐、可以让用户获得更多的能力,比如查询酒店信息,预定酒店、预定机票。可以获得更加实时性的消息,比如体育赛事报道、实时、热点新闻。链接,即可通过调用官方插件来总结文档。可以让用户构建专属的信息库。当然也可以自定义插件。原创 2024-05-26 20:05:20 · 257 阅读 · 0 评论 -
python调用阿里云通义千问(q-wen-max)API-TTS文本转语音
它将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的汉语口语(或者其他语言语音)输出的技术,隶属于语音合成(语音合成模型,官方默认提供以下模型可被调用,共有几十种,目前覆盖通用场景、语音播报、配音解说、阅读产品简介、数字人、直播等多种场景。音视频创作中需要将文字转为语音播报的场景,如小说阅读、新闻播报、影视解说、配音等。智能设备/机器人播报的语音内容,如智能客服机器人、智能音箱、数字人等。提交单个语音合成任务,通过回调的方式流式输出中间结果,合成结果通过。)的流式音频,并获取对应时间戳。原创 2024-05-26 17:10:23 · 333 阅读 · 0 评论 -
python利用向量数据库chroma实现RAG检索增强生成
向量数据库chroma教程RAG的全称是,中文翻译为检索增强生成。它是一个为大模型提供外部知识源的概念,这使它们能够生成准确且符合上下文的答案,同时能够减少模型幻觉。知识更新问题最先进的LLM会接受大量的训练数据,将广泛的常识知识存储在神经网络的权重中。然而,当我们在提示大模型生成训练数据之外的知识时,例如最新知识、特定领域知识等,LLM的输出可能会导致事实不准确,这就是我们常说的模型幻觉。即LLM的知识不可能实时更新。简单来说,RAG对于LLM来说就像学生的开卷考试一样。原创 2024-04-27 18:35:48 · 1029 阅读 · 3 评论 -
向量数据库chroma教程
向量数据库其实最早在传统的人工智能和机器学习场景中就有所应用。在大模型兴起后,由于目前大模型的token数限制,很多开发者倾向于将数据量庞大的知识、新闻、文献、语料等先通过嵌入(embedding)算法转变为向量数据,然后存储在Chroma等向量数据库中。当用户在大模型输入问题后,将问题本身也embedding,转化为向量,在向量数据库中查找与之最匹配的相关知识,组成大模型的上下文,将其输入给大模型,最终返回大模型处理后的文本给用户。原创 2024-04-27 17:50:51 · 385 阅读 · 1 评论 -
python免费调用阿里云通义千问(q-wen-max)大模型API
通义千问,是基于阿里巴巴达摩院在自然语言处理领域的研究和积累。采用更先进的算法和更优化的模型结构,能够更准确地理解和生成自然语言、代码、表格等文本。除了基本的文本生成和问答能力,还支持更多的定制化需求,可以针对不同场景和应用进行扩展和定制,提供更加个性化的服务和解决方案。创建好API Key之后,进入阿里云服务百炼的个人账号即可看到调用需要的API Key。进入阿里云大模型服务百炼平台,可以看到所有通义千问模型,选择适当的模型进行调用。产品文档中有详尽的参数设置以及使用指引和具体的各种调用代码。原创 2024-04-20 22:15:43 · 1884 阅读 · 0 评论 -
OpenAI开放gpt-3.5turbo微调fine-tuning测试教程
网址:https://platform.openai.com/finetune选择其中心血管科中的部分数据进行微调微调需要进行付费,越多收费越多,并且的数最多为dataframe导入csv文件提取样本jsonl格式数据构建jsonl数据导出点击上传文件原创 2023-10-15 15:54:29 · 952 阅读 · 0 评论 -
python openai playground使用教程
是一个基于Web的工具,旨在帮助开发人员测试和尝试OpenAI的语言模型,如GPT-3。通过Playground,用户可以在不编写任何代码的情况下与AI模型进行交互,并了解其工作原理。playgroundAdaAda是一种基础模型,适合用于提示和短对话。BabbageBabbage是一个中等规模的模型,适合于更长的对话和创造性写作。CurieCurie是一个大型模型,适用于复杂的对话和生成性任务。DavinciDavinci是OpenAI。原创 2023-10-15 10:42:55 · 1759 阅读 · 0 评论 -
python openai宠物名字生成器
如你所见,在提示词(Prompt)中添加一个简单的形容词会改变返回的补全(Completion)。输入提示词(Prompt):Suggest three names for a horse that is a superhero.你可能已经注意到,如果你在上面的示例中多次提交相同的提示,模型将始终返回相同或非常相似的完成。) 是我们 API 的核心,它提供了一个非常灵活和强大的简单接口。之间的值,基本上可以让你控制模型在进行这些预测时的置信度。将返回一个匹配你提供的任何指令或上下文的文本作为 补全(原创 2023-10-14 01:03:29 · 628 阅读 · 0 评论 -
python 调用gpt3.5接口问答教程
OpenAI API是OpenAI提供的一种人工智能接口,可以通过向API发送请求来调用OpenAI的强大模型。使用OpenAIAPI可以实现各种人工智能应用,包括自然语言处理、文本生成、图像识别等。安装openai库命令行输入以下命令python脚本中导入openai。原创 2023-10-10 18:14:11 · 1261 阅读 · 0 评论 -
清华chatGLM2-6B windows本地安装教程
博客地址:https://blog.csdn.net/weixin_46530492/article/details/133029584?spm=1001.2014.3001.5502博客地址:https://blog.csdn.net/weixin_46530492/article/details/133024073?spm=1001.2014.3001.5502博客地址:https://blog.csdn.net/weixin_46530492/article/details/133029441?spm原创 2023-09-19 16:33:21 · 997 阅读 · 0 评论 -
180B参数的Falcon登顶Hugging Face,vs chatGPT 最好开源大模型使用体验
在回答问题的深度和广度上都明显优于只有70亿参数量的。拥有1800亿的参数量,在智能问答领域做到了。,并且对中文的支持更好。原创 2023-09-09 12:00:45 · 1170 阅读 · 0 评论 -
吴恩达gradio课程:基于开源LLM(large language model)的聊天应用chatbot
Falcon 40B是当前最好的开源语言模型之一。使用库调用Falcon 40B的问答API接口。首先仅仅在代码中与模型聊天,后续通过Gradio构建聊天界面。Gradio聊天界面可以保存对话历史上下文。在聊天过程中,需要将之前对话记录与新消息一起发送给模型,才能进行连续对话。组件可以简化发送历史对话上下文的过程。通过库+组件即可实现与开源语言模型的流畅聊天。本课程使用免费的开源模型构建应用,可以自由自定义。展示了利用开源模型和Gradio进行快速原型开发和验证的流程。原创 2023-09-08 16:40:39 · 927 阅读 · 0 评论 -
吴恩达gradio课程:diffusion 文生图(Image to Text)模型
使用了基于Diffusion模型的图像生成技术,可以从文本描述中生成图像。通过简单的Python代码调用模型接口,只需要提供文本提示即可生成图像。使用Gradio构建了一个简洁的网页界面,可以自定义文本提示来生成图像。接口可以控制生成图像的大小和细节程度等参数。使用,它可以创建更复杂的用户界面布局。原创 2023-08-31 14:24:10 · 371 阅读 · 0 评论 -
Hugging Face的API token获取方式指南
平台的AI Models,Spaces和Datasets,虽然transformers包可以在本地调用。之后可以直接在Spaces新建Gradio项目,保证Gradio项目的稳定部署和多端访问。在弹出的对话框中,输入一个名称来标识这个新的 API token,例如“在“Settings”页面中,选择“API tokens”选项卡。在“API tokens”页面中,点击“New token”按钮。登录后,点击右上角的用户名,选择“Settings”。”按钮,系统会生成一个新的 API token。原创 2023-08-31 11:08:32 · 2860 阅读 · 0 评论 -
AIGC绘画:kaggle部署stable diffusion项目绘画
Kaggle成立于2010年,是一个进行数据发掘和预测竞赛的在线平台。从公司的角度来讲,可以提供一些数据,进而提出一个实际需要解决的问题;从参赛者的角度来讲,他们将组队参与项目,针对其中一个问题提出解决方案,最终由公司选出的最佳方案可以获得5K-10K美金的奖金。kaggle平台的优点:免费的P100 GPU进行推理(每周可免费使用30小时),部署好后可以在任意移动端使用。原创 2023-08-16 17:03:11 · 1043 阅读 · 2 评论 -
AIGC绘画:基于Stable Diffusion进行AI绘图
Stable Diffusion是2022年发布的深度学习文本到图像生成模型,它主要用于根据文本的描述产生详细图像,尽管它也可以应用于其他任务,如内补绘制、外补绘制,以及在提示词(英语)指导下产生图生图的翻译。Stable Diffusion主要用于文本生成图像的深度学习模型,也就是常说的txt2img的应用场景中:通过给定 文本提示词(),该模型会输出一张匹配提示词的图片。原创 2023-08-16 00:09:46 · 1619 阅读 · 1 评论