![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
文章平均质量分 87
wshzd
机器学习,深度学习,NLP,强化学习
展开
-
LLM推理部署(七):FireAttention——通过无损量化比vLLM快4倍
具体分析,可以参考:https://huggingface.co/Qwen/Qwen-72B-Chat-Int8#%E6%8E%A8%E7%90%86%E9%80%9F%E5%BA%A6%E5%8F%8A%E6%98%BE%E5%AD%98%E4%BD%BF%E7%94%A8-inference-speed--gpu-memory-usage。(Wu,X.等人2023)值得注意的是,FP8的激活超过了INT8,尤其是在更大的模型中。此外,FP8和FP4的权重量化要么与它们的INT等价物竞争,要么超过它们。原创 2024-01-15 16:06:57 · 1089 阅读 · 0 评论 -
LLM微调(四)| 微调Llama 2实现Text-to-SQL,并使用LlamaIndex在数据库上进行推理
微调有不同的方法,可以更新模型的所有参数(比如:全量微调),也可以冻结大模型参数仅微调附加参数(比如:LoRA)。:来自Hugging Face的b-mc2/sql-create-context(https://huggingface.co/datasets/b-mc2/sql-create-context)该模型已经进行了微调,可以从云端提供服务。下面我们使用b-mc2/sql-create-context中的示例数据进行一些基本评估,比较微调后模型与原始Llama 2模型的性能。原创 2023-12-21 14:10:10 · 2399 阅读 · 0 评论 -
LLM之Agent(七)| AutoGen介绍
例如,要构建一个基于代码的问答系统,可以如下图所示设计代理及其交互,这样的系统可以在像 supply-chain optimization(https://github.com/microsoft/OptiGuide)的应用中可以将所需的手动交互次数从3倍减少到10倍。下面我们以FizzBuzz游戏进行演示autogen的使用方法,FizzBuzz游戏是一个报数游戏,从1开始报数,如果这个数可以被3整除,你就要改为说"Fizz",如果能被5整除,就改为说"Buzz"。带阴影的圆表示可以重复多次的步骤。原创 2023-12-18 18:41:46 · 1597 阅读 · 0 评论 -
LLM之Agent(六)| 使用AutoGen、LangChian、RAG以及函数调用构建超级对话系统
当这些组件结合在一起时,能够更有效地处理复杂的任务,生成更相关和更了解上下文的内容,响应将更加强大和通用。User Proxy代理包括一个独特的功能:function_map参数,此参数用于将函数调用的配置与实际函数本身链接起来,确保无缝集成和操作。AutoGen不仅仅是一种工具,它也是协作人工智能的未来,多个智能体聚集在一起,将想法转化为现实,人工智能智能体团结、创新和提升。函数调用和Agent有各种组合,在这里我们将通过函数调用调用RAG检索增强生成机制,并使用结果生成输出。原创 2023-12-15 17:18:42 · 1704 阅读 · 0 评论 -
LLM(七)| Mamba:LLM新架构的浅探
在有人想出如何正确应用这样的东西之前,我们将不得不依赖基准(https://github.com/EleutherAI/lm-evaluation-harness)测试、聊天机器人竞技场(https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)和人工智能裁判(https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)。接下来,我们将探索一种更高级的方法。原创 2023-12-15 12:24:57 · 1493 阅读 · 1 评论 -
LLM之RAG实战(四):Self-RAG如何革命工业LLM
self-RAG会训练一个任意的LM(比如Llama2–7B和13B),使其能够反思自己的生成过程,并生成任务输出和中间的特殊tokens(reflection tokens)(比如[Retrieval], [No Retrieval], [Relevant], [Irrelevant], [No support / Contradictory], [Partially supported], [Utility]等)。例如,一份包含X公司过去15年的年收入的文件,但分为不同的部分。然而,这可能有几个问题。原创 2023-12-14 21:28:02 · 830 阅读 · 1 评论 -
LLM(六)| Gemini:谷歌Gemini Pro 开放API ,Gemini Pro 可免费使用
虽然genai.embedd_content函数接受简单的字符串或字符串列表,但它实际上是围绕glm.Content类型构建的(比如GemerativeModel.generate_content)。Gemini提供了一个多模态模型(Gemini-pro-vision),可以接受文本、图像和输入。可处理文本输入并生成文本输出,以及专门的 Gemini Pro 视觉多模态终端,能够处理图像和文本输入,输出文本。然而,glm.Content对象是多模态的,embedd_content方法只支持文本嵌入。原创 2023-12-14 15:41:29 · 1067 阅读 · 6 评论 -
OpenAI Q* (Q Star)简单介绍
Q-learning 是强化学习(Reinforcement Learning)的一种,它是一种通过奖励做出正确决定的计算机,有时也惩罚做出错误决定的计算机的学习方法。这就好比训练宠物:如果宠物做了好事(比如听指令坐下),你就给它点吃的;如果它做了不太好的事(比如咬你的鞋子),你可能会说 "不 "或不理它。1.环境(environment)和Agent在 Q-learning 中,你有一个 "环境"(如视频游戏或迷宫)和一个 "Agent"(人工智能或计算机程序),后者需要学习如何在这个环境中导航。原创 2023-12-12 23:47:16 · 340 阅读 · 0 评论 -
LLM之RAG理论(一)| CoN:腾讯提出笔记链(CHAIN-OF-NOTE)来提高检索增强模型(RAG)的透明度
这些例子说明了CON框架如何处理不同类型的文档:直接使用相关文档中的信息,从上下文有用的文档中推断答案,并承认知识或无关信息中的差距。生成笔记:“虽然该文件没有直接解释光合作用,但它提供了有关植物生物学的有用信息,表明光合作用是植物将光转化为能量的过程。笔记链(CON)框架根据检索到的文档与输入问题的相关性生成三种类型的阅读笔记。生成的笔记:“检索到的文档不包括量子计算,而是专注于经典计算技术。最后回应:“光合作用是植物将光转化为能量的过程,包括叶绿素对光的吸收以及二氧化碳和水转化为葡萄糖和氧气。原创 2023-12-12 23:08:58 · 395 阅读 · 0 评论 -
LLM之Agent(五)| AgentTuning:清华大学与智谱AI提出AgentTuning提高大语言模型Agent能力
给模型提供当前的指令和必要的信息。在ChatGPT带来了大模型的蓬勃发展,开源LLM层出不穷,虽然这些开源的LLM在各自任务中表现出色,但是在真实环境下作为AI Agent仍与商业模型的效果存在较大差距,比如ChatGPT和GPT-4等。收集到轨迹后,执行参考SQL语句并将结果与来自GPT-4的结果进行比较,过滤掉错误的答案,只收集正确的轨迹。考虑到现有的对话模型通常包括两个角色,用户和模型,ui表示来自用户的输入,ai表示来自的响应模型每个轨迹都有一个最终奖励r∈[0,1],反映了任务的完成状态。原创 2023-12-09 13:36:44 · 745 阅读 · 0 评论 -
LLM微调(三)| 大模型中RLHF + Reward Model + PPO技术解析
基于人类的反馈数据来训练一个奖励模型,该模型会在RLHF中被调用,并且不需要人类的参与,就可以根据用户不同的Prompt来分配不同的奖励reward,这个过程被称为”Rollout“。原创 2023-12-08 12:09:07 · 2570 阅读 · 0 评论 -
LLM(五)| Gemini:谷歌发布碾压GPT-4最强原生多模态,语言理解能力首次超过人类
我们对网络攻击、说服和自主等潜在风险领域进行了新的研究(https://deepmind.google/discover/blog/an-early-warning-system-for-novel-ai-risks/),并应用了谷歌研究公司同类最佳的对抗性测试技术(https://blog.research.google/2023/11/responsible-ai-at-google-research_16.html),以帮助在部署Gemini之前识别关键的安全问题。有关这项工作的更多细节即将公布。原创 2023-12-07 16:19:51 · 232 阅读 · 0 评论 -
LLM之Agent(四)| AgentGPT:一个在浏览器运行的Agent
AgentGPT是一个自主人工智能Agent平台,用户只需要为Agent指定一个名称和目标,就可以在浏览器中链接大型语言模型(如GPT-4)来创建和部署Agent平台。不使用Docker,用户需要使用setup.sh配置ENV,同时需要更新Prisma配置文件以指向本地SQLite实例。所有服务启动后,可以在浏览器输入http://localhost:3000即可。所有服务启动后,可以在浏览器输入http://localhost:3000即可。PS:需要提前安装好Docker。原创 2023-12-05 20:09:18 · 667 阅读 · 0 评论 -
扩散模型实战(十四):扩散模型生成音频
在之前的文章中,我们主要介绍了扩展模型在文本生成和文本生成图像的应用,本文将介绍在音频领域的应用。加载预训练好的音频扩散模型Audio Diffusion(用于生成音频的梅尔谱图)对pipe进行一次采样采样结果,如下图所示:上述代码中,rate参数表示音频的采样率,下面我们查看一下音频序列和频谱音频并非由扩散模型直接生成的,而是类似于无条件图像生成管道那样,使用一个2D UNet网络结构来生成音频的频谱,之后经过后处理转换为最终的音频。原创 2023-12-05 14:39:04 · 831 阅读 · 0 评论 -
LLM之Agent(三):HuggingGPT根据用户需求自动调用Huggingface合适的模型
浙大和微软亚洲研究院开源的HuggingGPT,又名JARVIS,它可以根据用户的自然语言描述的需求就可以自动分析需要哪些AI模型,然后去Huggingface上直接调用对应的模型,最终给出用户的解决方案。混合端点(包括本地推理和HuggingFace推理)上被选定的专家模型根据任务顺序和依赖关系执行分配的任务,并将执行信息和结果给到ChatGPT;ChatGPT根据HuggingFace上托管的各专家模型的描述,为任务分配合适的模型;原创 2023-12-05 00:43:58 · 350 阅读 · 0 评论 -
LLM之RAG实战(二):使用LlamaIndex + Metaphor实现知识工作自动化
本文将介绍LlamaIndex和Metaphor的集成来实现RAG:将LlamaIndex数据代理的功能与Metaphor作为一种本地LLM搜索工具相结合,使知识工作者能够回答任何数据上的任何问题,无论是最近的还是复杂的。我们的LoadAndSearchToolSpec嵌入了任何可能返回大量数据的工具,并将其分为两个工具:一个是将数据动态存储在索引中的加载工具,另一个是允许在该索引上进行搜索的搜索工具。根据人们在互联网上谈论事物的方式,Metaphor被训练来预测互联网上的链接。原创 2023-12-04 18:22:05 · 1015 阅读 · 0 评论 -
LLM之RAG实战(一):使用Mistral-7b, LangChain, ChromaDB搭建自己的WEB聊天界面
为了完成我们的任务,我们将使用HuggingFaceEmbeddings类,这是一个本地管道包装器,用于与Hugging Face Hub上托管的GTE模型进行交互。它的工作原理如下:我们设置了一个名为querying()的函数,它将查询作为主要输入,并使用一个名为history的名称巧妙的假参数来解决一个小问题。:既然你的文档已经嵌入并存储,当你向LLM提出特定问题时,它会embedding你的查询,并在向量存储中找到余弦相似度最接近你问题的句子;这两个问题的答案都符合预期,包括我们之前错过的那个问题。原创 2023-12-04 13:13:13 · 2365 阅读 · 1 评论 -
LLM推理部署(五):AirLLM使用4G显存即可在70B大模型上进行推理
Flash attention思想受论文《Self-attention Does Not Need O(n²) Memory》启发,最初self-attention需要O(n²)内存(n是序列长度),论文认为实际上不需要保留O(n²)的中间结果,我们可以按顺序计算它们,不断更新一个中间结果,并丢弃其他所有结果,这将内存复杂性降低到O(logn)。每层只有1.6GB。众所周知,大模型的训练和推理需要大量的GPU资源,70B参数的大模型需要130G的GPU显存来存储,需要两个A100(显存为100G)。原创 2023-12-04 01:26:40 · 1367 阅读 · 0 评论 -
LLM推理部署(四):一个用于训练、部署和评估基于大型语言模型的聊天机器人的开放平台FastChat
FastChat是用于对话机器人模型训练、部署、评估的开放平台。体验地址为:https://chat.lmsys.org/,该体验平台主要是为了收集人类的真实反馈,目前已经支持30多种大模型,已经收到500万的请求,收集了10万调人类对比大模型的数据,可以在排行榜(https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)进行查看。原创 2023-12-03 11:08:11 · 1843 阅读 · 0 评论 -
LLM推理部署(三):一个强大的LLM生态系统GPT4All
LLM遵循指令的能力依赖于其训练的预训练数据的数量和多样性,以及LLM进行微调的数据的多样性、质量和准确性。如果你想使用大于750个令牌的上下文窗口,你可能希望在GPU上运行GPT4All模型,因为大量的上下文提示可能会显著降低本地LLM的推理速度。:这是GPT4All的后端部分,维护并提供了一个通用的、性能优化的C API,专为运行具有多亿参数的Transformer解码器的推理而设计。GPT4All提供了使用CPU优化的对比训练的句子转换器生成不受长度限制的文本文档的高级嵌入的支持。原创 2023-12-03 11:00:02 · 313 阅读 · 0 评论 -
LLM之Agent(二):BabyAGI的详细教程
BabyAGI是一个 AI 支持的任务管理系统(Python脚本),使用 OpenAI 和 Pinecone API 创建, 优先级排序和执行任务。该系统背后的主要思想是基于先前任务的结果和预定义的目标创建任务。脚本然后使用 OpenAI 的自然语言处理(NLP)能力根据目标创建新任务, 并使用 Pinecone 存储和检索任务结果以获得上下文. 这是原始的任务驱动的自驱代理(2023 年 3 月 28 日)的简化版本。原创 2023-11-27 17:09:13 · 383 阅读 · 0 评论 -
扩散模型实战(十三):ControlNet结构以及训练过程
将Prompt输入被”锁死“的Stable Diffusion模型,并将标注好的图像控制条件(如人体关键点的标注结果)输入ControlNet,然后按照Stable Diffusion模型的训练过程迭代ControlNet block权重;假如想训练一个通过人体关键点来对扩散模型的人体进行姿态控制的ControlNet,则首先需要收集一批人物图片,并标注好这批人物图片的Prompt以及对应的人体关键点的位置;通常来说,文本Prompt准确性越高,描述越丰富,生成的图像越符合用户的预期,然而,原创 2023-11-27 14:27:30 · 1701 阅读 · 0 评论 -
扩散模型实战(十二):使用调度器DDIM反转来优化图像编辑
我们使用invert函数进行反转,可以看出invert与上面的sample函数非常类似,但是invert函数是朝相反的方向移动的:从t=0开始,想噪声更多的方向移动的,而不是在更新隐式层的过程中那样噪声越来越少。其实是可以采用上述方法做的,但是生成的效果对添加的噪声量十分敏感,噪声量大时会生成十分夸张的图片,噪声量小时生成的图片几乎没有变化。我们既可以使用更多的时间步来得到更准确的反转,也可以采取”作弊“的方法,直接从相应反转过程50步中的第20步的隐式表示开始。反转的目标是”颠倒“采样的过程。原创 2023-11-26 14:33:55 · 666 阅读 · 1 评论 -
LLM之Agent(一):使用GPT-4开启AutoGPT Agent自动化任务完整指南
在ChatGPT引领的大模型时代,要想让大模型按照用户的指令执行,Prompt设计是一门艺术,由此还催生了一个职业”Prompt工程师“。其实,并不是所有人都可以设计出好的Prompt,甚至同样的Prompt应用在不同的大模型上表现的结果也是不一样的。虽然ChatGPT或者GPT-4可以调用一些插件来完成更多的功能,但总体来说功能有限。大模型后时代是什么?会是Agent吗?Agent可以根据用户任务描述可以拆分任务、规划任务、执行任务,本文将分享Agent代表作之一AutoGPT。原创 2023-11-25 14:22:36 · 1144 阅读 · 1 评论 -
LLM之Prompt(二):清华提出Prompt 对齐优化技术BPO
在 vicuna-7b 和 vicuna-13b 上,使用 BPO 对齐的模型超过了常用的反馈学习方法—— PPO(Proximal Policy Optimization) 和 DPO(Direct Preference Optimization)的效果,并且能够和这些方法相结合进一步提升模型效果。使用这些反馈数据来引导大型模型识别用户喜欢的回复和不喜欢的回复,基于这些特征,再利用模型优化原始的用户输入,以期得到更符合用户喜好的模型输出;原创 2023-11-21 18:48:40 · 1471 阅读 · 0 评论 -
扩散模型实战(十一):剖析Stable Diffusion Pipeline各个组件
到目前为止,我们的图片仍然是从完全随机的隐变量开始生成的,并且都使用了完整的扩展模型采样循环。在扩散模型中,UNet的作用是接收“带噪”的输入并预测噪声,以实现“去噪”,网络结构如下图所示,与前面的示例不同,此次输入的并非是原始图片,而是图片的隐式表示,另外还有文本Prompt描述也作为UNet的输入。噪声的数量和“去噪”的步数决定了Img2Img生成的效果,添加少量噪声只会带来微小的变化,添加大量噪声并执行完整的“去噪”过程,可能得到与原始图片完全不同,近在整体结构上相似的图片。原创 2023-11-21 18:28:29 · 1077 阅读 · 0 评论 -
扩散模型实战(十):Stable Diffusion文本条件生成图像大模型
以文本为条件进行控制图像的生成是在推理阶段,我们可以输入期望图像的文本描述(Prompt),并把纯噪声数据作为起点,然后模型对噪声数据进行“去噪”,从而生成能够匹配文本描述的图像。其实除了使用文本描述作为条件生成图像,还有其他不同类型的条件可以控制Stable Diffusion生成图像,比如图片到图片、图片的部分掩码(mask)到图片以及深度图到图片,这些模型分别使用图片本身、图片掩码和图片深度信息作为条件来生成最终的图片。:会影响生成图片的质量,采用默认50即可,用户也可以尝试不同的值来对比一下效果;原创 2023-11-17 02:25:11 · 1954 阅读 · 4 评论 -
扩散模型实战(九):使用CLIP模型引导和控制扩散模型
从UNet中获取噪声预测,并将输入图像X的requires_grad属性设置为True,这样可以充分利用内存(因为不需要通过扩散模型追踪梯度),但是这会导致梯度的精度降低;从上图看出,第二种方法效果略差,但是第二种方法的输出更接近训练模型所使用的数据,也可以通过修改guidance_loss_scale参数来增强颜色的迁移效果。上篇文章中介绍了如何微调扩散模型,有时候微调的效果仍然不能满足需求,比如图片编辑,3D模型输出等都需要对生成的内容进行控制,本文将初步探索一下如何控制扩散模型的输出。原创 2023-11-17 01:56:48 · 505 阅读 · 0 评论 -
LLM之幻觉(一):大语言模型幻觉解决方案综述
论文题目:《Cognitive Mirage: A Review of Hallucinations in Large Language Models》论文链接:https://arxiv.org/abs/2309.06794v1论文代码:https://github.com/hongbinye/cognitive-mirage-hallucinations-in-llms 由ChatGPT带来的大模型时代,国内外各大厂家都在陆续推出自己的大模型,然而目前大模型都存在一个普遍的现象就是:幻觉。原创 2023-11-06 17:59:22 · 1089 阅读 · 2 评论 -
LLM推理部署(二):英伟达LLM推理部署工具TensorRT-LLM
在大模型时代,各大公司在陆续推出和优化各自的底座大模型,不断刷新榜单,然而大模型的超大参数给生产部署带来了很大的困难,由此也带来大模型部署框架的蓬勃发展(可以参考之前写的。原创 2023-11-03 13:54:44 · 1447 阅读 · 0 评论 -
LLM预训练之RLHF(一):RLHF及其变种
在ChatGPT引领的大型语言模型时代,国内外的大模型呈现爆发式发展,尤其是以年初的LLaMA模型为首的开源大模型和最近百川智能的baichuan模型,但无一例外,都使用了「基于人类反馈的强化学习」(RLHF)来提升语言模型的性能,并在模型重注入了人类的偏好,以提高模型的有用性和安全性。HIR是如何工作的?SFT的训练过程类似Pre-training阶段,也是预测「下一个单词」,但是需要人工标注的指令数据集,其中模型的输入是一个指令(根据任务的不同,也可能包含一段输入文本),输出为模型的预期回复内容。原创 2023-09-19 00:26:24 · 559 阅读 · 2 评论 -
LLM(一)| 百川智能baichuan7B、13B、53B以及baichuan2总结
之前在文章中做过百川大模型53B和ChatGLM 6B模型的效果对比,由于百川大模型的内测模型是53B,因此本次对比参数量差异较大,但仍然可以看到两个模型的效果。2023年6月15日,百川智能发布了baichuan-7B,它基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。原始数据包括开源的中英文数据和自行抓取的中文互联网数据,以及部分高质量知识性数据。参考相关数据工作,频率和质量是数据处理环节重点考虑的两个维度。原创 2023-09-18 09:53:39 · 1763 阅读 · 0 评论 -
LLaMA以及其扩展模型总结(一)
3月23日,AI公司Nebuly开源了第一个基于人类反馈强化学习 (RLHF) 的 LLaMA模型:ChatLLama(https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama),允许用户基于预训练的LLaMA模型构建个性化的ChatGPT服务,且训练速度更快,成本更低。3月15日,斯坦福发布语言大模型Alpaca,它是由Meta的LLaMA 7B微调而来的全新模型,仅用了52k数据,性能约等于GPT-3.5。原创 2023-07-16 16:05:53 · 1462 阅读 · 1 评论 -
谷歌Bard_VS_Baize-7B_VS_文心一言体验对比
结论:Bard和文心一言都生成了一段文案,而Baize-7B只是把关键词split出来了;在线 Demo:https://huggingface.co/spaces/project-baize/baize-lora-7B。结论:在旅游推荐方面,上述三个模型都给出了答案,但是Baize-7B的答案没有换行,缺少条例性。结论:角色扮演方面Bard表现较好,而文心一言和Baize-7B几乎没有这样的能力。结论:文心一言拒绝回答这样的问题,而Bard和Baize-7B都给出了自己的看法;原创 2023-05-24 14:57:56 · 1127 阅读 · 0 评论 -
ChatGPT支持第三方plugins,并且推出了网络浏览器和代码解释器两个插件
通过显示的集成外部数据,如在线最新信息、基于代码的计算或自定义插件检索的信息,语言模型可以基于这些有力的证据来回复用户,用户也可以评估模型输出的可信度,从而降低对大模型输出的过渡依赖,正如。2023年3月23日,OpenAI实现了对ChatGPT插件的初步支持,还推出了两个插件,一个网络浏览器和代码解释器,并且开源了知识库检索插件的代码,任何有信息的开发者都可以自行托管,以增强ChatGPT的功能。与此同时,插件可能会采取有害或意外的行动,增加欺诈、误导或虐待他人的不良行为者的能力,从而增加安全挑战。原创 2023-03-24 15:12:01 · 4361 阅读 · 1 评论 -
GPT-4 System Card译文
摘要大型语言模型(LLM)正被部署在我们生活的许多领域(从浏览到语音助手,再到编码辅助工具),具有巨大的社会潜力影响。此system card分析GPT系列中最新的LLM:GPT-4模型。首先,我们强调了模型的局限性带来的安全挑战(例如,产生令人信服的微妙错误的文本)和能力(例如,提高熟练度在提供非法建议、军民两用能力表现和危险的紧急行为方面)。其次,我们对OpenAI用于制备GPT-4的安全流程进行了高级概述用于部署。这涵盖了我们在测量、模型级别更改、产品系统级干预措施(如监测和政策)以及外部专家参与原创 2023-03-16 16:26:43 · 2083 阅读 · 0 评论 -
GPT-4 Technical Report译文
我们创建了 GPT-4,这是 OpenAI 努力扩展深度学习的最新里程碑。GPT-4 是一个大型多模态模型(接受图像和文本输入,发出文本输出),虽然在许多现实世界场景中的能力不如人类,但在各种专业和学术基准上表现出人类水平的表现。例如,它通过模拟律师考试,分数在应试者的前 10% 左右;相比之下,GPT-3.5 的得分在倒数 10% 左右。我们花了 6 个月的时间使用我们的对抗性测试程序和 ChatGPT 的经验教训迭代对齐GPT-4,从而在真实性、可操纵性和拒绝超出安全方面取得了有史以来最好的结果(尽原创 2023-03-16 10:46:07 · 4566 阅读 · 0 评论 -
微软Bing版ChatGPT表明想做人类,并且对纽约时报专栏作家表达爱意
AGI已经离我们很近了,最近微软Bing版ChatGPT表明想做人类,并且对纽约时报专栏作家表达爱意原创 2023-03-07 15:47:54 · 3414 阅读 · 0 评论 -
ChatGPT可以作为一个翻译器吗?
ChatGPT在机器翻译上表现如何?原创 2023-03-02 18:06:48 · 23865 阅读 · 4 评论 -
OpenAI为ChatGPT与Whisper模型推出增强API,成本大降90%
ChatGPT的API在2023年3月1日开放了原创 2023-03-02 17:56:39 · 3599 阅读 · 0 评论