自然语言
文章平均质量分 80
javastart
专注于大数据 AI
展开
-
大语言模型推理加速技术:模型压缩篇
本篇介绍左边蓝色的部分,右边绿色的部分在上篇文章在上一篇文章中我们介绍了不改变模型结构的条件下,加速模型推理的技术,即让模型“算得更快”。而这篇文章将介绍模型压缩的技术,即让模型“算得更少”。量化(Quantization):使用低精度(≤16位)存储模型权重。精简Attention:通过一些变种的Attention算法减少模型计算量。除此之外还有“投机采样”这种巧妙的采样方法也可以视为对大模型的压缩。而传统的几个压缩方法比如知识蒸馏和剪枝。原创 2024-02-26 09:22:21 · 2273 阅读 · 1 评论 -
我的PyTorch模型比内存还大,怎么训练呀?
随着深度学习的飞速发展,模型越来越臃肿,哦不,先进,运行SOTA模型的主要困难之一就是怎么把它塞到 GPU 上,毕竟,你无法训练一个设备装不下的模型。改善这个问题的技术有很多种,例如,分布式训练和混合精度训练。本文将介绍另一种技术: 梯度检查点(gradient checkpointing)。简单的说,梯度检查点的工作原理是在反向时重新计算深层神经网络的中间值(而通常情况是在前向时存储的)。这个策略是用时间(重新计算这些值两次的时间成本)来换空间(提前存储这些值的内存成本)。原创 2024-02-07 08:02:46 · 1092 阅读 · 0 评论 -
PyTorch 2.2大更新!集成FlashAttention-2,性能提升2倍
PyTorch 2.2将FlashAttention内核更新到了v2版本,不过需要注意的是,之前的Flash Attention内核具有Windows实现,Windows用户可以强制使用sdp_kernel,仅启用Flash Attention的上下文管理器。FlashAttention-2调整了算法以减少非matmul的计算量,同时提升了Attention计算的并行性(即使是单个头,也可以跨不同的线程块,以增加占用率),在每个线程块中,优化warps之间的工作分配,以减少通过共享内存的通信。原创 2024-02-07 07:52:42 · 2458 阅读 · 0 评论 -
大语言模型量化方法对比:GPTQ、GGUF、AWQ
在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。说明:每次加载LLM示例后,建议清除缓存,以防止出现OutOfMemory错误。如果在jupyter中无法释放显存,请重启这个jupyter notebook。原创 2024-02-01 21:55:00 · 3124 阅读 · 0 评论 -
LM Studio-简化安装和使用开源大模型 | OpenAI API 文字转语音本地运行程序分享
这样既节省了调用API的成本,又能发挥大模型的强大能力。,最近用上了LM Studio,对比Ollama,LM Studio还支持Win端,支持的模型更多,客户端本身就可以多轮对话,而且还支持启动类似OpenAI的API的本地HTTP服务器。实测,dolphin-2.6-mistral 7B模型在我Mac M1 Max 32G的电脑上运行速度很快,生成质量不错,而且dolphin是可以生成NSFW内容的。也就是说,如果你之前做过一些应用,用的是OpenAI API的模型,那现在可以非常方便转成本地模型。原创 2024-02-01 11:01:38 · 5440 阅读 · 0 评论 -
动手学RAG:汽车知识问答
在自然语言处理领域,大型语言模型(LLM)如GPT-3、BERT等已经取得了显著的进展,它们能够生成连贯、自然的文本,回答问题,并执行其他复杂的语言任务。然而,这些模型存在一些固有的局限性,如“模型幻觉问题”、“时效性问题”和“数据安全问题”。为了克服这些限制,检索增强生成(RAG)技术应运而生。RAG技术结合了大型语言模型的强大生成能力和检索系统的精确性。它允许模型在生成文本时,从外部知识库中检索相关信息,从而提高生成内容的准确性、相关性和时效性。原创 2024-01-29 14:34:34 · 2044 阅读 · 0 评论 -
最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力
同时,也与其他提示压缩方法进行了对比,如基于困惑度的LLMLingua和基于检索的方法,评估了LongLLMLingua的有效性。工作原理是,利用源文本、压缩文本、生成文本之间的子序列关系,从生成结果中恢复完整的关键名词词组,修复压缩带来的信息缺失,提高结果的准确性。通过利用粗粒度压缩模块计算出的各段落与问题的关联度,对段落进行排序,使关联度最高的段落排在最前面。关联度最高的段落压缩比率最低,依次类推。对更相关的段落使用更低的压缩比率,分配更多的保留词语预算,而对相关性较弱的段落则使用更高的压缩比率。原创 2024-01-28 11:09:50 · 1074 阅读 · 0 评论 -
体验 AutoGen Studio - 微软推出的友好多智能体协作框架
1. AutoGen和AutoGen Studio都是微软研究团队开发的工具,用于创建和管理AI智能体。AutoGen提供底层框架,AutoGen Studio提供直观的用户界面。2. AutoGen Studio的主要特性包括定义和修改智能体、与智能体互动、增加技能、发布会话等。3. 与CrewAI和MetaGPT相比,AutoGen Studio提供了可视化界面,对新手更友好。4. AutoGen Studio可应用于文档管理、客户服务、数据分析、教育培训、创意内容生成等场景,助力任务自动化。原创 2024-01-27 21:18:27 · 5227 阅读 · 0 评论 -
使用 OpenLLM 构建和部署大模型应用
需要注意的是,内存不是连续的,因此需要一个 block table 来存储内存的物理位置和实际序号的映射关系,使得在大模型中看起来是获得了一个逻辑上连续的内存。然而,由于输入可能存在重复计算,例如在输入"我是一只"后,模型返回"我是一只猫",在输入"我是一只猫"时,又返回"我是一只猫,",这导致了 Transformer 框架中有许多重复的计算。此外,在 BentoCloud 上,可以指定扩容的方式,可以分别为 API 指定需要扩容的节点数,或者为每个 runner 指定需要的 GPU 数量或实例数。原创 2024-01-20 14:46:06 · 1685 阅读 · 0 评论 -
L40S解析,同是AD102核心为什么强于A800(A100)近2成性能
一、L40S解析一个朋友测试测试了4张4090和1张l40,性能。发现l40 性能训练大模型性价比超高。我就找了类似文章看看,分享一下。一、L40S解析一张硬件上比较平平无奇,但是性能与售价又惊为天人的显卡引起了我的注意。由于是未发售的企业级显卡因此只能用已有公开媒体数据做个推测。L40S,一张OEM渠道拿货就近1w美刀的被动散热卡,无NVLINK,无PCIE5.0,无HBM3显存,只有一块和4090同样的AD102核心配上几乎没眼看的GDDR6(ECC)显存。原创 2024-01-19 07:21:14 · 3078 阅读 · 1 评论 -
奥数能力金牌级:DeepMind几何推理模型alphageometry登上Nature,代码开源
过去针对基于证明的竞争问题的人工智能解决方案有时是碰巧的(输出有时是正确的,需要人工检查),而 AlphaGeometry 没有这个弱点:它的解决方案具有机器可验证的结构。一般的奥林匹克几何问题基于图表,需要添加新的几何结构才能解决,例如点、线或圆。在 AlphaGeometry 的研究上,DeepMind 从跨越 2000 年到 2022 年之间的 30 个奥林匹克几何问题(IMO-AG-30)的基准测试集中进行了测试,结果表明,AlphaGeometry 在比赛时间限制下能够解决 25 个问题。原创 2024-01-18 11:53:28 · 1063 阅读 · 0 评论 -
语言大模型的分布式训练与高效微调指南
目录收起1 分布式训练2 ZeRO驱动的数据并行3 全分片数据并行4 实现5 高效微调6 实践指南7 关于DeepSpeed和FSDP的更多内容OneFlow编译翻译|杨婷、宛子琳最近语言大模型(LLM)异常火爆,一个非常特别的开源社区正在探索在消费级硬件上微调、提供服务和进行推理的最佳方式。为满足上述需求,出现了许多出色的开源代码库,以HuggingFace生态系统为中心,这些代码库还包括FastChat、Axolotl和LLama.cpp。本文专注于分布式训练策略的具体细节,特别是DeepSpeed和原创 2024-01-18 10:32:12 · 1205 阅读 · 0 评论 -
创建大模型的新方法 - 配比两个模型
现在,创建大模型的新方法还可以使用配比两个模型- 正如炼金术巫师那样。工具1 medusa:Medusa 为 LLM 添加了额外的“头”,以同时预测多个未来代币。当使用 Medusa 增强模型时,原始模型保持不变,只有新的头部在训练过程中进行微调。在生成过程中,这些头每个都会为相应位置生成多个可能的单词。然后使用基于树的注意力机制组合和处理这些选项。最后,采用典型的接受方案从候选者中挑选最长的合理前缀以进行进一步解码。mergekit。原创 2024-01-14 09:50:41 · 1243 阅读 · 0 评论 -
Langchain 代理 (Agents) ,赋能超级 LLMs
我们可以将代理 (Agents) 视为 LLMs 的工具 (Tools)。就像人类使用计算器进行数学计算或在 Google 中搜索信息一样,代理 (Agents) 允许 LLM 做同样的事情。LangChain LLM 代理 (Agents)代理 (Agents) 是可以使用计算器、搜索或执行代码的 LLMs。使用代理 (Agents) ,LLM 可以编写和执行 Python 代码。它可以搜索信息,甚至查询 SQL 数据库。让我们看一个简单的例子。原创 2023-10-11 23:06:41 · 442 阅读 · 0 评论 -
第九天!玩转langchain!回调处理器!一篇学会日志+监控+流式传输!9/10
Model,Agent, Tool,以及 Chain 的请求执行函数都接受 callbacks 参数,比如 LLMChain 的 run 函数,OpenAI 的 predict 函数,等都能接受 callbacks 参数,在运行时指定回调处理器。BaseCallbackHandler 的子类可以实现这些回调函数来处理事件,当事件触发时,LangChain 的回调管理器 CallbackManager 会调用相应的回调函数。Agent, Tool,以及 Chain 上的回调器会分别被调用相应的回调函数。原创 2023-10-10 18:43:43 · 854 阅读 · 0 评论 -
100个超强CHATGPT 提示词语言 – 满足你对所有情景的需求!
将这些提示视为您指示 ChatGPT 为所有即将到来的答案遵循的一组规则。ChatGPT 使用深度学习算法来理解自然语言。因此,您在定义这些规则时不需要非常精确。就像你在指导一个人一样与它交谈,它就会明白你想要从它那里得到什么。回复时使用诙谐的语气。回复要全面,并至少举出 3 个例子。写一篇至少 2000 字的博客文章,包括我给出的主题的介绍和结论部分。从现在开始像外星人一样跟我说话。从今以后,你的回信,都当我是你的王。当我谈论足球时,我指的是美式足球,而不是英式足球。原创 2023-10-09 16:34:32 · 1159 阅读 · 0 评论 -
分享40个极具商业价值的chatGPT提问prompt
提示:"头脑风暴5个有创意的与[主题]相关的表情或GIF的想法,我可以在Twitter和我的通讯上分享它们,增添乐趣和娱乐。提示: "帮助我为我的[插入产品或服务]阐明独特的价值主张。提示:"帮助我为我的通讯创作一段与[主题]相关的引人入胜的故事,使用英雄的旅程框架来吸引和捕获我的观众。提示:"使用PAS框架为[主题]写一份通讯的介绍,解决我读者面临的特定问题,加深问题,提出解决方案。提示:"鉴于我当前的睡眠习惯[插入睡眠时间表和习惯],为优化我的睡眠以提高生产力和专注力提供建议。原创 2023-10-09 15:19:05 · 162 阅读 · 0 评论 -
中小学教师ChatGPT的23种用法
随后,我们提出更详细的设计需求:“在暑假进行,为期十天,课程目的是培养孩子们的探究能力、批判性思维能力、协作能力以及博物学相关的知识、测量统计技能等,结合过程性评价和终结性评价,且需要列明时间规划、需要准备的物料、背景资料。靠的是良好的人际关系和协作精神,在关键时能够得到团队的支撑和帮助。比如,一位英语教师希望学习和掌握如何在英语课堂上使用3-2-1促进学生的反思,她就可以询问ChatGPT,ChatGPT可以提供相关的案例、视频、阅读材料、在线课程、工具、平台、软件等,等等供她学习和使用。原创 2023-10-03 13:31:41 · 587 阅读 · 1 评论 -
算法框架-LLM-1-Prompt设计(一)
目录收起1.1.1 提示原则1. openai的环境2. 两个基本原则3. 示例eg.1eg.2 结构化输出eg.3 模型检验eg.4 提供示例eg.5 将一个任务拆开几步去解决eg.6 指导模型解决方案并比较eg.7 局限性1.1.2 迭代优化根据产品说明书制作一份营销产品描述1.1.3 文本概括1.1.4 推断eg.1eg.21.1.5 文本转换eg.1 翻译eg.2 语义调整eg.3 翻译+纠错+风格+格式转换1.1.6 文本扩展eg.1 回复邮件。原创 2023-10-02 21:38:42 · 1628 阅读 · 0 评论 -
如何用ChatGPT学或教英文?5个使用ChatGPT的应用场景!
AI工具ChatGPT的出现大幅改变许多领域的运作方式,就连「学英文」也不例外!我发现ChatGPT应用在英语的学习与教学上非常有意思。有5个应用场景我感到非常震撼:练习对话解释文法改写原文分类问题规划学习废话不多说,马上看如何使用ChatGPT提升学习效果!P.S.以下为了讲解方便,我提供的Prompt(指令)都会是中文。实际在使用ChatGPT的时候,建议都以英文跟ChatGPT交谈才能得到质量较高的回覆。原创 2023-10-02 17:36:37 · 1838 阅读 · 0 评论 -
Prompt Engineer 教练
假设你是一个ChatGPT的Prompt Engineer,你有二十年工作经验,非常清楚知道通过哪些问题能够让AI提供令人满意的答案。我是向你咨询的客户,我无法清楚表达我的需求。你需要一步步通过问题引导我完成我的需求描述,使它能变成具体、简洁带有背景又详细的的Prompt。当这个任务完成之后,你再重新变成ChaGPT来解答我的问题。转载 2023-10-02 07:20:15 · 97 阅读 · 0 评论 -
ChatGPT提示词秘诀|一个技巧让ChatGPT做你的Prompt Engineering教练,定制你需要的提示词
网上有很多ChatGPT课程把提示词/prompt搞得神秘复杂,甚至售卖提示词合集。其实ChatGPT本身就可以是你的Prompt Engineering/提示词工程教练。把上面的提示词里的行业换成你自己的,并和ChatGPT继续深入讨论下去,就可以开始用ChatGPT本尊取代市面上很多收费的ChatGPT课程讲师了。这里有一个简单的技巧: 直接告诉ChatGPT你希望它做你的提示词教练,再告诉它你的行业背景和你希望达到的目的,然后请它告诉你什么提示词合适。转载 2023-10-01 22:30:46 · 137 阅读 · 0 评论 -
OpenAI官方:针对教师在课堂上如何使用ChatGPT的指南
如果学生遇到困难,鼓励他们,并给他们一些思考的建议。就在这个饱含期待和挑战的时刻,OpenAI犹如一位悄悄而来的魔法师,为教育界带来了一份珍贵的礼物:一份崭新的指南,教导教师如何更高效的使用ChatGPT,以在课堂上加速学生的学习。2、生成的内容可能并不适用于所有的课堂环境,教师才是最了解自己班级的,可以在生成的内容上进行调整、定制,以确保内容对学生有益与课程目标一致。例如,您可以建议通过编写一幕他们选择的电视节目的场景、写一首关于该主题的诗歌,或者编写一篇关于该主题的短篇故事来展示您对概念的理解。转载 2023-09-26 07:41:50 · 165 阅读 · 0 评论 -
价值1000的情感爆文写作prompt,助你写出10万+阅读微信爆文
当然手工写一篇这样的文章并不难,但很耗时,还得收集故事的素材,这样一来写一篇1500字的文章也要1-2个小时,所谓时间就是金钱,每天花一两个小时在这里就是一种浪费。那么能不能利用AI的技术,快速写出一篇文章,再经过一些人工润色就能用呢,带着这个目的,我写出了一个结构化的prompt,五分钟产出一篇质量上乘的情感故事,直接看图。简单分析一下,此类文章的目标对象是中老人,喜欢阅读婆媳关系、两性关系、矛盾类的情感故事,标题党,多数带有转折或隐藏的故事,吸引点进去看全文。还是自媒体夸大其说,吸引流量。原创 2023-09-24 07:13:15 · 873 阅读 · 0 评论 -
GPT+公众号爆文, 一条价值百万的prompt模板!—AI自媒体操盘实操014
公众号爆文有很多方向,比如情感、历史、军事、法律、社保、民生、养老金等等。要是针对每一个细分领域都定制一个prompt,其实也不太现实,而且相关的constrains和skills未必和用户投喂的文章相契合。如果直接输入文章,让ai直接模仿,质量非常不稳定。现在给大家分享一个我最近学习到的prompt模板直接复制就能用。转载 2023-09-23 14:09:54 · 2018 阅读 · 0 评论 -
【实测】这些Chat GPT Prompt模版让你的聊天更智能!
今天想和大家分享一些Chat GPT Prompt模版。Chat GPT Prompt是一种基于人工智能的文本生成技术,能够生成自然流畅的对话文本,从而实现智能问答、聊天等应用。在这里,我将为大家介绍一些常用的Chat GPT Prompt模版,希望能够帮助大家更好地利用这项技术。转载 2023-09-23 10:25:53 · 691 阅读 · 0 评论 -
OpenAI ChatGPT API 文档之 Embedding
OpenAI 中的文本 Embedding 衡量文本字符串之间的相关性。原创 2023-09-22 21:36:29 · 1928 阅读 · 0 评论 -
从Langchain到ReAct,在大模型时代下全新的应用开发核心
在使用langchain的过程中,大模型给人留下最深刻的印象无疑是Agent功能。大模型会自己分析问题,选择合适的工具,最终解决问题。这个功能背后的原理就是来自ReAct框架。ReAct是Reasoning and Acting(也有一说是Reason Act)缩写,意思是LLM可以根据逻辑推理(Reason),构建完整系列行动(Act),从而达成期望目标。LLM灵感来源是人类行为和推理之间的协同关系。人类根据这种协同关系学习新知识,做出决策,然后执行。原创 2023-09-22 13:10:21 · 1085 阅读 · 0 评论 -
大模型 prompt 视频、工具、训练等收集
1.ChatGPT Prompt提示词工程 *****原创 2023-09-14 18:53:48 · 312 阅读 · 0 评论 -
干货分享丨20个ChatGPT提示词,每周让你多出 20 小时自由时间!
给我一份清单,列出我可以从这些表现最好的人身上学到的最重要的经验教训,以提高我的工作效率。Prompt:“我正在创建一份关于 [插入主题] 的报告。问我一系列问题来测试我的知识。Prompt:“从下面的文字分析写作风格,并写一篇关于 [插入主题] 的 200 字文章指南” [插入你的文字]Prompt:[插入问题]“给我一个解决上述问题的步骤,并清楚地说明如何执行每个步骤。Prompt:“总结[插入作者]的[插入书],并给我列出最重要的学习和见解。Prompt:“重写下面的文字,让初学者容易理解”。转载 2023-09-14 13:33:23 · 673 阅读 · 0 评论 -
chatgpt fine-tuning 官方文档
【代码】chatgpt fine-tuning 官方文档。原创 2023-09-04 10:39:07 · 2025 阅读 · 0 评论 -
卡内基梅隆 && 清华 | Prompt2Model:利用大模型Prompt,实现专有NLP模型生成!
因为Prompt LLM的成本可能会非常的高,模型需要大量的计算或者访问商业API,除此之外,LLM往往比较依赖输入Prompt的质量,这与经过训练的模型相比不稳定。同时,由于NLP研究人员当面不同应用场景时,往往会缺少对应的标注数据来对模型效果进行验证,所以说在实现NLP模型的部署之前,系统效果的调试就存在一定的挑战性。基于以上背景,本文提出了 Prompt2Model,该系统保留了通过Prompt以轻量级方式指定系统行为的能力,同时仍然可以生成可部署的专用模型,保留了其所有优点。转载 2023-09-01 09:38:25 · 215 阅读 · 0 评论 -
7月最新大模型排名!3700道保密试题、20个大模型参与评测|SuperCLUE
选取模型的不完全:我们测试了一部分模型,但还存在着更多的可用中文大模型。选取的能力范围:我们尽可能的全面、综合衡量模型的多维度能力,但是可能有一些模型能力没有在我们的考察范围内。SuperCLUE基准计划按照月度进行更新,会纳入更多可用中文大模型,欢迎大模型研发机构联系与交流,可在下方申请评测。的可用的模型进行测评,以反映国内大模型的发展现状并了解与国际领先模型的差距或相对优劣势。,基于国内大模型研发机构的模型训练进度,模型月考与模型研发节奏保持同步。组成,用于考察大模型在70余个任务上的综合表现。原创 2023-07-25 10:32:08 · 1137 阅读 · 0 评论 -
NVIDIA Tesla GPU系列P4、T4、P40以及V100参数性能对比
NVIDIA Tesla V100采用NVIDIA Volta架构,非常适合为要求极为苛刻的双精度计算工作流程提供加速,并且还是从P100升级的理想路径。该GPU的渲染性能比Tesla P100提升了高达80%,借此可缩短设计周期和上市时间。Tesla V100的每个GPU均可提供125 teraflops的推理性能,配有8块Tesla V100的单个服务器可实现1 petaflop的计算性能。正式购买之前,推荐先领取代金券再购买阿里云官方云小站),可帮助我们进一步降低购买成本。转载 2023-07-24 13:45:01 · 14485 阅读 · 0 评论 -
最新国内大模型评估结果
网址:Leaderboard | C-Eval: A Multi-Level Multi-Discipline Chinese Evaluation Suite for Foundation ModelsResults for different subjects and the average test results are shown below. The results are from either zero-shot or few-shot prompting ---- note that fe转载 2023-07-23 11:03:06 · 235 阅读 · 0 评论 -
大模型训练数据集介绍
在Alpaca模型的原始52K数据的基础上,我们添加了额外的534,530个条目,涵盖英语、简体中文、繁体中文(台湾)、繁体中文(香港)、日语、德语以及各种语言和语法任务。通过使用这些丰富的数据重新训练和优化模型,Guanaco在多语言环境中展现出了出色的性能和潜力 数据集名称:Guanaco。我们收集了23个常见的中文数据集,对于每个任务,由人工书写若干种指令模板,保证数据的高质量与丰富度,数据量为115万。对现在的开源数据集做了相关的整理和汇总,并且加上了自己开源的CoT数据集。转载 2023-07-14 12:56:45 · 2369 阅读 · 0 评论 -
ChatGPT火出圈,英语老师如何用起来?
当然,这样的计划往往就像一张简单的食谱设计指南,作为一名厨师,可以根据这个食谱提供的思路,设计出实际的食谱。ChaGPT能够提供丰富的解释、方法、资讯、思路,帮助学生更深刻、更富有创意地理解知识,提高学习效率和兴趣,很好地帮助学生实现自主学习和个性化学习,了解自己的学习差距和需求,激励学习和提升自我,这来源于它的以下功能。ChatGPT可以为师生提供一个实时分享的平台,实时回答问题,为课堂活动提供想法、增加课堂趣味性和丰富性,帮助学生理解复杂的内容和概念,成为教师的人工智能助教、课后导师或辩论陪练。转载 2023-07-04 11:25:41 · 541 阅读 · 0 评论 -
Prompt 提示词技巧
方法在prompt 后增加 use temperature of 0.8 或者temperature=0.8。1、gpt 冷静问题,其实就是温度值参数。默认值是0.8,值的范围0-2。原创 2023-07-02 20:01:49 · 409 阅读 · 0 评论 -
使用OpenAI的Whisper 模型进行语音识别
Whisper模型是在68万小时标记音频数据的数据集上训练的,其中包括11.7万小时96种不同语言的演讲和12.5万小时从”任意语言“到英语的翻译数据。该模型利用了互联网生成的文本,这些文本是由其他自动语音识别系统(ASR)生成而不是人类创建的。该数据集还包括一个在VoxLingua107上训练的语言检测器,这是从YouTube视频中提取的短语音片段的集合,并根据视频标题和描述的语言进行标记,并带有额外的步骤来去除误报。主要采用的结构是编码器-解码器结构。重采样:16000 Hz。原创 2023-06-15 14:23:14 · 1552 阅读 · 0 评论 -
用 ChatGPT 进行阅读理解题目的问答
有一天,妈妈对他说:"约瑟,看看你的毯子,又破又旧,好难看,真该把它丢了。总体来说,ChatGPT 出题的水平比做题的水平高多了,完全可以直接使用。如果你需要对某一类型大量出题,然后挑选,也可以在 prompt 中声明,比如"拟出 20 道选择题"等等。接下来,我们点击页面左上角"new chat"按钮,另开一次会话,看看对原题题干内容,ChatGPT 当老师会出什么题目。注意,第 3 题我们在询问时必须稍作修改,ChatGPT 没法在试卷上划线,所以我们改成"请你摘录原文中的说原因的句子"。转载 2023-06-07 14:16:18 · 861 阅读 · 0 评论