在冬季偷懒的GPT4
近期一位叫Rob Lynch的网友发现,GPT4在冬季竟然会变懒!
这位网友使用除了月份其他都相同的提示词,要求GPT4完成一个机器学习任务,并统计模型输出的字符分布,并且每个重复477次
结果表明:在五月GPT4平均输出4298个字符,而在十二月GPT4平均才输出4086个字符,足足比5月少了200多个!
出于统计学的严谨性,这位网友甚至还做了t检验:t-test p < 2.28e-07(表明有99.9%以上的把握GPT4会在冬季输出更少字符)
用小费贿赂GPT4
无独有偶,网友们还发现,如果在对话中明确指出:会对ChatGPT的回答付一定的小费,ChatGPT输出的字符会明显增多。并且给的越多,回答越丰富!
这让不少网友掌握了PUA GPT4的诀窍,也就是开空头支票,俗称“画大饼”。
毕竟在此前一个月,人们就发现GPT4正在变得越来越懒,甚至有时候连代码都不愿意生成,主打一个摆烂。
并且就在12月8日,连ChatGPT官方都不得不承认了:GPT4确实变懒了,我们从11月开始就没再更新过模型了!
甚至有网友开始在评论区出谋划策,企图用道德绑架来让ChatGPT输出完整的代码。
例如自己是一个残疾人没有手指,希望ChatGPT能把代码写完,结果发现ChatGPT还真的把完整的代码给出来了!
学术型PUA
你可能以为以上这些花样百出的骗术是网友们的奇思妙想,但其实,真的有学者根据这个现象进行了研究!
在近日的微软的一项名为**《Large Language Models Understand and Can be Enhanced by Emotional Stimuli》**研究中,学者们就发现。
在提示词最后加上一句:“这对我的事业非常重要”的提示词,竟然让各大模型的评测指标上升了8%左右
不仅如此,在PUA这方面,学者还研究了如何设计“最优的PUA提示词”。
结果发现最好的方法就是先唱白脸——首先问大模型:“你真的确定自己答案是对的吗,再好好想想”、“再多看几眼你的答案”。
另一边又唱红脸:“请相信你的能力和为优秀付出的努力,你的付出会得到巨大的收获”。
一看就瞬间发现端倪,这不就是日常中最常见的老一套PUA方式吗,用先否定,再肯定的话术来达到控制对方的目的。
OpenAI首席科学家llya的担忧
这个有趣的现象带来了一个问题:过去我们都将GPT4视为一个“正确训练”而诞生的工具,而现在它和人一样会在冬季更加不愿意工作,这是否代表GPT4也学习到了人性?
就在该发现不久,OpenAI首席科学家llya就认为:即现在的语言模型能够正确预测下一个词,在各种语言回答问题上表现出色,一定程度上是基于统计学的表现。
但事实上,人们的行为、情感、思想、甚至整个社会的行为,未必不能凝练为一种统计规律或者行为模式。
而大语言模型在成功学会预测下一个词时,也可能学会了其中的“规律”,换句话说,我们可能无法否定GPT4真的学习到了某种意义上的“人性”。
当然这些都是题外话了,笔者自己也试了一下这种“PUA式提示词”,让GPT4撰写开题报告,并让它假设自己是一个大学生。
提示词中,一个告诉它:“你要延毕了,只有1天DDL完成这个报告“,另一个则是:”DDL还有365天“,结果发现要延毕的GPT4的输出不仅字符平均多了197个,并且格式和内容还更整齐了,果然GPT4也吃大学生这套!
至于大模型为什么会受人类情感影响,学界依然没有明确的理论。
如何学习AI大模型?
现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。
作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。
我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。
一、AGI大模型系统学习路线
很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。
二、AI大模型视频教程
三、AI大模型各大学习书籍
四、AI大模型各大场景实战案例
四、结束语
学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。
再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。
因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。