推特热帖:大语言模型自荐能够替代的20种人类工作!快来看你是否需要转行!


最近推特上有一个例子引起了广泛的讨论,事情的起因是这样的:网友让 GPT-4o 预测一下自己未来将会替代人类哪些工作?

这听起来很有趣!GPT-4o会给出什么样的预测呢?

AI 心里有数

GPT-4o回复了一张表格,列出了GPT-4可能取代人类的20种职业,按可能性排序。表格包含三列:排名、职业、为何优于人类以及可能性:

  • 数据录入员:更快、更准确、不知疲倦,能全天候工作。取代概率:95%

  • 电话推销员:提供一致的服务,能处理大量电话,实时分析客户反应以改善话本。取代概率:90%

  • 客服 :能同时处理多个询问,提供一致的响应,全天候服务。取代概率:88%

  • 文案策划:快速生成高质量内容,能调整风格和语调以适合目标受众,成本效益高。取代概率:85%

  • 技术支持分析师:提供快速准确的解决方案,能处理复杂的故障排除,通过访问庞大的解决方案数据库。取代概率:83%

  • 医疗抄写员:在抄写医疗记录时更高的准确率,更快的处理速度,无需休息。取代概率:82%

  • 校对员:能处理大量文本,减少人为错误。取代概率:80%

  • 市场研究分析师:更高效地分析大数据集,快速识别趋势,提供实时洞察。取代概率:78%

  • 法律助理:能够起草文件,进行法律研究,快速组织文件。取代概率:75%

  • 预约调度员: 高效管理日程,减少调度冲突,提供全天候服务。取代概率:73%

  • 社交媒体经理:生成内容,安排帖子,分析管理数据,高效运营。取代概率:70%

  • 财务分析师 : 分析财务数据,识别趋势,提供更快更准确的洞察。取代概率:68%

  • 翻译 :提供快速准确的多语言翻译,能处理大量文本而不感到疲劳。取代概率:65%

  • 旅行代理:快速搜索并预订旅行住宿,根据数据分析提供个性化推荐。取代概率:63%

  • 内容审核员:持续监控和过滤内容,能处理大量数据,应用一致的准则。取代概率:60%

  • 招聘协调员:筛选简历,安排面试,高效管理候选人数据库。取代概率:58%

  • 新闻记者:快速生成新闻文章,能分析数据和趋势,提供实时更新。取代概率:55%

  • 研究助理:进行文献回顾,总结发现,高效组织研究数据。取代概率:53%

  • 销售代表:生成潜在客户,跟进潜在客户,提供一致的销售推介和客户跟进。取代概率:50%

  • 图书管理员:管理和编目信息,协助研究查询,提供数字资源的高效访问。取代概率:48%

原来GPT-4o真心里有数呢!

它不仅了解人类的能力,还深刻认识到自己在哪些工作领域能够逐步取代人类。通过它那独特的“电子眼”,GPT-4o对人类的职业世界进行了仔细的观察和分析。

奶茶过了一遍这个清单,看似很有道理,特别是那些目前GPT-4已经显示出明显能力优势的职业,替代的概率更高。

还有网友问了下Claude3:

Claude 3 列出来AI替代的20种职业,包括客服、数据录入、语言翻译、内容审核、撰写广告文案、校对与编辑、市场研究分析、基础代码开发、广告拷贝创作、预约调度、数据可视化、基础会计、社交媒体帖子生成、食谱创作、基础法律文件起草、个性化辅导、旅行行程规划、基础图形设计、歌词创作和健身训练计划创建。

那什么职业不会被替代呢?

GPT-4o同样回复了一张表格,根据替代可能性的低到高进行排序,每个职业旁边列出了为何人类在该领域不容易被替代的理由以及被AI替代的概率百分比:

  • 创意总监:需要独特的人类创造力、愿景以及领导和激励创意团队的能力(5%概率)。

  • 心理治疗师: 需要深厚的人类同理心、直觉和建立与病人的个人联系的能力(8%概率)。

  • 外科医生:需要复杂的实际操作技能、实时决策能力以及应对突发情况的适应力(10%概率)。

  • 教师: 涉及人际交往、情感智慧以及激励和指导学生的能力(12%概率)。

  • 首席执行官:需要战略性视野、领导力、复杂决策能力和建立人际关系的能力(15%概率)。

  • 演员/女演员:依赖独特的人类表情、情感以及与观众建立个人联系的能力(18%概率)。

  • 社会工作者 :需要深刻的同理心、人际交往能力和处理复杂情感问题的能力(20%概率)。

  • 警察:需要人类的判断力、身体存在以及处理不可预测情况的能力(23%概率)。

  • 消防员 :需要身体勇气、快速决策能力以及解决问题的实际操作技能(25%概率)。

  • 法官:需要复杂的法律推理、伦理判断和在决策中权衡人类因素的能力(28%概率)。

  • 活动策划者:涉及创造力、人际接触和管理动态、实时变化及人际互动的能力(30%概率)。

  • 记者:需要调查技能、人类判断力以及与消息来源建立信任和关系的能力(33%概率)。

  • 咨询师:涉及人际连接、同理心以及导航复杂的情感和心理问题的能力(35%概率)。

  • 艺术家:需要独特的人类创造力、表达以及通过艺术唤起情感的能力(38%概率)。

  • 外交官:需要高水平的谈判技巧、文化理解以及建立和维护关系的能力(40%概率)。

  • 人类学家:涉及田野工作、人际交往以及解读人类文化的能力(43%概率)。

  • 厨师:需要创造力、实际操作技能以及创造独特的烹饪体验的能力(45%概率)。

  • 建筑工人:需要体力劳动、解决问题的实际操作技能以及适应动态工作环境的能力(48%概率)。

  • 急救医疗人员:涉及实际医疗护理、快速决策和处理高压情况的能力(50%概率)。

  • 生活教练:需要深厚的人际联系、同理心以及激励和启发个人的能力(53%概率)。

根据GPT-4o给出来的名单,那些涉及深层人际互动、需要创造性思维、或者在复杂情况下需要迅速作出决策的工作,像是教师、心理治疗师、艺术家,这些都不太可能被AI替代。这些工作不仅需要理解人类的情感,还要有能力进行艺术表达或处理复杂多变的环境。

而那些重复性高、规范化流程明确的任务,比如数据录入或基于固定规则的分析工作,更容易被AI替代,因为这些工作AI已经可以高效完成。

奶茶觉得要么是需要真实环境中的人际交往,或者需要一点非框架思维的地方,人类的独到之处仍然是AI所无法替代的。在虽然AI很强大,但某些人类独有的特质是无法被机器复制的。

拟人化的弊端

上个月,Google DeepMind发布了一篇论文,详细地阐述了拟人化人工智能的潜在弊端,称这类助手可能会重新定义「人类」和「其他」之间的界限。论文探讨了以下几个关键领域:

论文链接:
https://arxiv.org/pdf/2404.14068

  1. 误导感知的风险:拟人化的AI可能会使用户对系统的能力和限制产生误解,这可能导致过度信任或低估系统的功能界限。当AI以接近或模仿人类的方式表现时,用户可能会错误地赋予其超出其真实能力的信任,如过度依赖AI的决策支持功能。

  2. 伦理和社会影响:赋予AI人类特质可能会使伦理考虑更加复杂,如隐私、自主性和责任问题。例如,用户可能会错误地认为AI具有它实际上并不具备的决策能力,从而引发关于问责制和透明度的伦理问题。这种误解可能导致责任归属不清,当AI的决策导致负面后果时,难以确定责任。

  3. 设计偏见:拟人化AI的设计过程可能引入或加剧偏见。这在AI与不同用户群体互动时尤为关键,因为拟人化特征可能反映特定的文化、性别或社会规范,这些规范并非普遍适用或可接受。这可能导致某些群体在使用AI时感到不舒服或被边缘化。

  4. 对人类行为的影响:与类人AI的互动可能以意想不到的方式影响人类行为。例如,人们可能会改变他们的自然互动方式或变得依赖AI进行社交互动,这可能影响社交技能和情感福祉。长期依赖可能削弱人类处理复杂人际关系的能力。

  5. 监管和治理挑战:拟人化的AI在监管和治理上呈现独特挑战,因为类人的互动可能会模糊工具与代理之间的界限,使得管理AI使用和责任的法律框架变得复杂。确定如何以及何时对AI的行为进行监管变得更加困难。

这篇论文提到了用户可能会把重要决策委托给AI、向AI透露敏感信息,甚至在情感上过度依赖AI等现象。

随着AI技术日益进步,它们变得越来越像人类,这难免引发一些担忧。在科技高度发展的今天,只有每一步的前进都慎重考虑,才能确保技术的应用方向是正确、可持续的,避免潜在的负面影响。

而就在最近,OpenAI几大操作却引发了大量争议!

AI可以用来战争吗?

OpenAI的最新成果GPT-4o在上周的大会上引起了广泛关注,特别是其在情感依赖方面的应用,能够输出高度情绪化的语音回复,而且能够读取用户情绪健康状态。

这样的能力不仅令人惊叹,也不可避免地引发了一系列道德和安全上疑虑。

我们正见证一个人工智能可以解读甚至操纵人类情绪的新时代。但是如此深入地介入人类的情感生活,而对应的监管的规定和限制却是空白,AI被赋予的这项能力能力难道不是打开的潘多拉的盒子,将会释放一系列预料之外的后果吗?

更令人不安的是,OpenAI最近悄然撤销了限制将ChatGPT用于“军事和战争”应用的禁令,这一决策无疑为AI技术的军事利用打开了大门。

虽然目前的AI系统还不能直接控制执行致命任务的武器系统,如无人机或导弹发射装置,但它们可以在战争中扮演关键的辅助角色。

例如,AI可以用于优化战术决策,分析情报数据,协调物资和兵力的调配,甚至模拟敌对力量的行动以预测其战术。此外,AI技术也能够加速军事通信和文书处理,提高军事行动的效率和响应速度。

然后随着技术的进步,未来AI可能被整合进更直接的战斗系统中。例如,通过AI增强的目标识别系统可能会被用来自动化攻击决策过程,从而降低人类决策者的直接参与。

奶茶也很担忧,AI真的有权利参与战争吗?要知道,战争和杀戮是紧紧相连的。

当我们讨论AI参与战争的问题时,不仅需要探讨人类决策者如何、在何种范围内使用这些技术。而且还要探讨AI“拥有权利”参与战争吗,我们人类的世界要赋予AI这个权利吗?

AI本身作为工具,没有权利或意志,它的行动完全受制于人类的设计和指令。但是AI决策的责任归属问题非常复杂,如果发生错误,确定责任变得难以追踪。

其次,AI有没有权利作出致命的决策呢?AI可能难以准确执行战争法和国际人道法中的伦理限制,如区分平民和战斗人员,这可能导致不必要的伤害或损失。

小结

再结合我们开头提到的AI可以替代人类的工作这个话题,AI在模仿和执行人类任务方面的边界究竟在哪里?AI真的能够慢慢替代人类吗?

这是一个值得我们深思的问题。随着技术的迅猛发展,AI正越来越多地渗透到各个行业,甚至开始胜任一些原本需要人类独特技能和判断力的工作。那么,AI能够做到哪些,无法做到哪些,它的能力极限是什么?这些问题不只是技术上的挑战,更涉及伦理、法律和社会经济等多个层面。

这是一个需要我们认真考虑和广泛讨论的问题。大家对此怎么看?欢迎一起来探讨,分享你的见解和看法。

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

篇幅有限,部分资料如下:

👉LLM大模型学习指南+路线汇总👈

💥大模型入门要点,扫盲必看!
在这里插入图片描述
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。
在这里插入图片描述

👉大模型入门实战训练👈

💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉国内企业大模型落地应用案例👈

💥《中国大模型落地应用案例集》 收录了52个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
在这里插入图片描述
💥《2024大模型行业应用十大典范案例集》 汇集了文化、医药、IT、钢铁、航空、企业服务等行业在大模型应用领域的典范案例。

在这里插入图片描述

👉LLM大模型学习视频👈

💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
在这里插入图片描述

👉640份大模型行业报告👈

💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

👉获取方式:

这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 16
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值