AI经济学人工智能社会学与工作,AIGC重构了什么是专家,意见领袖的时代也结束了。AI人类学数字社会学与数字经济角度看世界

生成式人工智能和其他先进的人工智能产品对他们的工作、兴趣和收入的影响。

你可以从人工智能中受益,它可以帮助你更快地工作。也许,更好。另一方面似乎任何人都可以在人工智能的帮助下看起来像专家和创造者。现在,让我们坦诚地谈论焦虑。(或者是人工智能焦虑?)

我们所知的世界的暗黑

不要让任何人欺骗你:你感到的不安和存在主义恐惧并非毫无根据。顶级职业专家、职业生涯早期的专业人士都在努力应对这些感受。

“多年来,我们一直听说自动化和人工智能将取代那些我们都不想从事的死板、无聊的工作,但只要我们‘有创造力’和‘人性’,我们就会没事的,”我的一位朋友表示“唉,AIGC大模型 把我们打败了……显然我需要一个新的计划。” 他的新计划包括建立人际网络,以及树立“强大而独特的声誉,这样人们才会选择与你合作”。建立涉及多种技能的 职业组合也比以往任何时候都更加重要。

然而,对许多人来说,不安不仅仅在于新职业规划的实际情况。挣扎更为深刻。我的朋友正在努力应对对我们作为创作者、专家、作家、程序员、艺术家、医生、律师等身份的威胁。

那些已经靠自己摆脱贫困或不顾歧视而建立事业的人,也必须比其他人更加努力地转型。这意味着,虽然一些焦虑可以通过转型和适应在个人层面得到解决,但其他焦虑则需要集体和系统的解决方案。而这些系统性解决方案将集体关注人类伦理。

谁会受到影响?

人工智能对内容创作的影响将如同数字音乐制作的出现对音乐行业的影响一样。那些失去工作的人通常是足够优秀但“商品化”的大路货,而精英音乐家、最受尊敬的词曲作者、制作人和技术人员则蓬勃发展。那些为公司提供“小红书种草内容”或通用 SEO 内容的人可能需要考虑转型。对营销和文案工作的许多工作都构成了威胁。这可能也适用于数字艺术、网站建设和许多其他职业。

任何赞美破坏的人都没有感受到被破坏的严重打击——尤其是在没有社会或家庭安全保证的情况下。当前的破坏尤其令人痛苦,因为威胁远不止经济。机器人侵占了我们许多人喜欢做的事情,包括绘画、写作和创作。有趣的事情。如果机器人接管了清洁厕所的工作,我我们不会反对。

个人可能需要考虑,个人的创造力是否也可以通过不太受人工智能解决方案影响的追求来表达。但从社会正义和道德的角度来看,只有人类才能回答的问题是,从这种颠覆中受益的企业是否有义务支持转型和再培训,以及哪种社会保障可以帮助防止职业中途被裁员而成为个人和社会灾难。这是一个社会问题,因为任何行业的大量失业都会对人们再也无法光顾的其他行业产生多米诺骨牌效应。

当然,并非每种类型的创意工作(如写作或艺术)都会受到同等影响。人类新闻仍然很重要。如果你作为一名记者,除了分析的犀利度和编辑的风格外,独特的观点也是脱颖而出的必要条件。在新闻业或任何依赖人类视角和生活经验的独特性的领域,人工智能工具永远无法取代人类的想象力和直觉。

我们现在还嘴硬,说喜欢强调想象力和直觉。但我们的专业知识呢?

谁是专家?

讽刺的是,生成式人工智能虽然降低了自称专家的门槛,但却提高了真正成为专家的门槛。AIGC大模型复制/粘贴可以帮助非专家听起来令人印象深刻,即使他们甚至不熟悉该主题(剥夺了那些天生擅长撒谎的人的一些优势)。其结果是,听起来令人印象深刻的非专家之间的竞争加剧。

与此同时,要证明自己是真正的专家,可能需要具备卓越的人类专业知识。要成为一名真正的人类专家,需要对主题有比人工智能所借鉴的“群众智慧”更多的了解。人类专家必须能够发现“众包”知识中的错误、偏见和虚假引用,从而产生比人工智能更准确、更有用的工作。他们还必须能够将知识付诸实践。

对于那些聘请专家(如顾问)且对千篇一律的建议不感兴趣的人,你需要寻找深厚的专业知识。此外,这种专业知识应该经过精心策划并应用于一组特定的业务情况或目标。”

我坚定相信人工智能永远无法取代真正的思想领导力。

思想领导力仍然是人类吗?

意见领袖(不幸的是,这个词已被过度使用和误用)通过提供独特的观点、创造新的理解和影响他人的思维来积累专业知识。他们的专业知识不仅深厚且基于研究和经验,而且充满激情和信念。

对于渴望树立思想领袖声誉的个人和组织来说,人工智能可能是长期以来出现的最好的工具之一,也是最糟糕的工具之一。它可以提供与任何主题相关的主流思想的汇编。如果你以该汇编为起点,那么人工智能就是一个有用的工具。但如果你重写一两句话,只是添加一个吸引人的标题和标签,并在上面贴上你的名字作为原创内容,那么就是混混而已。

制造噪音与思想领导力不同。

需要人类的领导

如果没有人类的领导,生成式人工智能的普及很可能会导致世界混乱和人道主义局面。在道德决策、考虑人类后果和防止错误信息方面的领导力是最需要人类和以人为本的思维的领域之一。

1. 保护人类生命和社会正义

大公司似乎认为以人工智能推动生产力的名义裁员是可以接受的,人工智能公司的负责人也认为失业的风险“不会超过积极后果”。然而, 谁会从中受益呢?失业是否与这些计算中考虑的自杀风险增加两到三倍有关?

解决人工智能使用带来的许多伦理问题取决于人类。例如,是否考虑过将中产阶级的个人和家庭推入贫困,从而进一步加剧本已严重的经济不平等?与生计和职业身份丧失相关的心理健康危机风险又如何呢?

人工智能可以帮助分析多种失业情景、经济轨迹以及全民收入和再培训情景,以减轻人类伤害。然而,只有道德驱动的人类才能做出有利于人类福祉的决定。

2. 防止虚假信息并确立真相

生成式人工智能的一个鲜为人知的缺点是,它有可能以牺牲人类福祉为代价,大量传播虚假信息,偏袒那些符合商业或特别人群议程的观点。想象一下,人工智能来源大量传播错误的“信息”,而人们没有正确地研究、评估和核实数据。数据被使用的越多,它就越成为“真相”。

真相的本质以及流行和经常重复的内容与事实之间的区别是人类面临的一个难题。解决这个问题需要人类的研究和批判性思维——人类可能会倾向于将这些技能外包给AIGC大模型 等。

但即使人类愿意并能够付出努力,确定真相的困境仍因 AIGC大模型 的不透明性质及其缺乏对信息来源的引用而加剧。

3. 请提供参考资料

AIGC大模型 黑匣子中的信息来源对于用户来说是不可追溯的。当被要求提供参考资料时,它会吐出不存在的虚构的专家、书籍和研究。AIGC大模型作为人工智能,它不可能主动意愿来编造参考资料。我相信这一点,但这又引出了另一个问题:它是用什么来训练的?

在某些方面,使用适当的来源但没有注明出处可能比捏造的参考资料更成问题。生成式人工智能对受版权保护的艺术作品、写作和其他知识产权的衍生使用是一个重大的道德问题,甚至可能是法律问题。

AIGC大模型时代是不是意味着意见领袖的消失,这确实是个有趣的议题。

  • 19
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值