我们如何才能防止人工智能系统中的模型崩溃,并确保其保持准确性和无偏性?简而言之:需要人类。
在“自动化艺术与后知识经济? ”一文中,我推测了“后知识”经济的概念,即不仅仅是通过基于知识的服务(而不是实体商品和基于劳动力的服务)积累财富,还发展出一种由人工智能驱动的经济,可以“毫不费力地”产生知识,似乎绕过了人类的输入。
我们似乎正处于一个“关键时刻”,“人工智能准备将我们带入后知识经济”。这种情景的弱形式将涉及“越来越多地采用人工智能模型和工具,但只会坚持重复已经存档的所有内容,而不一定贡献任何新内容”。这种“剪切粘贴”场景可以说已经是我们所处的境地,“将我们带回后现代模拟辩论(如电影《黑客帝国》中的那样)”。事实上,对生成式人工智能的批评之一是它只是模仿或重复 之前所说的一切。因此,“它只能与它所依赖的人类记录一样好(自我监督的人工智能可以浏览的大量但不完整的图像和文本档案)”。
我补充说,还有另一种情况,即“存在一种信息生成性描述(例如从 DALL-E 2 和其他类似模型中大量生产出来的图片),这些信息作为交换场所的新创意投入,而这种交换场所不再是我们独有的”。这是后知识经济的强形式,诚然,我只是暗示了这一点,但它具有一定的必然性。一个关键问题摆在眼前:人工智能开始自食其力!
我在文章的最后提出了后知识经济的概念,即“一种新知识的先兆,这种知识可能不是人类的专属,而是代表着一种巨大的ÿ