原创:谭婧
2020年,年中。
人类历史上最大的人工智能模型,来到人间。
这个体格巨大的北鼻,哭声嘹亮,告知全世界:“我写的作文,几乎通过了图灵测试。”
那些第一次听说参数数量的人,
那些第一次翻看实验结果的人,
那些第一次口算增长速度的人,
在彼此确认了眼神之后,一致的反应是:
“哦漏,我大概是疯了吧。不,是人工智能模型疯了吧。”
同行迈出的步子,似乎要扯烂裤裆。
墙内的人,捡起惊掉的下巴。
墙外的人,他们只觉得婴儿的哭声吵闹。
“不仅会写短文,而且写出来的作文挺逼真的,几乎可以骗过人类,可以说几乎通过了图灵测试。”
如果没有后两个半句,你可能会误认为这是老师对文科生学霸的评语。
理科也超级擅长,还能辅导别人编程。
“以前都是人类去写程序,现在是人类写一个人工智能算法,算法自己从数据中推导出程序。新的人工智能技术路线已经跑通。”
学渣,看破红尘,敲敲木鱼,念出乔布斯的名言:
做个吃货,做个蠢货
(Stay hungry,Stay foolish)。
反正养老托付给人工智能了。而这样的人工智能,需要巨额的资金,需要顶级的技术。
科技巨头微软大笔一挥,千万美金的支票,拿走不谢。
据测算,即使使用市场上价格最低的GPU云计算(服务),也需要355年的时间和3500多万人民币的费用。
大明宫首席建筑师阎立本,收起画完《步辇图》的画笔,在呈给太宗李世民的臣下章奏中写道“用工十万”。
千宫之宫,留名千古。
全球顶级人工智能实验室,用金千万。
三十一位研究人员,徒手修建了一个外表看上去擅长胸口碎大石的北鼻。
挪步震掀桌椅,哭嚎万马齐喑。
这个超大人工智能模型,名叫GPT-3。
早期的深度学习模型,参数量小,好比一个乐高玩具,每天摆在办公桌上卖萌。
如今的深度学习模型,参数量挑战底层GPU并行技术,参数量挑战底层地基。
好比同样是乐高模型,GPT-3可以在北京朝阳区三里屯优衣库门口当大型摆设。
当然不是试衣服,而是欲与大楼试比高。
知乎问题:“如何看和楼一样高的乐高模型?”
网友回答:“抬头看。”
不抬头,只能看到脚丫子。一个正常的模型大小刻度表,绿巨人GPT-3模型是放不进来的,得重新画一下坐标轴的刻度。
(原来的队列)
(GPT-3来后的队列)
人工智能超大模型GPT-3和绿巨人浩克一样,都是大块头。
经常观摩,可以治疗颈椎病。
绿巨人GPT-3模型出生于美国Open AI实验室。
在看到自己的论文刷爆了朋友圈后,像他们这么低调的科研团队,一点也没有得意,只是在办公室旋转、跳跃,并巡回炫耀了24小时,而已。
早在2019年,Open AI实验室就发出前方高能预警。
他们核算了自2012年以来模型所用的计算量,从AlexNet模型到AlphaGo Zero模型。AlexNet模型,是冠军模型。AlphaGo Zero模型,是打败韩国围棋九段棋手李世石的那个,它们都是人工智能模型。
参数指标很争气,增长30万倍。