大模型和人一样需要 提高对 编程语言认知

文章讨论了国内大模型如星火和文心一言对C#语言的理解停留在十年前,与GPT系列模型相比存在认知偏差。同时提到.NET8的NativeAOT特性及C#语言的增长趋势,以及Microsoft开源的semantickernelSDK在LLM开发中的作用,强调了工程实践和软件工程的重要性。
摘要由CSDN通过智能技术生成

今天在ChatGLM2-6B 的仓库里看到了这么一个issue:https://github.com/THUDM/ChatGLM2-6B/issues/122:

e6de2909b5a894065879b68ceb66d09c.png

这位兄弟说的挺好,其中有点小错误:三星Tizen架构 其实不是架构,是属于arm架构 ,Tizen是 三星的一个操作系统。由此我想到了ChatGLM2 是国人开源的LLM ,因此我去国内的几个大模型应用上面去问问这个问题:

1、科大讯飞的星火大模型:

4eba2a82135e110af6d361ed787ea5b2.png

4544b8a19fed3ecb509324d284980727.png

看到星火大模型对c# 的认知也是停留在10几年前 ,这和国人对c# 的理解比较接近。接下来我们去看下百度的文心一言:

262404a22d74730dd5293a80e7928718.png

文心一言也是一样的,这个认知也是停留在10几年前了, 这么看来大模型的认知 受到他的训练者的影响是很大的。通过这几个国内的大模型可以知道他们的训练数据很差,带满了偏见,对C# 语言的认知还停留在10几年前,下面我们把这个问题问下ChatGPT吧 :

首先问下 GPT-3.5的模型,回答明显比国内这些大模型公正,认知上比较符合事实:

6cd227857a5a4b4c20a9c2900ba64eff.png

b3059920fc6e0da36a6647b655db3bf6.png

我们再来用 GPT-4 问一下,回答是正确的:

e6246f331db0153f95248f87e08e369e.png

21e5348863e5bcd5e8c141c02b7bf287.png

从国内外大模型对这么一个简单问题的回答答案来看,国内的这些大模型和 GPT 相比,智商还差得远。大模型和人一样对这个世界的认知也是有偏差的,喂给她什么知识,他就记住了什么。马上就要发布.NET 8 的第一个RC版本了, .NET 8带来一个很大特性是NativeAOT, 以后用C# 写的程序,用NativeAOT编译,可以告诉别人说我这程序是C++ 写的, 可以给用Java 通过JNI 来调用。

这个蓝色星球上的C# 语言的采用还是在稳步上升的,Tiobe 的8月份排行榜里,前五名里面只有c# 是在稳步上升,其他的都在下降:

eb89e63544824e356626b18633908c9e.png

今年以ChatGPT为代表的AIGC,微软抓住了, 微软在采用GPT 改造传统应用的过程中开源了一个LLM 开发SDK semantic kernel(简称sk),他的主要语言就是c# , 现在已经支持Java,Python。SK 经过微软的实践总结,然后在今年的3月份开源,现在已经有star 12k,经过半年时间的社区开源协作,接口逐渐稳定。随着大量企业的GPT 改造浪潮。c# /.NET 会继续上升。

在国内,虽然没有国外那样的上升势头,在国内的很多领域还是非常坚挺的,也有变好的趋势。现在.NET的开源生态已经成熟,剩下就是大家的工程思维和管理思维需要提升,特别是AI领域的算法门槛已经大大的降低,更多的是靠软件工程来补齐,就拿当前在LLM 应用开发领域的两大开发框架 SK 和 langchain来对比,langchain10 几个漏洞,sk没有漏洞。langchain 是原来搞机器学习算法的人搞的,很多学校里搞算法的博士生算法是厉害,代码基本上不堪入目,使用Python这种胶水代码基本上很难在大并发的工程实践上有什么比用C# 或者Java 好的。现在基于transformer的GPT 模型的落地已经是工程的事情而不仅仅是算法的事情了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值