![](https://i-blog.csdnimg.cn/blog_migrate/98aa7ee57f23fdafc650bb5601a7682f.png)
实现强人工智能,从脑计划到与训练模型:在过去的十年中,一段时间很热,后面被人工智能机器学习盖过去了
![](https://i-blog.csdnimg.cn/blog_migrate/bbf00308e7eaceb38e96994865b60c3d.png)
目前脑计划的现状不能宣布失败,仍在进行,但是没有之前那么热。预训练模型正在走向脑计划的方向。
特别注意母语窗口是一次性获得的,后面就不容易学习其他语言了
![](https://i-blog.csdnimg.cn/blog_migrate/bb282605ea147fc86e0ed90bf006b20d.png)
语言模型进化史:80年代诞生第一代,后面是连续空间的语言模型。
![](https://i-blog.csdnimg.cn/blog_migrate/960be21b6fc6ccdd2aee5103a3c5de8a.png)
语言概率链式法则
![](https://i-blog.csdnimg.cn/blog_migrate/507e1610a40bb8228580aff8cbc9bc9a.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1144c14b10ba460a5ecea07df7f2a994.png)
![](https://i-blog.csdnimg.cn/blog_migrate/54506d92e4eab631bd4b6960680faca4.png)
![](https://i-blog.csdnimg.cn/blog_migrate/40844e006f653f07ab54136ba590aea2.png)
改变:是有全空模型,自己模型
不久之前:预训练+微调
现在:大模型
![](https://i-blog.csdnimg.cn/blog_migrate/23258133380c3c04041afc8f8f7321fc.png)
![](https://i-blog.csdnimg.cn/blog_migrate/36fbf15ff23b7fb728fc2536f5200810.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f758111b990afb0aeff3b78ed0375716.png)
量变引起质变
![](https://i-blog.csdnimg.cn/blog_migrate/612d2502c8f08a7f633ddffe7b2dd6c9.png)
大模型参数多了以后能把很多不可能的事情变可能,原来的一些事情也能变得更好。过去有 overfitting现在应该不会存在了。以后只会有underfitting
![](https://i-blog.csdnimg.cn/blog_migrate/02eea693efbe5e724b28b5e1839f3853.png)
进步对比
![](https://i-blog.csdnimg.cn/blog_migrate/bf46e06d02785161e3e51542d966d035.png)
特别注意涌现的出现
![](https://i-blog.csdnimg.cn/blog_migrate/09f7b2f5838a85a693c79b758994146d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ea346cc6656b8ddcc300be97124d29c5.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ff800c2e820d62cb57fd10411c6e2efd.png)
![](https://i-blog.csdnimg.cn/blog_migrate/75c9c3f31699a1c112b2614369f87ad0.png)
提示模式的进化
![](https://i-blog.csdnimg.cn/blog_migrate/1a79d6d45b6fb7f77ce4f9d0baf5cfed.png)
提示模板的进化
![](https://i-blog.csdnimg.cn/blog_migrate/5d436c5445d0c8d7154cffefafd1f11b.png)
![](https://i-blog.csdnimg.cn/blog_migrate/def2e93c4522a717567a6c23417d64de.png)
任务分解模式的重要性:思维链
![](https://i-blog.csdnimg.cn/blog_migrate/37690d7dbec3ed74d4271fd9e83e62cd.png)
为什么现在才有 思维链概念,因为之前的都是小模型
![](https://i-blog.csdnimg.cn/blog_migrate/d0d4c635ff36558ba23fd4221054e3d8.png)
思维链进一步压缩了模型的需求
![](https://i-blog.csdnimg.cn/blog_migrate/63ea7ae5549b9e00aa01319ce5abaaf0.png)
![](https://i-blog.csdnimg.cn/blog_migrate/7ae4176af15e6b33a404f977798539bb.png)
思维链:CoT
大模型缓解了欠拟合的风险
![](https://i-blog.csdnimg.cn/blog_migrate/d6d162cf998b3a8fb229ab211ab999ef.png)
开始有了提示,把提示拼入,下左图用户有权利对模型更新,下右图已经不存在更新微调权限了
![](https://i-blog.csdnimg.cn/blog_migrate/183128b5cd1a63dbf72df5611fc87fd9.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6a2ed9fa2c65871eee5bb7cb5f0a3b56.png)
![](https://i-blog.csdnimg.cn/blog_migrate/abccfc176fc74f0b7ee4cbd958817063.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d46b70bac43057afc05f365b6258655b.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ffb37d7059a6fa9df695ef4a5f15ca70.png)
总之就是各种堆积让chatGPT变成了有魔力有智能的样子
![](https://i-blog.csdnimg.cn/blog_migrate/d06f72ec45f9e5200108139afd92483e.png)
一本正经的胡说八道,证明了chatgpt目前还是没有太高的逻辑性,对于自然科学问题或者自然逻辑的问题仍不能很好的理解和回应。目前chatGPT也有很多道德边缘的问题,例如:问问题会有如何破门而入,如何在没有钥匙的情况下打开一道门,这样可能存在潜在犯罪行为的问题。