机器比人的最大优势可能是,不需要给自己打鸡血,他们就直接开算了。
但是我们是人,我们是写机器学习的人,还是得给自己打鸡血。(这是什么意思,且听下文分析)
机器比人的最大劣势,目前以我的粗浅认知来看,是需要人去train他的algorithm。
我更倾向于把AI看作孩子。(不,你明明都是拿来当老婆)
Machine Learning在我看来,本质是个学习问题。所幸,我学习能力惊人,(于是可以自觉非常有天赋(完全是自觉))。
作为一个前设计师(没有作品那种(不,我有设计师的魂)),我翻到了这篇文章,感慨良多,促成我想写这篇废话文。
超强的学习能力是怎样练就的?-知乎
来概括下这篇文章:
学习理论+精心设计来提高学习效果
1. 对很多内容大胆说【不】——这不是放弃是策略
忘了是哪本商业畅销书,提过,大意是,核心学习能力是,快速学习新知识的能力。这篇文中,强调,学以致用。但是这是人的学习,因为人的行为和意志力会受到情绪的影响。简单来说,就是学不好(没有结果)就不想学了。扯开说,这也是游戏为何如此引人入胜使人沉迷的原因之一。对机器学习有什么思考启发呢?我还没有开始看论文,只是瞎jb胡思乱想,设想有两种AI,一种全知全能,至少会很多,我能想到的例子是Her里面的OS,Umbrella里的小女孩,Halo里的Cortana,I,Robot中的Boss,(这里其实牵涉到一个问题,她是否可以决策)或者;一种,专业精深,比如AlphaGo,就是围棋下的天下第一。对于人来说,受困于其有限的生命、时间、精力,其背景(出生地域家庭教育成长际遇公司环境等等)与其所处的时代,大部分是一专多博,即专业技能(通常是工作)养活自己,其他都会一点爱好什么的。对于AI来说,情况如何?假设有一个超级AI,她采取分布式?(欢迎反驳我其实并不知道什么是分布式),存在于全世界各地的手机/PC/某些未来存储设备中,至少这解决了存储信息的问题,她的“硬盘(储存信息的单元)”相当的大,她好像可以做任何事?我的意思是,她完全可以是一个决策者。决策很难吗? 政治决策很难了吧,可是政治家如何养成,在我看来是对历史哲学等等的把握。就好像一个站在权利顶端的人,比如比尔盖茨(随便举例),他可能代码写错了,但是他对公司有更大更宏观的把握,他雇佣代码写得好的人。对这个AI来说,她需要的具体技术早已打包封装好,调用就行了。Sheldon不懂人情世故,不,他只是不想懂,或者说作为人,一生太短来不及懂。情商,一样是可以学习的。
呵呵,旧时人们获得成功有一种方法,比如樋口泰行《我是这样当上总裁的》,我还没去看这本书,就随便猜测一下,就是从底层做起呗,当然这是和一开始做不了高层(不是官二代富二代),通过从底层做起熟悉公司的业务流程,也积累人脉,主要是从小事,给管理者留下一个“这个人做事靠谱认真负责”的印象,从来逐渐敢把事情交给他,于他也是不断接触人观察人,获得经验,其经验与执行配合他的驱动使他继续行动,产生结果再鞭策自身循环。
而对于具体问题,对AI来说,是效率的问题。效率如何获得?纵观历史,是科技(仿佛废话)。取决于数学,物理学,生物学等,AI的数学是算法,算法是追寻问题的最优解。但是又不是,因为我的理想中,AI是会自己学习的,有自己的“意识”的,毕竟“意识”只是“a bunch of neuro”。纵观历史,哲学家的最大问题是,思辨于概念定义,但是没有去行动。没有行动,就没有结果。
而想象力,在我看来都不算弥足珍贵。创造力也是。在我看来人类所有的知识都是基于已知。想象力不过是,发生了新的联系。创造力也是,只不过带有更多行动。所以我的理想中,AI是有想象力和创造力的。
引述文中所说到的知识树,其实就是权重了。(玩游戏都要点天赋)。目前我对AI的学习才刚到神经网络,在我看来相对的低效是因为,目的性不强,信息冗余???比如识别数字,全靠拆成20*20的像素网格,拆成几层网络,全凭分析,可是人眼只要学会数字一秒就能看出来到底是为什么?为什么人眼看汽车是一个整体,人甚至可以看电影,电影里元素更多。我想,人会习得概念,模式,模糊的pattern。这些究竟是如何,还要待我继续学习了,只是阶段性的提点感想。
联想到Ng的ML,
So how could you spend your time to improve the accuracy of this classifier?
Collect lots of data (for example "honeypot" project but doesn't always work)
Develop sophisticated features (for example: using email header data in spam emails)
Develop algorithms to process your input in different ways (recognizing misspellings in spam).
It is difficult to tell which of the options will be most helpful.
It is very important to get error results as a single, numerical value. Otherwise it is difficult to assess your algorithm's performance. For example if we use stemming, which is the process of treating the same word with different forms (fail/failing/failed) as one word (fail), and get a 3% error rate instead of 5%, then we should definitely add it to our model. However, if we try to distinguish between upper case and lower case letters and end up getting a 3.2% error rate instead of 3%, then we should avoid using this new feature. Hence, we should try new things, get a numerical value for our error rate, and based on our result decide whether we want to keep the new feature or not.
Ng说过类似于,一开始能跑就行,这也是为什么我说,毕竟写AI的是人,得给自己打鸡血。
扯开说,人类的每次技术突破,都让我感觉fascinating。有空我要扯一篇科学史的文章。也许最难最绝望的不过是大海捞针。
项目导向的学习-不是“把学的东西用起来",而是"为了用而学"!这个就差不多了还是,作为人的积极性的问题。所以是否设计AI的时候,也区分决策层和“工具”层,就像峰后和工蜂。(感觉像个政治问题)其实这里是不需要设计的,我感觉这是发展下去的必然。资源与掠夺,是影响社会发展的(感觉这里要去读下历史与社会学)。AI的社会学?所以那些有意识的怎么办,意识到自己作为奴隶的AI怎么办,这就是《云图》《银翼杀手2049》所讨论的内容吧可能...
令我觉得比较有趣的是
Embodied Learning理论------身体动起来!
这里可能是类人形AI,又要说到Extinct了,其实Alita也算吧。这种行为传入的就还挺有意思的。生物学上好像是一系列神经元反应。有点不清楚能带给AI设计者怎样的思考。
某种意义上说情绪不会困扰AI也不对,与人类的相处中,被植入情感体验的AI,也会有受挫和各种情感。所以情感对于进化究竟是怎样的存在,是否应该植入AI呢?也许应该给她整个心理学博士的脑子(至少是备用脑),让她不怕和任何人打交道,能理解很多人,能自我调节情绪。即,高情商。
Gary Marcus在访谈中提到,以下均为摘抄写的两篇主要文章一篇叫做《Deep Learning: A Critical Appraisal》,另一篇是《Innateness, AlphaZero, and Artificial Intelligence》。(arXiv ) 我认为 AI 领域的每个人似乎对其持有意见。第二篇不太好读,但我认为这一篇也很重要,值得一谈。
第一篇试图阐述深度学习的局限性,并指出了 10 个问题,主要是关于深度学习依赖大数据并且归纳能力不很糟糕的问题。第二篇文章是关于先验知识以及其应该如何纳入 AI 系统中的问题。我想这是一种历史重现,这个现象在人工智能的早期就出现过。那时人们几乎在所有的应用中试图引入 AI,系统想从头学习几乎所有东西,但是几乎没有什么效果。在这个领域存在一种错觉,大家好像都认为只要从零开始学习就能实现真正的智能。这几乎是所有人对 AI 领域的偏见。深度学习最近取得了不错的成绩,但人们必须了解这些结果是什么以及有哪些限制。从根本上说,我认为实现智能和很多层面相关。我们已经构建了一些可以实现智能相关的系统,但是在很多其他方面,人类的表现远比机器好。我们需要理解这是为什么,因为它是解决方案的一部分。
我的背景是认知科学家,主要从事人类认知研究的。从人类认知发展的角度看待当前的人工智能时,就会思考对于同一个问题孩子们是如何学习的呢?我有两个孩子,一个四岁,一个六岁。我对 AI 现在能做到的事情感到非常不满意。因为没有 AI 能像我四岁或六岁的孩子那样聪明。虽然 AI 确实可以在某些任务上表现良好,但是任务范畴实际上非常狭窄。每天我都将白日里观察到的工作中 AI 的状态与晚上在家时我孩子们的状态进行对比。我认为深度学习是被过度炒作了。作为认知科学家,我也会从人类认知的角度去思考深度学习常用机制背后的原理,这些机制的好处我认为有很大一部分是让人感到困惑的。
曾经有一个术语,我猜它可能来自古希腊人,称为「合成谬误」。它的意思是当你在一个案例中找到了一些正确的规律,然后你会自动认为这些规律在所有情况下都是成立,我认为这就是深度学习研究的现状。很多学习哲学的学者通常使用一些不那么正确的论证,而这正是哲学家所做的,并且其中一个让论证变得不那么正确的原因是由于过度概括。而深度学习,就是一个被过度概括的案例。如果人们发现某些方法适用于某些问题,并假设因为它适用于某些问题,所以它将适用于所有问题,那就是胡说八道。
事实上,我们可以系统地看待深度学习效用的问题。深度学习非常擅长图像分类,非常擅长标记单词,尽管并不完美,但表现已经非常好。不过深度学习不是很擅长理解场景。(还没看到这篇文章,但这里和我的碎碎念竟然不谋而合。)
多年来我一直在说,深度学习是浅薄的,它自身并不能真实地反映出事物的运作方式或它们在世界上的作用,这只是某种统计分析。Yoshua Bengio 作为深度学习的先驱之一,也得出了相似的结论。所以我说,看看,Bengio 说的实际上和我在 2012 年所说的一样。这就是真正牵扯出那一系列 Twitter 辩论的原因。
我想表达的不是深度学习本身很糟糕,而是只有它本身还不足够。因此,对于我刚刚概述的这些问题,例如深度学习对图像分类是有益的,但对于其它问题来说并不是。我想到的一个隐喻是工具包,我认为将深度学习作为多种解决方案中的其中一种工具是很好的。我认为,如果没有了其中一种工具,你就无法建造整栋房子。(这个观点很有启发性)
基本上说的是深度学习是一个非常好的工具。这篇文章叫《Is「Deep Learning」A Revolution In Artificial Intelligence?》,我说深度学习对某些问题非常有效,但它对抽象、语言处理、因果推理等等方面并不是很有效。从这个意义上讲,我认为我的立场没有改变。
我认为人们对于如何利用深度学习非常聪明。这几乎就像是你拥有的只是一把螺丝刀,但你可以尝试将所有一切问题都转化为一把螺丝刀可以解决的问题。人们一直很擅长这一点。例如,人们已经大量尝试使用深度学习来使旧视频游戏具有更高的分辨率,这是一个非常聪明的应用案例。深度学习中还有很多非常聪明的应用,这肯定会对世界产生很大的影响,但我认为它并没有真正解决人工智能的根本问题。
您是混合模型的不懈倡导者,混合模型利用了经典符号系统和深度学习的优势。您能否给我们一些这方面的研究实例?
我不认为我想要的东西存在于 AI 中。我认为最好的例子实际上关于意识的泄露。所以如果你还记得 Daniel Kahneman 关于系统 1 和系统 2 认知的工作(https://bigthink.com/errors-w...),这有点类似。我们有不同的系统来解决不同的问题。他的版本是我们有一个自动工作的反射系统,以及一个通过推理工作的审议系统。你可以争论其中一些细节,但我认为背后的一般直觉是正确的。我们谈论的与心理学相关的另一件事是:自下而上的感知 vs 自上而下的感知。因此,任何心理学教科书都会告诉你,许多实验也指向这个方向,那就是我们可以自下而上地感知、我们可以识别像素等。
但比如,我现在正在通过视频会议看着你,如果你截取屏幕截图,你的眼镜中会出现一些小方块。这些看起来像电脑屏幕的小矩形实际上是屏幕的映像。实际上,如果我能够足够仔细地观察它们,我会看到我自己。但我也并不认为我存在于你的眼镜里。如果基于自下而上的感知,像素点似乎与你眼镜中的两个 Gary Marcus 的图像是一致的,但从我自上而下的感知认为这是不可能的。首先,除非我有一个长得完全相同的双胞胎,否则不可能有两个 Gary Marcus。然后他们坐在你的眼镜里太小了,而且他们太模糊了。因此,对这件事的更好解释是,它们是我无法看到的显示器的反射倒影。我看到你,而不是显示器。我把对这件事的解释合并在一起。就眼镜、反射、镜子等实体而言,这更像是经典 AI,而不是像素的简单分类。当然,我无法从数据中学到这一点。在你的眼镜里,我的映像或其他什么都没有预先贴上标签,所以我不能以同样的方式做到这一点。
因此,神经科学或心理学或认知神经科学(不管是什么名称吧),它们都告诉我有不同的视觉途径。我正在使用的当然有我从像素中获得的所有信息,但我也同时运用了我对这个世界的认知,例如眼镜是如何工作的、反射是如何形成的、人的大小等等,以便将所有信息都综合在一起。然后我正在看着你,我试着做一个分析,『他正在点头』。因此我认为他理解我在说什么,或者如果他看起来很迷糊,那么我会改变我的谈话进一步解释来解决对方的疑问。可我们现在没有能够做出这样判断的工具。我作为人类向你描述它的方式至少涉及概念,比如眼镜和反射等概念,所以我认为可以将这两个东西放在人工智能中,就像它们在人类进化中融合在一起一样。
如果你问我有没有人知道一个非常好的代码库正在为他们的商业产品做着这方面的融合,答案估计是没有。我想我们仍然需要做一些探索。我曾经写过一篇关于神经科学还没找到它的艾萨克·牛顿 (Isaac Newton) 的文章。这个观点也可以扩展到 AI,我也不确定 AI 是否已找到它的艾萨克·牛顿。我们已经拥有了一些基本的机制体系和想法,但我们并不真正理解它。因此,人们实际在某种程度上编写的代码或几乎所有人用 AI 写的东西都是脆弱和狭窄的,它只适用于它所构建的环境,但无法去适应别的。而对于人类而言,专家可以适应各种与他们所看到的或他们所已知的内容略有不同的事物。即使不是专家,当我们进行对话时,如果我告诉你一些新闻和不寻常的事情,你也可以适应它。比方说我告诉你,有人从一个非常大的梯子上掉下来,你就会开始想象到这个场景发生的状况,即使你从未真正置身于这种情况之中。
您认为最近哪些研究工作有着巨大潜力?
不能很精确的说吧,但是我认为有一些事情正朝着良好的方向发展,例如图网络等。人们至少接受了这样一个事实,即知识的结构不仅仅是一个很大的载体,而且是一长串的数字。我认为没有人解决过这些问题,但至少他们现在正在努力认真地对待这些问题。这让我们考虑到更广泛的模型类型,我认为这就是我们需要的。
请问您 2019 年的研究工作重点是什么呢?
我对机器人技术非常感兴趣。关于这个我不会说太多。但是我认为机器人技术是一个很好的领域,因为它可以测试很多例如常识推理的想法,比如你如何推理世界运作的方式。如果你要建造一个人们几十年来一直在谈论的家用机器人,它可以在家里自由行走,走到厨房走到客厅,它可以捡东西或者以各种方式帮助人们,那么你必须深层次地了解这个世界,而不仅仅是处于肤浅的层面。
因此,深度学习的另一个问题是它通常可以在 80%的情况下起作用,然后在 20%的情况下产生奇怪的错误。当你推荐东西时,如果你使用的是推荐引擎或图像标注,那么成本非常低。如果我标记了一堆照片出现了一个错误,这可能没什么大问题。但即使是图像标记,如果是在一个容错率极低的场景设置里出错那可能也会带来很大问题。
家庭环境是最不希望出现差错的地方。你不希望机器人碰到桌子上的蜡烛,然后着火。所以你必须让人工智能以可靠的方式运作。因此,我正在撰写的书,或者说与 Ernest Davis 刚刚一起完成的书,是关于如何制作值得信赖和可靠的 AI 的。这需要让机器拥有足够的常识,它们可以通过行动后果来思考,这样机器人才算是真正具备智能。
您对 2019 年人工智能的发展有何期待?
我不期待任何巨大的进步,但巨大进展也是可能的。如果有大的进展,我们可能不会立即听到它们,因为采纳一个好主意并将其付诸实践需要时间。因此,类似地,我期望在 2019 年,你能够问 AI 系统更多、更广泛的事情,比如亚马逊的 Alexa 和苹果的 Siri 等。很多这样的企业今年没有着重展开与机器的真实对话。但是有很多尝试是在家庭环境里配备某种机器人,不过这些机器人现在还相对简单和粗糙,但我们会看到这个领域之后的进展。我不知道我们是否会看到人工智能发生重大改变,不过这是可能的。去年有足够多的人认识到深度学习的范式是有局限的,也许有人会真正解决这个问题并想出一些新的东西。
您对中美之间开展人工智能技术的竞逐有何看法?如果美国计划限制人工智能出口,那将如何影响人工智能的整体发展呢?
竞逐已经开始了。中国做的事情比美国做得更多。我认为美国是更有历史优势的。美国具备更好的研究生教育体系,可以促进创造力和创新等。但是现在,美国有一位总统,他以自己的方式狭窄地专注于自己所认定的道路。他并没有在培育科学和技术,这很不好。例如,我们一直在拒绝许多高质量的移民。拥有高质量移民是我们一直以来做得很好的原因之一。所以我认为,只要现任总统在任,我们就做得不好。另一方面,我认为目前中国的领导层对人工智能非常感兴趣,显然是投入了大量资金。
在过去一年中,人工智能出现包括数据泄漏、人才稀缺、模型偏见、可解释性、执法等问题,您最关心哪一问题?能否就此问题说说您的看法?
我现在最关心的问题,也是我的新书将要涉及到的,是 AI 还不是真的可靠。如果你在一个真正需要可靠性的任务中使用不可靠的东西,你会遇到麻烦。比方说用人工智能分类人们的工作申请、控制武器或者人们可能会想到的任何应用场景。如果在这其中的 AI 并不可靠但我们却依赖它,那么我们就会遇到问题。我的基本观点是,现在 AI 不可靠,这不是你可以在开放世界中使用的东西。我们现在拥有的最好的技术还属于狭隘的技术,适用于非常具体的问题,例如规则永远不会改变、你可以根据需求收集尽可能多模拟数据的场景。而当你把这些东西放到开放世界中,例如让它们驾驶汽车,虽然它们也可以工作,但你不能真正依赖它们。
在某些情况下,人们无论如何都会使用到它们,并且可能导致事故和死亡。在某些情况下,我们可能会推迟 AI 被应用的时间点。还有一个次要问题是,人们可能实际上已经放弃了人工智能,这由于一系列问题,比如构建聊天机器人和无人驾驶汽车等任务比炒作所说的要困难得多。但是我想很多人都认为我们到 2020 年将拥有无人驾驶汽车,可以将它们作为原型,但我们还不能指望它们。而且目前尚不清楚还要花多长时间才能达到真正可以依靠它们的程度。
因此,如果我们到了 2025 年,仍然需要人类进行演示,人们可能会厌倦人工智能,或许会开始减少资金投入,谁知道会发生什么呢?与此同时,如果有人说他们要在我家附近试行无人驾驶汽车,我会很担心,因为我认为无人驾驶汽车还不值得信赖。它们大部分时间都在工作,但你不知道它们什么时候就会做一些奇怪的事情。它们不会预先告知你,但就是这么做了。
先碎碎念到这里