人工智能的前景是广阔的,但章杉觉得一味追求利用人的优势去改造机器,完全是倒行逆施。
真正合理的做法反而应该是利用人工智能去辅助人类更好的二次进化!
这才是真正的革命方向!
未来十年,人工智能将会出现哪些值得关注的新进展?
章杉记得一家全球性信息分析公司——爱思唯尔(Elsevier)询问过一些人工智能研究领域的研究者,他们认为该领域最重要的进展是什么?
南汉普顿大学的温迪·霍尔教授:“人工智能进展的一个有趣之处是,试图解决‘通用人工智能’问题——这是一个更大的问题,即我们能否创造出像人类一样思考和行动的机器,创造了一些非常智能的工具。我们已经看到了很多进步,比如面部识别、语音翻译、服务自动化。机器比我们更擅长处理数据和从中学习。在过去的30年里,像人脸识别这样的事情已经有了很大的发展。这种深度学习应用程序的开发是一个惊人的发展。”
代尔夫特理工大学的弗吉尼亚·迪格纳穆教授说:“最大的进步可能是我们尚未取得的。目前,我们过于依赖人工智能的随机概率方法……“
纽约大学心理学和神经科学教授加里·马库斯:“许多最好的进展都是在早期取得的,当时人们发现了一些基本的东西。例如,人们找到了进行符号操作的基本逻辑,这是进行搜索的基础。神经网络的东西在80年代就被发现了,但是它有着更长的历史,显然对分类这样的一大堆问题非常有用。”“但我们还没有取得大量进展。客观地说,这就像在1600年问我化学最大的进步是什么。我不知道——在人工智能的许多方面,我们仍在尝试炼金术。”
加州大学伯克利分校电气工程和计算机科学教授斯图尔特·拉塞尔教授说:“人工智能所做的最大贡献是这种基于知识的系统的概念,它具有内部表示的知识和基于这些知识进行推理的程序。”“我们需要一种更有机的感知和推理相结合的形式。人们在眼睛和大脑之间有一个反馈回路——大脑不仅仅对眼睛看到的东西做出反应,它还控制着我们所感知的东西,我们所认识到的刚刚发生和将要发生的事情,我们可以忽略的事情,我们特别关注的事情。在人工智能系统中,我们现在还没有这样的系统。“
爱思唯尔网络分析公司的伊丽莎白·林指出:“人工智能已经在社会的许多系统中使用。……它们只是看起来不像人们期望的那样。”
章杉也觉得虽然深度学习和AI的相关性是无限的,但这不是我们创造智力的方式。
人们需要使用因果抽象和其他我们还没有的机制,以一种可扩展和可大规模使用的方式。这才是下一件大事。
众所周知,深度学习是一个热门话题。
过去10年令人兴奋的是模式研究的进展方式,以及这如何影响计算机视觉。
这可能是深度学习产生最大影响的领域。你可以在无人驾驶汽车上看到它,
但是在医学成像中,同样的过程可以更准确地识别你是否患有某种癌症。
将这种图像提取与自然语言处理联系起来,然后应用于健康问题非常有趣。
除了深度学习、计算机视觉和自然语言处理将会继续成为下一个10年人工智能研究的热点以外,上述几位专家提到的通用人工智能、因果抽象、感知和推理相结合等,很可能是下一个10年值得关注的新热点。
但是,正如迪格纳穆教授所言,“最大的进步可能是我们尚未取得的”。例如,量子计算是当前前沿科技研究领域,已经在很多国家得到了政府的大力支持。人工智能框架,如搜索和产生式系统理论,是否能够利用量子计算机快速执行?是否能够利用量子现象(如叠加、纠缠)实现量子计算对量子态表示的数据进行操作,大规模提升机器学习能力,并有助于发展超级人工智能?人工智能和机器学习追求的目标是雄心勃勃的,量子计算是否有助于这些雄心壮志进一步发展?这些都还没有公认的答案。
在人们兴高采烈谈论人工智能革命将如何变革我们的世界的同时,章杉对未来的人工智能革命可能产生的负面效应忧心忡忡——担心人工智能被用来愚弄人类和对人类造成伤害。
的确,人工智能肯定会带来很多好处,改善我们的生活,例如,娱乐,危险场所的工作,老年护理,远程购物、旅游等。但是,人们常说,科技革命是把“双刃剑”,也就是说,存在负面效应。如何应对人工智能存在的负面效应,减少或避免受到不良影响,是值得关注的问题。
人工智能给人类和社会带来挑战,其中最明显的问题是失业。有人预测,机器将会首先接管电话营销、自动化运输服务、下水道管理、税务筹划者、照片处理、数据录入工作、图书馆员和图书馆技术员等工作。例如,数以百万计的卡车司机的工作中的大部分,都将会因自动驾驶实现自动化。尽管这似乎令人担忧,但实际上从18世纪工业革命开始,人类劳动自动化就是一个大趋势——当然,人工智能带来的自动化的广度和深度,将是前所未有的。另一个问题是隐私。例如,人工智能可以从我们的社交媒体反馈中准确预测我们的习性、喜好和隐私。还有人对人工智能自主武器深感不安——自主武器有权决定是否夺走人的生命(虽然也有人认为自主武器可以被设计得比人类更可靠)。
更严重的问题是算法偏见——虽然人工智能决策软件原则上可以被设计成没有偏见的,但糟糕的算法设计会导致做出糟糕的决策。如果一个机器学习程序是由具有偏见的人或具有偏见的数据训练的,那么这个程序也会有偏见。最后,从长远看令人担忧的的问题是,如果我们到达“奇点”——通用人工智能系统变得比人类聪明的假设时间点——会发生什么。也许人工智能将超出人类的控制,甚至可能对人类生存构成威胁——当然,关于奇点是否会发生,科学界至今意见不一。
无论如何,人工智能的长远未来有很大的不确定性。应该针对这种可能的负面影响,研究防御措施,防范机器欺骗、威胁和人工智能黑客的攻击,教人工智能辨别是非。
这也是为什么之前章杉在讲人工智能的时候提到了浅度思考。
浅度思考就在于赋予机器一些思辨性,使得机器能够最起码的辨明是非。
尽管听起来有些理想主义,但章杉可不想有着一日因为自己研究的AI机器不小心惹出的麻烦而引火上身。