第255章

    众所周知,深度学习是一个热门话题。
    过去10年令人兴奋的是模式研究的进展方式,以及这如何影响计算机视觉。
    这可能是深度学习产生最大影响的领域。你可以在无人驾驶汽车上看到它,
    但是在医学成像中,同样的过程可以更准确地识别你是否患有某种癌症。
    将这种图像提取与自然语言处理联系起来,然后应用于健康问题非常有趣。
    除了深度学习、计算机视觉和自然语言处理将会继续成为下一个10年人工智能研究的热点以外,上述几位专家提到的通用人工智能、因果抽象、感知和推理相结合等,很可能是下一个10年值得关注的新热点。
    但是,正如迪格纳穆教授所言,“最大的进步可能是我们尚未取得的”。例如,量子计算是当前前沿科技研究领域,已经在很多国家得到了政府的大力支持。人工智能框架,如搜索和产生式系统理论,是否能够利用量子计算机快速执行?是否能够利用量子现象(如叠加、纠缠)实现量子计算对量子态表示的数据进行操作,大规模提升机器学习能力,并有助于发展超级人工智能?人工智能和机器学习追求的目标是雄心勃勃的,量子计算是否有助于这些雄心壮志进一步发展?这些都还没有公认的答案。
    在人们兴高采烈谈论人工智能革命将如何变革我们的世界的同时,章杉对未来的人工智能革命可能产生的负面效应忧心忡忡——担心人工智能被用来愚弄人类和对人类造成伤害。
    的确,人工智能肯定会带来很多好处,改善我们的生活,例如,娱乐,危险场所的工作,老年护理,远程购物、旅游等。但是,人们常说,科技革命是把“双刃剑”,也就是说,存在负面效应。如何应对人工智能存在的负面效应,减少或避免受到不良影响,是值得关注的问题。
    人工智能给人类和社会带来挑战,其中最明显的问题
    最起码,这种全新的模型在处理动态信息上取得的成绩将是革命性的。
    浅度学习名字听起来有点怪异!
    之所以不叫听起来更直白明了的浅层学习。
    是因为事实上浅层学习曾经出现在历史的舞台上!
    由于人工神经网络的反向传播算法(也叫n算法或者b算法)的发明,给机器学习带来了希望,掀起了“基于统计模型“的机器学习热潮。这个热潮一直持续到今天。人们发现,利用b算法可以让一个人工神经网络模型从大量训练样本中学习出统计规律,从而对未知事件做预测。这种基于统计的机器学习方法比起过去基于人工规则的系统,在很多方面显示出优越性。这个时候的人工神经网络,虽然也被称作多层感知机(ultiyerercetron),但实际上是一种只含有一层隐层节点的浅层模型。
    到了90年代,各种各样的浅层机器学习模型相继被提出,例如支撑向量机(sv,suortvectoraches)、gisticregression)等。这些模型的结构基本上可以看成带有一层隐层节点(如sv、stg),或没有隐层节点(如lr)。这些模型无论是在理论分析还是应用中都获得了巨大的成功。相比之下,由于理论分析的难度大,训练方法又需要很多经验和技巧,这个时期浅层人工神经网络反而相对沉寂。
    不过叫浅度学习似乎也不太妥当,之前的浅度学习通常指的是浅度监督式学习~
    浅度的监督式的具有1个隐藏层的神经网络具有一些受人喜爱的性质,使得它们比深度网络更容易被解释、分析和优化;但它们的表征能力却不及深度网络。
    一般使用了具有1个隐藏层的学习问题来序列式地逐层构建深度网络,其能够继承浅度网络的属性。
    章杉在论文中也提及了这些~
    浅度监督学习通过反向传播算法在大规模有监督数据上训练的深度卷积神经网络已经成为了大多数计算机视觉任务中的主导方法。
    这也推动了深度学习在其它领域的成功应用,比如语音识别、自然语言处理和强化学习。但是,我们仍然还难以理解深度网络的行为以及它们表现出色的原因。这种困难的一大原因是网络的层中采用了端到端的学习方式。
    监督式的端到端学习是神经网络优化的标准方法。
    但是其也存在一些值得考虑的潜在问题。
    首先,使用全局目标就意味着一个深度网络的单个中间层的最终函数行为只能以间接的方式确定这些层是如何协同工作以得到高准确度的预测结果的,这一点却完全不明晰。
    有一些研究者认为并且通过实验表明n能够学习实现这样的机制将不变性逐渐诱导成复杂但不相关的可变性,同时增加数据的线性可分性。
    通过求解浅度监督学习问题而实现的n层的序列学习是一种可替代端到端反向传播的方法。
    这一策略可以直接指定每一层的目标,例如通过激励对表征的特定属性的精细化,比如渐进的线性可分性。然后,就可以根据对浅度子问题的理论理解来开发用于深度贪婪式方法的理论工具。
    人工智能的前景是广阔的,但章杉觉得一味追求利用人的优势去改造机器,完全是倒行逆施。
    真正合理的做法反而应该是利用人工智能去辅助人类更好的二次进化!
    这才是真正的革命方向!
    未来十年,人工智能将会出现哪些值得关注的新进展?
    章杉记得一家全球性信息分析公司——爱思唯尔(elsevier)询问过一些人工智能研究领域的研究者,他们认为该领域最重要的进展是什么?
    南汉普顿大学的温迪·霍尔教授:“人工智能进展的一个有趣之处是,试图解决‘通用人工智能’问题——这是一个更大的问题,即我们能否创造出像人类一样思考和行动的机器,创造了一些非常智能的工具。我们已经看到了很多进步,比如面部识别、语音翻译、服务自动化。机器比我们更擅长处理数据和从中学习。在过去的30年里,像人脸识别这样的事情已经有了很大的发展。这种深度学习应用程序的开发是一个惊人的发展。”
    代尔夫特理工大学的弗吉尼亚·迪格纳穆教授说:“最大的进步可能是我们尚未取得的。目前,我们过于依赖人工智能的随机概率方法……“
    纽约大学心理学和神经科学教授加里·马库斯“许多最好的进展都是在早期取得的,当时人们发现了一些基本的东西。例如,人们找到了进行符号操作的基本逻辑,这是进行搜索的基础。神经网络的东西在80年代就被发现了,但是它有着更长的历史,显然对分类这样的一大堆问题非常有用。”“但我们还没有取得大量进展。客观地说,这就像在1600年问我化学最大的进步是什么。我不知道——在人工智能的许多方面,我们仍在尝试炼金术。”
    加州大学伯克利分校电气工程和计算机科学教授斯图尔特·拉塞尔教授说:“人工智能所做的最大贡献是这种基于知识的系统的概念,它具有内部表示的知识和基于这些知识进行推理的程序。”“我们需要一种更有机的感知和推理相结合的形式。人们在眼睛和大脑之间有一个反馈回路——大脑不仅仅对眼睛看到的东西做出反应,它还控制着我们所感知的东西,我们所认识到的刚刚发生和将要发生的事情,我们可以忽略的事情,我们特别关注的事情。在人工智能系统中,我们现在还没有这样的系统。“
    爱思唯尔网络分析公司的伊丽莎白·林指出:“人工智能已经在社会的许多系统中使用。……它们只是看起来不像人们期望的那样。”
    章杉也觉得虽然深度学习和ai的相关性是无限的,但这不是我们创造智力的方式。
    人们需要使用因果抽象和其他我们还没有的机制,以一种可扩展和可大规模使用的方式。这才是下一件大事。
    众所周知,深度学习是一个热门话题。
    过去10年令人兴奋的是模式研究的进展方式,以及这如何影响计算机视觉。
    这可能是深度学习产生最大影响的领域。你可以在无人驾驶汽车上看到它,
    但是在医学成像中,同样的过程可以更准确地识别你是否患有某种癌症。
    将这种图像提取与自然语言处理联系起来,然后应用于健康问题非常有趣。
    除了深度学习、计算机视觉和自然语言处理将会继续成为下一个10年人工智能研究的热点以外,上述几位专家提到的通用人工智能、因果抽象、感知和推理相结合等,很可能是下一个10年值得关注的新热点。
    但是,正如迪格纳穆教授所言,“最大的进步可能是我们尚未取得的”。例如,量子计算是当前前沿科技研究领域,已经在很多国家得到了政府的大力支持。人工智能框架,如搜索和产生式系统理论,是否能够利用量子计算机快速执行?是否能够利用量子现象(如叠加、纠缠)实现量子计算对量子态表示的数据进行操作,大规模提升机器学习能力,并有助于发展超级人工智能?人工智能和机器学习追求的目标是雄心勃勃的,量子计算是否有助于这些雄心壮志进一步发展?这些都还没有公认的答案。
    在人们兴高采烈谈论人工智能革命将如何变革我们的世界的同时,章杉对未来的人工智能革命可能产生的负面效应忧心忡忡——担心人工智能被用来愚弄人类和对人类造成伤害。
    的确,人工智能肯定会带来很多好处,改善我们的生活,例如,娱乐,危险场所的工作,老年护理,远程购物、旅游等。但是,人们常说,科技革命是把“双刃剑”,也就是说,存在负面效应。如何应对人工智能存在的负面效应,减少或避免受到不良影响,是值得关注的问题。
    人工智能给人类和社会带来挑战,其中最明显的问题是失业。有人预测,机器将会首先接管电话营销、自动化运输服务、下水道管理、税务筹划者、照片处理、数据录入工作、图书馆员和图书馆技术员等工作。例如,数以百万计的卡车司机的工作中的大部分,都将会因自动驾驶实现自动化。尽管这似乎令人担忧,但实际上从18世纪工业革命开始,人类劳动自动化就是一个大趋势——当然,人工智能带来的自动化的广度和深度,将是前所未有的。另一个问题是。例如,人工智能可以从我们的社交媒体反馈中准确预测我们的习性、喜好和。还有人对人工智能自主武器深感不安——自主武器有权决定是否夺走人的生命(虽然也有人认为自主武器可以被设计得比人类更可靠)。
    更严重的问题是算法偏见——虽然人工智能决策软件原则上可以被设计成没有偏见的,但糟糕的算法设计会导致做出糟糕的决策。如果一个机器学习程序是由具有偏见的人或具有偏见的数据训练的,那么这个程序也会有偏见。最后,从长远看令人担忧的的问题是,如果我们到达“奇点”——通用人工智能系统变得比人类聪明的假设时间点——会发生什么。也许人工智能将超出人类的控制,甚至可能对人类生存构成威胁——当然,关于奇点是否会发生,科学界至今意见不一。
    无论如何,人工智能的长远未来有很大的不确定性。应该针对这种可能的负面影响,研究防御措施,防范机器欺骗、威胁和人工智能黑客的攻击,教人工智能辨别是非。
    这也是为什么之前章杉在讲人工智能的时候提到了浅度思考。
    浅度思考就在于赋予机器一些思辨性,使得机器能够最起码的辨明是非。
    尽管听起来有些理想主义,但章杉可不想有着一日因为自己研究的ai机器不小心惹出的麻烦而引火上身。