移动端

视环会—环保行业线上展会

人工智能可能存在的问题

2019-05-17 19:02:58来源:AI芯天下 阅读量:24 评论

分享:

导读:近两年,人工智能火爆。 甚至有研究者直言:“我做了这么多年模式识别,都不敢称自己是做人工智能。而在AlphaGo之后,现在随便个和识别搭边的都称自己是搞人工智能了。”

  【智能制造网 行业动态近两年,随便问个路人什么火,答案一定是人工智能(AI)。甚至有研究者直言:“我做了这么多年模式识别(图像、声音等识别技术),都不敢称自己是做人工智能。而在AlphaGo之后,现在随便个和识别搭边的都称自己是搞人工智能了。”
人工智能可能存在的问题
 
  “人工智能”其实缘起1956年达特茅斯学院召开的夏季研讨会,麦卡锡对这次研讨会命名为“人工智能夏季研讨会”(Summer Research Project on Artificial Intelligence),此后人工智能迎来了初生的太阳,可以说是传统人工智能的黄金时期。
 
  在高潮后的质疑声中,人工智能迎来了多个寒冬,其中不乏是计算资源短缺的原因,还有曾成功预测线性模型的perception(感知机)无法预测异或的逻辑的致命缺陷,另外第二次寒冬出现于1990年政府缩减对AI计算机的投入。
 
  然而在2006年Jeff Hinton 提出“深度学习”的神经网络的方法后,人工智能又进入了另一个春天。如今“人工智能”已经普遍走进中国大学校园,初创企业甚至手机镜头里。
 
  所有创业项目都称与AI相关,人工智能工程师身价也随之水涨船高,年薪可50万起跳。而由学术界人士主导的人工智能项目,往往会将学术界“刷论文”的风气带到公司领域。
 
  在媒体中,我们经常能听到某家AI公司又取得了“突破性”进展,其实这些突破性进展往往完全是难以落地的学术字眼。
 
  在热潮下的人会跟风学习,不禁重新审视对人工智能的看法,整理出了网上现在传播为广泛的人工智能所存在的问题:
 
  1.我们被图灵对智能的定义所束缚了。图灵有关智能构想很,他将智力限制为一种和人类进行语言游戏的解决方案。具体来说,图灵将智能设定为(1)游戏的解决方案,(1)将人类置于判断的位置。这个定义非常具有迷惑性,并很适合人工智能领域。狗,猴子,大象,甚至啮齿类动物都是非常聪明的生物,但它们没有语言,因此也不可能通过图灵测试。
 
  2.人工智能的核心问题莫拉维克悖论(Moravec's paradox)。莫拉维克悖论的核心论点是,现实中简单的问题比复杂的游戏更难解。我们沉迷于令AI在游戏中超越人类(以及其他受限且定义明确的话语领域,如数据集),将其作为智能的指标,作为一种与图灵测试一致的标准。我们完全忽略这样一个事实:对智能的终判断由现实本身,而不是由一个人类组成的委员会作出。
 
  3.我们的模型甚至可能起作用,但往往是出于错误的原因。其他文章详细阐述过这点,深度学习就是一个很好的例子。深度学习显然已经解决了物体识别问题,但是大量研究表明,深度神经网络能识别物体的原因与人类能观察到物体的原因大不相同。对于用图灵测试精神欺骗人类的人来说,这可能并不重要。但对于关注人工智能体处理非预期(域外)现实的能力的人来说,这是至关重要的。
 
  4.现实不是游戏。智能是一种机制,它会进化以令智能体能够解决问题。由于智能是一种辅助我们玩“规则不断变化的游戏”的机制,因此作为一种副作用,它能让我们玩有一套固定规则的实际游戏也就不足为奇了。但反过来就不成立了:构建在玩固定规则游戏时胜过人类能力的机器,跟构建一个能够玩“规则不断变化的游戏”的系统差得远了。
 
  5.物理现实中有一些规则是不变的——即物理定律。我们用语言描述他们,并利用它们来做预测,从而建立文明。但是为了在这个物理环境中行动,这个星球上的每一种生物体都掌握了这些定律,并不需要语言。小孩子在学会牛顿运动定律之前,就知道苹果会从树上掉下来。
 
  6.我们的视觉统计模型其实是非常不足的,因为它们仅依赖于某一时间的事物和人类*的抽象标签进行识别。深度神经网络能够看到数以百万计的苹果挂在树上的图像,但永远不可能发现万有引力定律(以及许多对我们来说很显然的东西)。
 
  7.常识的困难之处在于它对我们而言是在太显而易见了,甚至很难用语言去描述它,进而在数据中给它打标签。对于所有“显而易见”的东西,我们存在巨大的盲点。因此,我们无法教计算机常识,不仅因为这可能不切实际,更根本的原因是我们甚至没有意识到“常识”是什么。直到我们发现机器人做了一些很愚蠢的事情,我们才顿悟:“哦,原来它不懂...... [这里可以填任何显而易见的常识] ”。
 
  8.如果我们想解决“莫拉维克的悖论”(应该是当今任何严肃的AI工作的焦点),我们就多少需要模仿生物体纯粹依靠观察世界学习的能力,而不需要标签。实现这一目标的一个有希望的想法是构建一个系统,对未来的事件进行预测,并通过将实际的发展与系统的预测进行比较来学习。大量的实验表明,这确实是生物大脑中发生的事情,并且从许多角度来看这样做都很有意义,因为这些系统必须要学习物理定律。预测视觉模型(predictive vision model)是朝这个方向迈出的一步,但肯定不是后一步。
 
  9.我们迫切需要在图灵的定义之外定义“智能”的特征。一个不错的想法来自非平衡态热力学(non-equilibrium thermodynamics),并与预测假设一致。我们需要这样做,因为我们需要构建智能体,这些智能体肯定通不过图灵测试(因为它们没有语言智能),但我们需要一个框架来衡量我们的进展。
 
  10.我们今天所做的几乎所有称之为AI的事情,都是可以用语言表达的某种形式的自动化。在许多领域,这些所谓AI可能有用,但这与用Excel取代纸质表格来帮助会计师,实际上没有什么不同。有问题(并且问题始终存在)的领域是自主(autonomy)。自主不是自动化(automation)。自主不仅仅意味着自动化。如果是要求比人类更安全的自主的话,那么它意味着更多,比如说自动驾驶汽车。自主应该是广义智能的同义词,因为它假设能够处理意外的、未经训练的,未知的事物。
 
  在Alpha go打败李世石的时候,我们都为人工智能迅猛发展感到开心,但是同时有些人也会对其未来发展感到紧张不安。而真正需要我们思考的是,人工智能给我们带来什么。
 
  当我们说的话可以迅速被翻译成另一种语言,当我们可以搜索、转录与总结数小时的视频,当汽车可以自动驾驶、货运成本急剧下降......人工智能对未来的影响值得拭目以待!
 
  (原标题:人工智能可能存在的问题)
版权与免责声明:1.凡本网注明“来源:兴旺宝装备总站”的所有作品,均为浙江兴旺宝明通网络有限公司-兴旺宝合法拥有版权或有权使用的作品,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:兴旺宝装备总站”。违反上述声明者,本网将追究其相关法律责任。 2.本网转载并注明自其它来源(非兴旺宝装备总站)的作品,目的在于传递更多信息,并不代表本网赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品第一来源,并自负版权等法律责任。 3.如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
我来评论

昵称 验证码

文明上网,理性发言。(您还可以输入200个字符)

所有评论仅代表网友意见,与本站立场无关

    相关新闻