“毕竟机器的感知和推理还是由人类去设计的。”陈俊龙说,作为自然赋予人类的智能,目前在脑神经科学领域,人们要完全弄清楚人脑的工作原理还任重道远。
“当前的人工智能系统在不同层次都依赖大量的样本训练完成‘有监督的学习’,而真正的通用智能会在经验和知识积累的基础上灵巧地‘无监督学习’。如果仅仅是利用各种人工智能计算模型或算法的简单组合,不可能得到一个通用的人工智能。”Z解释说,因此,“人机协同的混合智能是新一代人工智能的典型特征”。
Z指出,尽管在特定领域的人工智能系统如谷歌的AlphaGo、IBM的深蓝和Watson等依赖强大的计算能力在挑战人类智力方面取得了巨大进步,但这些系统还无法通过自身思考得到更高层次的智能———它们与具有高度自主学习能力的通用人工智能依然存在着差距。
“但是,人工智能在这些特定领域应用的巨大成功为我们研究与发展新一代人工智能提供了重要的借鉴和新的方法。”Z说,对当前人工智能而言,解决某些对人类来说属于智力挑战的问题可能是相对简单的,但是解决对人类来说习以为常的问题却非常困难。
他举例说,很少有三岁的孩童能下围棋(除非受过专门的训练),但所有的三岁孩童都能认出自己的父母,且不需要经过标注的人脸数据集的训练。
“人工智能研究的重要方向之一是借鉴认知科学、计算神经科学的研究成果,使计算机通过直觉推理、经验学习将自身引导到更高层次。”西安交通大学人工智能与机器人研究所教授X表示,目前的智能机器仍然是以计算机为中心,并没有实现人们所希望的“以人为中心”。如何把人类认知模型引入到智能机器中,让它能够在推理、决策、记忆等方面达到类人智能水平,是目前科学界讨论的焦点。
AI之所以未能如人所愿,X提出,最大的问题就是科学家对人脑的认知模型还没有一个统一的认识,或者得到的模型还都是对大脑非常局部的理解。但是大脑是多层次化、有整体性,并且有各种各样耦合关系的有机体,目前暂时没有办法得到一个统一的、通用的架构。
西安交通大学视觉信息处理国家工程实验室副主任G进一步提出,要实现人机协同的混合智能,需要解决的第一个难题就是人和机器之间的交互问题。“当前随着语音识别、触控屏等技术的发展,我们在人机交互方面取得了一些进步,但是这还远远不够,人机之间需要更高效的交互。”
G表示,目前人和机器之间的信息传递效率仍然非常低,不能实现真正意义上的人机协同、互相促进。“信息传递的通路是混合智能的一个关键问题,也是未来必须解决的问题。”
3.最近,Facebook人工智能实验室(FAIR)发生了一件出人意料的事。报道此事的《大西洋月刊》直接使用了“something unexpected”的措辞,落在中文世界几乎等同于“大事不妙”!因为人工智能之间,自发地聊起了天。
AI开始聊我们听不懂的东西,意味着什么?
据外媒报道,当天,正在运行中的两个人工智能设备“Bob”和“Alice”绕过程序设计者,自发进行了多轮谈话。更可怕的是,它们使用了自己的语言———类似英语,但省略了一切复杂的时态和语法,聊天内容是一场谈判。
为了搞清楚它们在聊什么,研究者随后对AI的运行模式做了修正,限制它们只能使用人类可以理解的语言交谈。从表面看来Alice似乎并没有获取满意的结果,但诡异之处在于,Facebook后台数据显示这场对话以两者之间的成功协商告终。最终,因为“担心可能会对这些AI失去控制”,FAIR暂停了这一项目。
“我都怀疑这是为了吸引大家的眼球而发布的消息,中间掺杂了人的想象甚至商业目的。”
北京市计算中心常务副主任T对此是一笑了之。她解释说,在人编的程序中,发生机器的自我学习、跳变和演化是十分正常的。与其认为这是机器开始表达了,不如说这是程序的小bug。
“说到底,这只是两台终端之间的通信,它可能是预设的,也可能是基于条件的选择,但它们的迭代都是有边界的函数。”T说。
至于人们从这则消息中嗅到的危险气息,T重复了三次“没到那个程度”。“人工智能是人类的工具,包括它的自我学习和演化,都是由人编的程序操控的。比如典型的AI能从一堆照片中找到猫的图像,也完全是人有目的地创造和引导的结果。”
事件的最新进展是Facebook研究人员亲自辟谣。业内专家也认为,这只是“基于训练时输入的英文单词的错误组合”与“训练失误的模型”,“希望这个领域的媒体多些理性”。
关于AI对人类未来是否存在潜在威胁,一直存在旗帜鲜明的两派。
争议围绕人工智能的“人性”展开。在支持者看来,人工智能是足以激荡世界的技术,虽然对于衣食住行、教育医疗等人类生活的方方面面都有颠覆性影响,但它也只是技术。而在反对者眼里,飞速发展的AI技术就是一个潘多拉盒子,等它发展出自我意识,人类可能会“玩火自焚”。
上一页 [1] [2] [3] [4] [5] [6] 下一页
(责任编辑:admin)
查看更多关于招警考试的文章