AI泰斗张钹:AI最重要的能力是知识,而不是数据

[综合] 时间:2024-04-29 13:55:58 来源:蓝影头条 作者:焦点 点击:158次

阿尔法狗打败围棋高手、泰斗索菲亚任你问答、张钹最重无人车陆续量产,力知人工智能正日益为人类社会带来不可思议的不数改变。人工智能一方面在不断挑战人类的泰斗想象力,一方面又显得十分智障,张钹最重人工智能呈现出两种不同的力知面貌。

日前,不数中国科学院院士、泰斗清华大学人工智能研究院院长张钹发表了题为《人工智能产业化面临的张钹最重挑战》的演讲,用AI的力知经典案例,阐述了人工智能的不数“特点”与“雷区”。

带着锁链跳舞:人工智能的泰斗五把枷锁

张钹院士认为,目前的张钹最重AI的应用场景主要在,交通、力知家庭、健康、教育、低资源群体、安全、雇员与工作场所、娱乐、金融与智能制造领域。

以医疗场景的例子而言,AI可进行肿瘤检测,但医院目前无法大规模应用这项技术。首先由于深度学习具有不可解释性,即AI不能像医生一样对病因进行有效解释,其更倾向于做出直接的的判断;其次因为AI其鲁棒性不够强,稍许噪声都会对机器产生很大干扰,其差别甚至会大到使机器将“雪山”识别成“狗”。

因而,AI在医疗中需要解决三个问题,包括AI系统的可解释性和鲁棒性;个人数据的隐私和保护;规章与制度改革问题。尤其要解决解释性的问题,就需要AI学习医生的知识,用医生的知识去对病情进行解释,不然AI无法解释,也无法与医生进行交互。

因而,实际上说,对人工智能来说最重要的能力是知识,而不是数据。机器应用数据的能力强于人类、人类应用知识的能力强于机器,如果不能两者结合起来,人工智能就无法很好与产业进行结合。

而在更广的领域,人工智能要应用到具体场景,必须要满足下面的5个限制:有丰富的数据或者丰富的知识、完全信息、确定性信息、静态与结构性环境、单任务与有限领域。AI要实现,这五个条件缺一不可。

AlphaGo:深度学习的大师,但桥牌不敌人类

如AlphaGo打败李世石,成为AI发展史上的一个里程碑,AlphaGo抛弃了传统下棋程序的编程方法,创造性的利用机器学习来获取下棋的经验与直觉。其不仅学习了以往围棋大师们已下过的所有棋局——约几千万棋局,还通过强化学习(自己与自己对弈),学习了上亿个新棋局。

这就意味着,AlphaGo下过的棋是任何一位围棋大师一生下过棋的几百上千倍。由于围棋棋局空间很大(约2x10170),在围棋几千年的历史中人类只是探索了其中的一部分,AlphaGo利用计算机的超强计算能力,不仅把人类已经探索过的空间加以优化,还探索了新的空间(即新的棋局)。正由于此,人类棋手在AlphaGo面前才显得十分被动。

但张钹院士认为,研究AlphaGo不过是为了研究人工智能解决这类问题的方法以及可能达到的水平,其为完全信息博弈,信息完全和确定,遵循着完全确定的游戏规则演化,拥有静态与结构性环境。而计算机打麻将就难以超越人类,因为牌类是不完全信息博弈,因而人工智能学习比棋类困难。

Watson:有限问答,对话系统推理能力差

再举Watson的例子,Watson为IBM创建的对话系统,其中知识库包括百科全书、有线新闻、文学作品等,所有知识用纸质来表示可达2亿页,用存储量表示可达到4TB,并且其具有一定的推理机制。

而Watson能回答什么问题呢?如“1974年9月8日谁被总统赦免”,计算机用「1974年9月8日」、「被总统赦免」几个关键词就可以在文献中检索出“尼克松”这个答案。

而要回答“与美国没有外交关系的国家中哪个最靠北”此类问题,就需要智能推理了。与美国没有外交关系的国家可以检索出有4个,但哪个国家最靠北,没有直接答案,于是要用到推导,从各个国家所处的纬度、气候寒冷的程度等分析出,答案是“北朝鲜”。

但Watson的智能仅体现在初步的智能推理上,开放领域的人机对话难以实现,如面向开放领域人机对话的索菲亚机器人就体现了这一缺陷。

此前曾有一个中国记者给索菲亚提出了4个问题,其只答对了一个。询问「你几岁了」,索菲亚的回答是「你好,你看起来不错」;「你能回答多少问题呢」,其回答是「请继续,没听懂」;询问「你希望我问你什么问题呢」,索菲亚回答「你经常在北京做户外活动吗」……

如上,目前开放领域的问答只能进行少量的智能推理,Watson已经算其中的佼佼者。而索菲亚,只能做娱乐和研究,不能进行产业应用,不然“离骗子也不会太远”。

自动驾驶:不适应不确定性环境,犯错就是必然性错误

而对于目前较为乐观的自动驾驶领域,可以通过数据驱动的方法,学习不同场景下的图象分割,并判别是车辆还是行人、道路等,然后建立三维模型,在三维模型上规划行驶路径,应用硬件可以做到实时。

但目前自动驾驶依然不能解决所有问题,如果路况比较简单,行人、车辆很少,勉强可以使用,复杂的路况就难以实现。其主要原因在于,行人或司机都会有意无意破坏交通规则,使得数据驱动方法失效,各种各样的行为是难以用数据训练就能学习的。如果行人违反规则,计算机不能正确反应,就会造成不可避免的危险。而驾驶员的经验和知识,此时就变得尤为重要。

从犯错误的概率来说,人类也优于人工智能:人类犯错误是偶然的;而机器一旦犯错误,就是系统性错误,必然错误。

AlphaGo、Watson、自动驾驶……这些人工智能领域的典型代表和场景,也都存在着局限。因而,目前人工智能只能在丰富的数据或者丰富的知识、完全信息、确定性信息、静态与结构性环境、单任务与有限领域下才能更好发挥能力。

但在不满足条件的情况下,人工智能产业化会很难走,这些就是创业的雷区。避开这些雷区,才能更少的造出“人工智障”。

(责任编辑:时尚)

    相关内容
    精彩推荐
    热门点击
    友情链接