你可能觉得达沃斯是一个政治家,经济学家和企业家的地盘?不过,今年除了这些人还多了一种“人”:机器人。在国际会议中心三层最明显的展区,达沃斯非常有限的展区就被各式各样的机器人占据了。而早上第一个时段的主题论坛的话题也和机器人紧密相关,人工智能会不会比人类更聪明?
这个论坛上,主持人抛出的三个关于人工智能的用户问题非常有意思,现场观众也参与了举手投票。(大家可以先琢磨一下自己的答案,再来看综合调查的结果)
1.如果你作为犯罪嫌疑人出现在法庭上,你希望人类当法官,还是机器人当法官?
2.如果你被诊断出可能影响你生命的疾病,你是相信人类给你出一个诊断方案,还是机器出一个诊断方案?
3.第三个问题比较严肃,如果国家之间爆发战争。你希望人类当士兵?还是用机器人作为士兵?
对这三个问题,综合调查的结果是这样的。
对于第三个问题,绝大多数人希望人类做法官来宣判,但是对第一,二个问题,受访者希望机器人来做医疗诊断和当士兵为人类作战。
我们可以分析一下这个答案。关于医生诊断,可以理解为多数人已经觉得对于已知疾病的知识消化理解,人工智能已经可能做的比单独医生做的更好了。(IBM的Watson就是这样一种可以从事医疗诊断的技术);而当法官这件事,则说明人类本能的认为人类的行为还是同类更能理解,机器人大概理解不了人类作为犯罪嫌疑人的犯罪“苦衷”;士兵作战这件事则最简单,所有人都认为人的生命比机器更为宝贵。
而来自Carnegie Mellon University的E. Fredkin教授也多少支持了公众的意见。他认为,未来5-10年,在三个方面,人工智能,可能会取得突飞猛进的进步。
第一个是自动驾驶,无人汽车会比人类司机的驾驶安全的多。
第二个是文本理解,人工智能将能够理解文本信息,并真正理解文本的含义进行分析。
第三个是医疗领域,人工智能在获得大量生命数据之后,在医疗领域会有相当程度的智慧。
其中第三个医疗,和公众希望人工智能做医疗诊断的结果不谋而合。实际上,人工智能介入医疗,也离不开第二点对人类已有知识的学习。
不过关于人工智能最让人感兴趣的话题,显然还是关于“终结者”的问题。也就是人工智能达到一定程度会不会威胁到人类的存在。这个问题在论坛上有所讨论,而且也能够从上述观点得出我们的结果。
对于一个有明显规则的事务,比如驾驶汽车,那么人工智能会做的很好,而且做起来可能会比人类还安全,也就谈不到对人类的威胁。但如果是规则不明显的事物,比如是否应该发动战争,是否会在战场上伤及无辜的第三方,最终变成《终结者》电影里的SKYNET,问题就变得复杂了。因为战争没有明显的边界,也没有明确的规则可言。那么人工智能在对待此类问题的处理,只能来自于对人类知识本身的消化。从这个角度而言,人工智能显然是存在威胁的。
首先,人工智能理解文本的技术进步可能非常快;其次人工智能所看到的文本充满了不确定性。因为人类的历史就是一部不断进行战争与的历史。所以人工智能到底是不是一个威胁,既是一个严肃的命题,也是一个伪命题。因为人工智能是否产生威胁,实际上与人工智能本身无关,而与人类的行为相关。如果人类历史记录的都是people fight people,天天读战争史的人工智能恐怕也不会成为喜欢鸽子的和平主义者。这样看来,如果要消除人工智能的威胁,像《三体》这种宣扬“消灭你,与你无关”的论调,更是要成为人工智能的禁书才行。
智搜(Giiso)公司成立于2013年是国内领先的“人工智能+资讯”领域技术服务商,在大数据挖掘、智能语义、知识图谱等领域都拥有国内顶尖技术。同时Giiso旗下研发产品包括编辑机器人、等人工智能产品!凭借雄厚的技术实力,公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。
不妨总结一下,对于这个人工智能与人类对决这个终极问题,答案非常简单:家长是孩子最好的老师,上行下效,人工智能是否存在威胁,是否暴力,实际上取决于人类自身的行为,而与人工智能本身无关,因为人工智能的思考逻辑实际上来自于人类的,否则也不会称之为“人工”智能。