快捷搜索:

【探究】人类清除计划:机器人开始杀人

  北京时间7月2日,一则德国机器人杀人事件的新闻出现在各大门户网站上,一时间,好像身边的电饭煲都有可能是潜伏的机器人杀手。关于机器人正在失去控制、人工智能将统治人类、终结者在生活中正式上演等骇人观点把2012世界末日的恐惧带回了工业4.0时代。事件过后,机器人似乎不再是没有生命的机械,而是开始偷偷生长出意识,发出某些看起来不怎么友好的信号。

  然而,很少有人去关注德国机器人杀人事件这个事故本身,一个年轻的德国技工,是如何失去了宝贵的生命。笔者在各大门户搜索到相关的报道,事故的过程都是轻轻带过:

  当时,受害人正和一位同事在安装机器。不料,与他们一起工作的机器人却突然启动,撞击了受害人的胸部。眨眼间,这名技工就被按压在了金属板上。随后他被送往医院,最终抢救无效死亡。

  这名不幸身亡的技术人员今年21岁,是一位外部承包商,事发时正与同事一起安装机器人,但机器人却突然抓住他的胸部,然后使劲压在一块铁板上。 

  《金融时报》报道称,德国大众汽车制造厂中一个机器人杀死了一名人类工作人员。当时这名21岁的工人正在安装和调制机器人,后者突然出手击中工人的胸部,并将其碾压在金属板上。这名工人当场死亡。

  后续的报道,则是重重地落在对机器人的负面评价:

  互联网上就这名工人死亡充满了各种黑色闹剧,但像马斯克、比尔盖茨(Bill Gates)等人却对机器人技术感到担忧,它们可能失控,从而毁灭人类。

  彭博社日前透露,马斯克为此捐赠1000万美元,用来研究懂得伦理道德的机器人,以确保他们不会毁灭人类。在机器人没有出现技术故障的情况下,工人被杀,看来马斯克的担忧并非多余

  那么,事故的根本原因到底是人为操作失误,还是机器人蓄意伤人?笔者作为自动化行业的从业人员,负责过自动化设备的开发,可以负责地告诉读者,目前的机器人并没有蓄意伤人这种行为。

  工业应用上的机器人,例如富士康流水线上的机械手,都是按照工程师的编程,实现抓、提、放等简单动作。在实现这些功能的同时,也要在硬件上加入传感器检测,在编程上加入防意外发生的保护程序。

  如果硬件上没有出现损坏等情况,那么机器人的行为完全由程序决定。在机器人运行的过程中,程序没有改变,因此机器人只能具有特定的动作,而不是具有意识判断,脱离原来的程序,故意做出其他的行为动作。如果我们确保机器人的硬件结构正常,程序编写严谨,那么机器人的每个行为动作都是可以控制的,并且永远不会出现意外。

  也就是说,德国机器人杀人事件中的事故发生原因,可能是:

  1.机器上没有搭载人体感应传感器或者传感器损坏;

  2. 程序编写不合理没有考虑到特殊情况时的保护;

  3.技术人员没有按照合理的规则操作如误触开关、故意遮挡传感器等。

  不管是上述的哪个原因,都是人为的失误,而非机器人蓄意伤人。机器人可能伤人,但是不可能蓄意。目前的工程事故,都是设计出错或者人为失误所造成的。基于这两个因素,洗衣机、电饭煲、电冰箱也可以成为杀人的凶手。

  打个比方,你家的洗衣机洗了一半停住了,你伸手进去修理,洗衣机却突然又开动了,因此你的手臂被搅断了。在这个事故中,如果洗衣机的设计是感应到人体就自动停止,或者你修理之前拔掉电源,那么你完全可以保住你的手臂。德国机器人杀人事件也是如此道理,如果机器人设计合理,技术员操作规范,那么现在舆论担心的,还只是机器人如何与人类争夺饭碗,而不是性命相关的统治问题了。

  可是,如果德国机器人杀人事件真的这般简单,那么为什么强如斯特拉CEO马斯克、微软创立人比尔盖茨都在担忧人工智能给人类带来的忧患?这便要提及具有学习能力的高度智能机器人了。

  在原理上,具有学习能力的机器人,可以通过各种传感器采集数据,在处理器中处理算法,总结成自己的经验,最后输出相关的动作。此类机器人的核心在于大数据和算法,例如微软小冰、苹果Siri、Google Now,以及日本软银发售的可识别人类面部表情的Pepper机器人,都可以跟人类进行沟通,虽然效率并不是很高,但是看起来,机器人已经具有初步的思维了。如果任由机器人这么发展下去,不断地采集数据,不断地运行算法学习,不断地丰富数据库,那么是不是总有一天,人类会被具有自我意识的机器人淘汰清除了?

  笔者很乐观地告诉读者,是的,人类有可能会被机器人消灭,但是,笔者一点都不担心这个问题。前面笔者也说过,机器人的运作始终脱离不了程序,机器人会成为人类可靠的帮手还是种族灭绝的凶手,关键在程序的编写,而如何编写程序,让机器人扮演什么样的角色,决定权还是在人类手上。

  工程师可以编写合理机制程序,让机器人具备一定的能力,帮助人类解决一些危险的问题,并且不会干扰人类的正常世界。就如机器人三大法则:

  第一法则:机器人不得伤害人类,或坐视人类受到伤害;

  第二法则:除非违背第一法则,机器人必须服从人类的命令;

  第三法则:在不违背第一及第二法则下,机器人必须保护自己。

  当然工程师也可以编写毫无底线没有保障的程序,让机器人为所欲为,最终成为人类的一道难题,甚至灾难。

  火药可以做成烟花,也可以做成炮弹。

  刀刃可以切肉,也可以作为凶器。

  草药可以用来治病,也可以制成毒药。

  技术掌握在道德的手里,技术的本身并没有错。提高科技人员的技术水平和道德修养,才是重中之重。

您可能还会对下面的文章感兴趣: