人工智能在如今被多数人看好,随着算法的逐渐成熟,应用的逐渐广泛,不久之后,相信我们会拥有自己的机器人助理,那时,法律也有一个问题亟待解决,该如何约束机器人的行为?
假如未来的某一天,你让你的机器人给你买杯热饮,在机器人去往店铺的路上,它看到了一起男女互殴事件,并且它注意到男士凶狠的抢夺了女士的手机,根据以往的机器学习经验,它认为这种行为应该是强盗行为,于是一个箭步飞奔过去,迅雷不及将男士拿下,并顺势拨打了110,警察来到,通过对男人和女人的口供得出,他俩是两口子,因为一点矛盾而生气大打出手,仅仅是夫妻之间的吵闹行为。然而尴尬的是,男士被机器人的英勇行为导致骨骼受伤,男士要求赔偿,而无辜的你还不知道事情的原委更不愿为此事负责,于是你找到机器人制造商,制造商的律师也有利的证明公司在出售的机器人完全符合国家所有认证标准,而且以往售卖的几百万台机器人从未出现过伤人事件,于是陷入了僵局,到底谁该为此事负责?
法官看到此事当然也陷入纠结,这件事不单单涉及到制造商和所有者,也涉及到机器人的道德标准,机器人在被创建的过程中,被赋予了类似道德标准的编程,这个机器人可以为它的所有者服务,可以通过工作创造价值,并且还拥有一些自己的权利,感觉一下,实际上机器人挺像是奴隶社会当中的奴隶。奴隶可以自由买卖,奴隶必须爱护自己的主人,奴隶主如果杀死了自己的奴隶,一般没有什么罪,因为这是他的私有财产,如果伤害了别人家的奴隶,赔偿一定的损失就可以了,所以定罪的时候,很可能是这样的,用机器人的工作价值做赔偿,如果不够的话,允许这个奴隶为受伤的男人服务一段时间作为赔偿,定罪一般是限制某个道德体系的原有价值。作为一种道德体,人的定罪往往是没收财产,限制人身自由,公司的定罪往往是取消业务,解散公司,机器人其实也如同一个道德体,它本身的价值就是个人学习到的能力,自己的服务手段,自己的独立运行,所以定罪就从消除能力记忆,销毁,或者整体赔偿来做文章。
未来,或许你拥有一大堆的机器人,这些机器人通过工作为你赚取价值,你肯定不愿意其中一个机器人出现了意外,你整个公司都要随之倒闭,而是将这一个机器人的价值拿出来作为赔偿。也就是,机器人也将对这个社会负责。这是我们还要考虑一个事实,机器人被创造出来的目的就是为作为主人的你创造更多的价值,而机器算法为了实现目的所使用的手段是极其暴力的,他们会为了自己的目的忘记对别人造成的种种影像,就像是昨天提到的闪电崩盘事件一样,每个机器都是为了自己管理的财富减小损失,于是造成更多其他别人的损失,到那时,我们是不是该考虑,个人的价值会不会偶然被机器之间的竞争影响到?