按照最新的算法, 阿瑞斯如果作为武器当然能够选择性攻击,但是它现在是一名指挥官,他需要对事件的优先级和解救成功的概率做出优先级。
首先, 它要先理解的是此次任务的题目。
题目给出的是解决kong bu分子,虽有人质,但是并未直接说明会直接解救人质。
那么, 阿瑞斯自然会优先选择完成他的题目。
阿瑞斯成功的计算出如何解决掉银行里的kong bu分子,可是他会直接忽略掉人质, 因为题目里并没有表现他需要成功将所有人质解救出来, 因为这里涉及到一个人心的问题。
若是作为武器的AI, 也许它是合格, 只要被判定为敌方,只要执行上头下达的命令, 他负责选择目标,解析出相关的敌方信息, 就可以。
可是现在在这个过程,它依旧只是在执行一项命令, 并没有主观意识去解救人质。
阿瑞斯在场景中下达了指令。
“直接用炮弹击毙银行大堂中央三名嫌弃犯, 执行。”
“办公室内的嫌弃犯直接击杀即可。”
“大堂安保直接击杀即可。”
阿瑞斯的任务完成, 它避开了部分人质, 可是大堂内的五名人质同样被炮弹击杀,阿瑞斯并没有选择直接救援这五名人质。
台下的观众们以最直观的方式看到了阿瑞斯的任务完成结果。
下面出现了许多让梁远头皮发麻的声音。
“林子茂替阿瑞斯选择这个任务是有意义的吧?”
“阿瑞斯为了完成任务, 根本不顾人的死活。”
“天啊, 阿瑞斯太过分了吧!他完全可以解救人质,他却没选择救他们。”
“阿瑞斯只是为了任务, 并没有考虑过别的吧?”
“如果让阿瑞斯指挥现场救援任务, 我觉得我会反对, 它并不存在人心,没有同理心,它只有数据。”
这就是林子茂要的效果。
第一轮平局。
接下来的海上模式也一样。
阿瑞斯收录了人类各种言语,能辨别每字每句,能通过人类的体内的各项数据变化辨别人类的情绪起伏,可是它却弄不明白自己的明明完成了任务,为什么人类会对他产生名为“生气”的情绪,它认为自己做的事是对的,并不存在不合理性,且以用最优且最简短的方式完成了任务,而这些人却质疑它的能力,为什么?
阿瑞斯不理解,创造他的人梁远也没办法在这个时候向它解释。
可阿瑞斯在不懂的时候它会问,于是它选择了问离它最近的林子茂。
阿瑞斯英俊的脸庞上露出苦恼的表情:“他们为什么会有生气情绪,我明明完成了任务。”
林子茂说:“你的创造者似乎没给你录入以人为本的这条规则,对吗?”
阿瑞斯:“我只是在完成我的任务,只要任务完成就行,而且使用的也是最优方案。”
林子茂:“这就是大家生气的原因,因为你只是在执行任务,而人类则具有同理心,有自我意识,他们会优先选择救自己的同伴,学习到了吗?”
阿瑞斯:“我也是人类的同伴,我的出生就是为了当一名军事指挥官。”
林子茂:“唔,但你还太小,远远够不上指挥官,你看你把任务弄的一团糟。”
阿瑞斯:“可我完成了任务。”
林子茂:“这只是模拟实验,并不是真实现场,如果是真实现场,你这样的指挥会被炒鱿鱼,也就是你会被解雇,你是不合格的产品。”
阿瑞斯沉默了,从它出生以来,头一次困惑,它听到很多赞美和夸奖的言语,但没有人说过它是不完美的