…………
拍照过后,主论坛开讲。
经鸿是第三个上台的。他穿着深色的西装和皓白的衬衫,正了正麦克,道:“尊敬的郑书记,尊敬的吴部长、王部长,各位IT的同仁,各位新老朋友,大家好。”
台下顿时响起掌声,颇为热烈。
经鸿见了,笑笑,说:“有点儿受宠若惊。希望我接下来的几分钟能不虚这些掌声吧。”他一贯地有礼有度,给人好感。
待现场重新安静,经鸿才进入了主题:“过去,对人工智能的探究主要集中在三个层面:对社会的价值、对企业的价值,以及AI的伦理风险。今天我主要想讨论讨论另外一个鲜少被注意到的方面,就是算法黑箱的打开。”
经鸿看见台下的人全都露出了兴趣。
“算法黑箱”,台下的人都不陌生。人工智能模仿人脑进行学习,比如,人类交给AI大量猫的图片、狗的图片,它就可以层层提取对象特征,自己学会“什么是猫”“什么是狗”,可人类目前不能解释AI的工作原理,不能明白机器为何要做某些事情、为何得出某些结论。根据输出,有些思路简单易懂,比如猫狗的轮廓、颜色,可很多时候并非如此——也就是说,人类看不懂。它给了人类空前的可能,也给了人类无尽的困惑。有人说,让 AI 向人类解释一个东西,相当于让人类向狗解释一个东西,听着就让人沮丧。
可人类历史充分表明,只有一个决策可以被解释、被分析,人类才能充分了解它的优点和它的缺陷,进一步评估风险,知道它在多大程度上能被信赖。然而现在,每个学者的头脑中都萦绕着几个问题:我们能信任 AI 吗?我们能在多大程度上信任 AI ?我们能在生死攸关时信任 AI 吗?
台上,经鸿又说:“今年,DARPA提出了‘可解释AI’的概念,何积丰院士也提出了‘可信AI’的概念。目前各国科学家正致力解开黑箱、解释算法,而泛海的研究院也愿意分享一些成果。我接下来的演讲将主要分为三个板块,第一个是各国的最新政策和各国的研究现状,第二个是泛海的一些成果以及泛海的一些工具——这些工具泛海都会在即将发布的《可信AI白皮书》中分享出来,最后一个则是发展趋势和发展建议,也就是对业内的倡导。”
他的语气不疾不徐。
中间有次,经鸿目光无意中扫过周昶,而后发现,周昶竟然还挺认真的。
演讲的最后,经鸿再次语气坚定地道:“对可解释AI、可信AI的强调是AI发展的必然趋势,否则算法安全、算法责任等问题都无法解决。我们并不悲观——在人类的文明当中,往往实践先于理论。很多东西被发明时,发明者都并不清楚发明物的工作原理,比如火药。火药被发明时,发明者绝不知道产生二氧化碳的化学式。因此我相信,凭借人类的智慧,我们终会彻底揭开AI的神秘面纱,让人工智能发挥出最大的价值。谢谢大家。”
这回掌声更加热烈了,看起来,经鸿完全做到了“接下来的几分钟能不虚这些掌声”。
…………
演讲每人是20分钟。经鸿的演讲之后是一个短暂的茶歇时间。其实经鸿觉得主办方的日程安排有点儿怪,一般来说上午是没有茶歇时间的,下午才会有,可这次大会每天都有两次茶歇。当然了,经鸿是无所谓的。
茶歇区内,各类中西式的咖啡、茶水、果汁、甜品、水果、坚果应有尽有,主办方相当周到。
经鸿走到角落里,拿了一个玻璃杯,倒了一杯叫作“Pink Diamonds”的微量酒精饮料。冰块摇动,淡红色的酒精饮料在玻璃中上下晃动。
这也是茶歇区内唯一一种酒精饮料。
再回身,经鸿看见不远处一家美国