「AI Time」science debate 第一期:论道 AI 安全与伦理

由清华大学 AI 研究院张钹院士和清华大学唐杰教授联合发起的「AI Time」science debate 第一期,于 5 月 31 日圆满落幕。出席嘉宾还包括中国人民大学高瓴人工智能学院院长文继荣和搜狐网产品技术总监杨田等人,就主题「AI 安全与伦理」展开了激烈的辩论。近来,由 AI 人脸合成技术带来的一系列问题已引起了社会的广泛关注,而 AI 究竟应该如何发展?AI 革命应做出怎样的贡献?对于这些问题进行深入探讨,刻不容缓。

 

Topic 1:影片《Her》中女主角那样的智能我们能做到吗?

本次活动由电影《Her》开场。影片讲述了男主角西奥多(作家)在结束了一段令他心碎的爱情长跑之后,与电脑操作系统里有着性感嗓音且风趣幽默、善解人意的女主角「AI 萨曼莎」开启了一场跨「种族」的爱情故事。但在现实社会,我们真的能将 AI 发展成为影片里的「萨曼莎」那样吗?如果真的能达到这样的高度,我们目前面临着什么挑战呢?

来自人民大学的文继荣教授首先对此进行了解读,他表示我们一直以来的口号,即为「人类探索智能且有温度的未来」。但就目前看来,AI 产品与设想有一定偏差。在我们不断推动人类技术边界的过程中,有很多问题出现,但是我们没有引起足够的关注,如目前的 AI 不具有情感,因为它的优化目标不是伦理的东西,而是完成既定目标。因此,现实与影片中的 AI 之间还具有很大的差距,但我们能够在某些局部实现其功能,如利用现在的大数据和深度学习的技术,将你每天发生的事情记录下来,建立个性化的模型,可以实现基本的聊天功能,甚至它可能变得比你更懂自己。

张钹院士则明确表示影片里的智能目前无法做到,因为其中包含了一个严肃的哲学问题——「什么叫做爱,什么叫做美?」这类问题定义本身就不够明确,其中包含很多主观与客观的因素在里面。而人工智能目前遇到最大的问题,就是要在对人脑了解很少的情况下去做人工智能,这里面就会产生各种各样的流派,利用这种模糊性来宣传一些观点。另一方面,目前流行的人工智能主要基于人类的行为主义学派而定义,即人工智能在某些行为判定上超过人类。人工智能如果想要有新思路的发展,首先需要解决哲学与 AI 之间的问题。最后张院士还表示,在研究上要成为真正的大师级人物,必须要有哲学思想,没有哲学思想不可能产生全新的格局

而来自工业界的杨田博士从 AI 相关产品的层面来解答了这个问题,他表示影片提到的人工智能是很聪明的,像人一样有情感,而现在我们看到的 AI 产品跟这个差距很大。现在的 AI 产品基本是来自于「最优化问题逼近现实表达」;而无法达到像人类那样的情感表达。不过从技术层面来讲,当前是可以得到像人一样交流的 AI 产品,一旦人的情感被其他人用 AI 产品恶意利用,这是一件及其令人担忧的事情。

Topic 2:未来十年内,最可能在现实中发生和实现的 AI 场景是什么?

杨田博士表示,就目前对 AI 的定义来说,很多实际应用做得非常好,如语音对话、语音合成、驾驶技术等方面。但对学计算机的人来说,它离通过图灵测试还有很长的距离。

张钹院士则提到了关于 AI 的定义。目前,我们采用哲学里的行为主义标准来对 AI 进行定义,即 AI 肯定是在很多限制条件下,才会在某个方面超过人,但无法实现全面超过人类。也就是说,这个机器表现出来的行为跟人一样或者差不多的,我们就认为它就具有智能,比如这个机器做图像识别,它能够把不同的图像分开,识别率接近人或者超过人,那我们就说在图像识别这个具体条件下它跟人是一样的。但这两者背后的原理完全不一样,AI 的鲁棒性和抗干扰能力比人差多了。所以我们现在只能做到这点,在某些行为上使 AI 尽可能接近人。

文继荣教授提出一个很有意思的思想:不精确的带有很强容忍性的场合是将来人工智能会成功的地方。他说道:写程序的各位可能心里一直有一个疑惑,为什么他写的程序叫人工智能,自己写的程序就不叫人工智能?他提出如果程序的输出是确定的,就不是人工智能,如果输出是模糊的,是带有不确定性的,可以由精度来衡量,比如人脸识别 95%,就是人工智能。还有如果程序再进一步能够应付多样性和变化性,还得到比较高的精度就是人工智能。

Topic 3:关于 AI 隐私与安全之间,应该如何抉择?

在这里,主持人先引入了一个故事。一辆火车行驶在正常轨道上,前方有 5 个人,而另一条岔道上有 1 个人。在无法停车的情况下,是转向岔道撞死一个人,还是继续开下去撞死五个人?

结合这个问题背后涉及的一些伦理、价值观进而深入到哲学层次的一些问题,三位嘉宾给出了自己的观点——

张钹院士谈到了这个故事背后所涉及到的东西方价值观差异。按西方的价值观比较强调个人利益,个人利益神圣不可侵犯,所以在这个问题上,他们会倾向于按照原定轨道行驶。而从中国的价值观来讲,公共利益大于个人利益时,可以适当牺牲个人利益。所以就 AI 隐私与安全来讲,其实不存在绝对的选择,相比之下,如何去平衡这两者是个更值得探讨的问题。随后他举了一个利用在部分公共场合增加摄像头,从而使抓到逃犯的几率上升的这个例子。装摄像头肯定损害了个人利益,但却保证了更多人的安全。所以就个人而言,张钹院士主张如果影响到了公共利益的罪犯要抓,个人要做点牺牲;但这是中国的哲学、中国的价值观,西方不接受这种价值观。

文继荣教授则呼吁道:目前有些数据的搜集是完全没有必要的。欧洲也许过于强调隐私保护,对大数据人工智能产业的发展造成很大的影响;但是我们也不应该纯粹为了发展人工智能产业而忽略隐私保护。

杨田博士反对说,我们其实或多或少都从所谓的个性化推荐上面获得了便利,个性化推荐也可以理解为向系统出卖了我们的隐私换来了生活的便利。从火车的角度来说,即使从功利主义的角度来讲,我们并没有充分的信息证明哪个选择会获利更高,这是不成立的。我们到处装摄像头,确实侵犯了公民的隐私权;但是摄像头的存在事实上确确实实改善了治安环境。在过去科学没有那么发达的时候,大家相信自己的一举一动有神在上面看着,所以道德教育约束我们自己。现在我们不信神了,在这种情况下这些技术手段起到了威慑作用。看问题不应该极端和绝对,其间边界在于这个事情或者这种数据采集它能不能作为对我行为不当的一种证据,本身不应该由图像采集这件事情来承担。

文继荣教授接着提出了一个关键性的问题,这个问题是悬在我们头上的剑,而且风险很大,即我们无法保证数据 100% 不会被滥用,很多事情容易越过界。如果这些事情不受监管的话,是非常值得担忧的。

Topic 4:针对 AI 武器的自主性与杀伤力,哪一个是更令人感到担忧?

文继荣教授告诉大家:我们对 AI 的恐惧主要是来自于对它自主性的害怕,脱离开人的控制的恐惧感。从 AI 联想到这些武器和将来未来的机器有自主性,它有可能会脱离开人的控制,它的黑箱性以及随着环境自学习的能力。程序员起初给它一个规则,但之后学出怎样的模型,很可能会随着环境变化,变得失控。如果说不可控,同时又有很大的威力,这个就是很可怕的事情。

张钹院士说到人类的意志才是战争的根本,机器只是被操控的。战争里面不管发展到什么程度,最后都是按照人类的意志来进行的,不会按照机器的意志来进行的。危险在人不在机器,所有机器还是听人安排听人指挥的,包括自主的机器在内也是在听人安排听人指挥的。现在所有的发展都是这样,机器人做坏事是人指挥的,离开了人它就不知道干什么。所以不论是无人平台还是无人机,都不是真正的无人,其中包含了人的干预。

杨田博士表示他对 AI 武器最大的担忧在于,我们应该允许在没有经过人类审判的情况下让武器去消灭一个人吗?这确实是个值得大家进一步思考的问题。

Topic 5:未来的 AI 有没有可能能做到大杀伤力,其带自主性的程度是怎样的?

张钹院士表示人工智能现在发展的技术基本在军事方面用不上,军事必须发展人工智能技术。自主性不是随便机器自己的想法而行动,而在于机器和前面的信号断开后,在没有无线信号情况下,它还照样按照任务行动。

杨田博士则明确表明这自主性还是比较难实现的,因为从现在人工智能的发展程度来讲,都是在做任务,从解决一个小的任务到比较大的任务,到特定的场景下能工作,再到能够去做更多的事情,这也是帮助我们更好地理解现在的人工智能所处的阶段和接下来要做的事情这样一个途径。

Topic 6:是否应该给 AI 分级?

文继荣教授认为,AI 可以大致像自动驾驶那样,根据它的智能体面对环境多样性或者变化性时的处理程度来定。传统的程序,输入是确定的,输出是确定的;而如果在所有的场景下,AI 都能够自主地完全用人工智能来完成驾驶,这是自动驾驶的最高级;而对于其它层级,可以再做详细的定义和思考。

杨田博士也同意分级;他表示从现在人工智能的发展来看,都是在训练其做任务。从解一个小的任务到比较大的任务,到特定的场景下能够工作,到能够去做更多的事情,这(分级)也是帮助我们更好地理解现在的人工智能所处的阶段和接下来要做的事情的一个途径。