越来越多的高技术产业和数字服务都以人工智能和机器学习为基础。但是,我们必须看到:人类社会存在的偏见和歧视也会被复制到人工智能系统中。因此,我们应对人工智能的整个程序进行监管,包括信息输入输出、数据、算法、模型等,以克服偏见与歧视在人工智能领域的延续。
在人工智能问题上,有个所谓 “黑盒子”的问题,即我们不能看到程序算法的内部,因此无法理解人工智能是如何做出决策的。如果没有解决好这个问题,一些涉嫌歧视的数据将被算法永久性地编码进人工智能程序中,从而影响未来人类与人工智能的关系。不过,仅靠纯粹的技术手段,很难实现对人工智能的每个阶段实现无漏洞监控,同时还需通过人工评估和干预,才能确保偏见和歧视被彻底消除。
要消除人工智能潜在的歧视问题,第一步是打开算法“黑匣子”。出于专利保护和商业机密的考虑,许多公司的人工智能程序算法都处于保密状态。不过,这一状况正得到改变,目前人工智能领域正在加快代码的开源,制定新的透明度标准,来提高人工智能产品的可靠性。AI NOW是美国纽约大学一个倡导算法公平的非营利组织,它提倡 “程序员必须对算法得出的结论做出解释,否则就不能投入使用”。
目前,相当一部分互联网巨头开始正视这一点。如谷歌开发的几个人工智能项目,程序员为机器学习增加了手动限制,使输出的信息更准确,可理解性更高。美国国防部高级研究计划局还资助了一项名为XAI(可解释的人工智能)的计划,旨在打开人工智能的 “黑匣子”,以保证用户更好地控制人工智能程序。微软首席执行官萨蒂亚·纳德拉也认可 “算法问责制”的必要性。
但通过打开算法 “黑匣子”,制定法规和政策来确保消除人工智能的偏见和歧视,这还远远不够。因为偏见与歧视不光存在于算法中,还存在于人工智能得出的结论、预测和建议中。
以虚拟助手为例,处理比较简单的任务时,人工智能系统会偏向使用女声(例如的Siri和亚马逊的Alexa);而解决疑难问题时,系统则选用男声(例如IBM的Watson和微软的爱因斯坦)。由于在人工智能行业女性从业人数偏少,这更是增加了性别歧视的可能性。
鉴于此,我们应加强对人工智能所使用的数据、算法以及模型的评估,以剔除潜在的可导致偏见与歧视的因素,并且加强程序员的 “算法问责制”,这样才能提高人工智能产品的可靠性,最终建立起人机信任。