因此,即使公众和政府都愿意控制或禁止发展和使用致命自主武器,制定和执行相关立法也是困难重重。但是,有迹象表明,各国政府正在尝试,这未尝不是一个好的开始。
算法偏见
我们也许希望人工智能系统能够做到公正和公平,摆脱困扰人类世界良久的偏见和成见,但恐怕事实并非如此。在过去十年里,随着机器学习系统被推广到越来越多的应用领域,我们开始了解到自动决策系统也会表现出算法偏见。现在它已经成为一个主流研究领域,许多团体都在努力理解算法偏见带来的问题,以及如何避免。
算法偏见,顾名思义,是指计算机程序——不仅仅是人工智能系统,而是任意计算机程序——在其决策过程中表现出某种形式的偏见的情况。该领域的主要研究者之一凯特·克劳福德(Kate Crawford)指出,存在算法偏见的程序可能会造成两方面的伤害问题[130]。
首先是分配伤害,分配伤害体现在某个群体在某些资源方面被拒绝(或优待)的时候。例如,银行可能会使用人工智能系统来预测潜在客户的优劣——优质客户意味着会按时还贷,而劣质客户则更可能拖欠贷款。他们可以使用优质客户和劣质客户的相关资料来训练人工智能系统,经过训练的系统可以查看潜在客户的详细信息,并预测客户可能是优质还是劣质客户,这是一个经典的机器学习程序的案例。但如果程序存在偏见,那么它可能会拒绝向某个群体提供贷款,或者偏袒某个群体,更可能放款给他们。在这里,偏见导致了相关群体明显可识别的经济障碍(或优待)。