湾区人工智能 2019-03-22
英国皇家历史学会最近透露,学会利用人工智能算法进行的初次研究显示,英国的劳动力存在“大规模性别偏差”。基于人工智能的系统搜集了整个英国互联网上的资料,排查了现有男女职位的分布。该项研究调研了108个不同的经济行业后发现,其中87%的行业存在倾向于男性的不平等,导致任高层领导职位的男性不成比例。
这项开创性的研究很好地说明了人工智能在阐释我们的世界时具有极大的潜力,毕竟,人工智能的一个强大功能就是分析超大量的数据并在其中找到我们人类无法找到的模式。不过,虽然人工智能可以帮助发现偏差和不公平,但实际上人工智能也可能导致更多偏差和不公平。
来看一下以下的例子:加纳裔美国计算机科学家Joy Buolamwini(https://twitter.com/jovialjoy?lang=en)现在是麻省理工学院媒体实验室的罗德学者和研究员,她以前读研究生时发现她使用的人工智能面部识别系统无法识别她的脸。而只有在她戴上白色面具后系统才能确认她的存在。在Buolamwini案例中,面部识别系统不能识别她,因为用于训练软件的数据池里大部分是白色面孔,而且缺乏足够的多样性。换句话说,问题始于数据本身,人工智能系统要从这个有缺陷的数据集合里学习,系统越来越“智能”时,问题也就会挥之不去。其实,实际的系统会变得越来越笨,因为偏差本身会进一步强化偏差。Buolamwini发起了算法正义联盟(https://www.ajlunited.org/)计划,计划旨在推动大家对人工智能偏差的关注及培训组织实行人工智能实践。Buolamwini希望借计划推动更公平、更道德的人工智能方法,这一使命在人工智能驱动决策制定的时代显得尤其重要。
含偏差的人工智能也扩展到了其他领域,如刑事司法、招聘和招聘等等。IBM发表的一份研究报告提出,已经定义和分了类的人类偏差达180之多,每种偏差都可以干扰判断及影响最终决策。人工智能则很容易复制这些偏差。假定一家公司要利用人工智能来确定员工的工资,定工资的标准部分基于薪酬历史。这就可能会令女性处于相当不利的地位(https://www.brookings.edu/blog/techtank/2019/01/03/artificial- intelligence-and-bias-four-key-challenges/),基本就是因为她们过去一直受到歧视。再例如,推荐引擎也会从用户的偏好中学习并提出相应的建议。
各个组织要如何才能确定自己及人工智能系统所依赖的数据确实是合适的?而且不会强化歧视模式呢?
与许多其他问题一样,克服问题的先要承认问题的存在。企业不仅必须重新定位数据集和算法培训,还必须重新定位围绕人工智能的流程和人员。我们希望有一个更公平的工作场所,在这个过程中解决这些问题就至关重要。我们必须有专门的团队和流程,甚至可能需要创建诸如“首席偏差官”这样的职位,他的工作就是审查数据并确保严格的道德标准,人工智能工具将会在我们的工作环境里越来越普及,他的任务是与偏差和偏见做斗争。
例如,他可以通过推动多样化,影响工程团队的招聘,然后再定期检查工程师为人工智能算法选用的数据输入。这是“人员就是政策”的一个例子。要认识到人工智能并非绝对可靠,这一点很重要,拙劣的输入意味着拙劣的输出。他要定期进行绩效评估,要针对可查算法输出进行控制测试及持续微调。