如何提高人工智能算法的公平性

   通信小金        

“什么是公平?”感觉像是一个反问句。但对于密歇根州立大学(Michigan State University)的潘宁·谭(Pang-Ning Tan)来说,这是一个需要回答的问题,因为人工智能系统在决定谁能获得适当的医疗保健、银行贷款或工作方面扮演着越来越重要的角色。


如何提高人工智能算法的公平性


在亚马逊(Amazon)和美国国家科学基金会(National Science Foundation)的资助下,谭秦美去年一直致力于教授人工智能算法如何变得更公平,并意识到自己的不公平。


“我们正在努力设计人工智能系统,不仅为计算机科学,还要为社会带来价值和效益。因此,我开始思考现在对社会真正具有挑战性的领域是什么。”密歇根州立大学计算机科学与工程系教授谭说。


“公平是一个非常大的问题,尤其是在我们越来越依赖人工智能来满足日常需求的情况下,比如医疗保健,但也包括一些看似平凡的事情,比如垃圾邮件过滤或在你的信息流中添加故事。”


正如谭所提到的,人们已经在各种应用中信任人工智能,不公平算法的后果可能是深远的。


例如,调查显示,人工智能系统让黑人患者更难获得医疗资源。亚马逊(Amazon)取消了一个人工智能招聘工具,该工具对女性求职者进行惩罚,而对男性求职者进行惩罚。


谭恩美的研究团队正在多个方面应对这类问题。斯巴达人正在研究人们如何使用数据来教授他们的算法。他们也在研究如何让算法在做决定和建议时获得更多不同的信息。他们与美国国家科学基金会(NSF)和亚马逊(Amazon)的合作,正试图拓宽通常为人工智能系统定义公平的方式。


传统的定义是从个人的角度来看待公平;也就是说,一个人是否会认为一个特定的结果是公平的还是不公平的。谭说,这是一个合理的开始,但也为相互冲突甚至相互矛盾的定义打开了大门。对一个人公平的事情可能对另一个人不公平。


因此,谭恩美和他的研究团队借鉴了社会科学的观点,建立了一个包含群体视角的定义。


“我们正努力让人工智能意识到公平,为了做到这一点,你需要告诉它什么是公平。但是你如何设计一个所有人都能接受的公平衡量标准呢?”“我们正在研究一个决定如何不仅影响个人,还影响他们的社区和社交圈。”


考虑一下这个简单的例子:三个拥有相同信用分数的朋友向同一家银行申请相同金额的贷款。如果银行批准或拒绝每个人,朋友们会认为这比只批准或拒绝一个人的情况更公平。这可能表明银行使用了那些朋友可能认为不公平的外部因素。


Tan的团队正在构建一种方法,从本质上对不同结果的公平性进行评分或量化,这样AI算法就可以识别出最公平的选择。


当然,现实世界比这个例子要复杂得多,Tan是第一个承认为人工智能定义公平说起来容易做起来难的人。但他得到了帮助——包括密歇根州立大学系主任阿卜杜勒-侯赛因·埃斯法哈尼安(abdola - hossein Esfahanian)。


Esfahanian是应用图论领域的专家,该领域帮助建立连接和关系的模型。他还喜欢学习计算机科学相关领域的知识,而且大家都知道,只要同事们不介意,他就会去旁听他们教授的课程。


“我们的教师在传授知识方面非常出色,”埃斯法哈尼安说。我需要学习更多关于数据挖掘的知识,所以我上了谭博士的一门课,上了一个学期。从那时起,我们开始就研究问题进行交流。”


现在,埃斯法哈尼安是美国国家科学基金会和亚马逊基金的联合研究员。


他说:“算法是由人创造的,而人通常会有偏见,所以这些偏见会渗透进来。”“我们希望公平无处不在,我们希望更好地了解如何评估它。”


该团队正在这方面取得进展。去年11月,他们在美国国家科学基金会(NSF)和亚马逊(Amazon)组织的网上会议上展示了他们的研究成果,同时也在电气与电子工程师协会(Institute of Electrical and Electronics Engineers)主办的虚拟国际会议上展示了他们的研究成果。


Tan和Esfahanian都表示,斯巴达人的进步让社区和资助者感到兴奋。但两位研究人员也承认,他们才刚刚开始。


“这是一项正在进行的研究。有很多问题和挑战。你如何定义公平?你怎样才能让人们相信我们每天都在使用的这些系统?”谭说。“作为研究人员,我们的工作就是找到这些问题的解决方案。”

最新评论(0)条评论
不吐不快,我来说两句

还没有人评论哦,抢沙发吧~

相关新闻推荐