​研究人员探索对人工智能治理更广泛的影响需求

   通信小金        

随着机器学习算法和其他人工智能(AI)工具变得越来越普遍,一些政府和机构已经开始引入法规,旨在确保这些工具的设计和实施符合道德标准。例如,去年,神经信息处理系统(NeurIPS)会议引入了一个新的伦理相关要求,要求所有提交人工智能相关研究的作者。


​研究人员探索对人工智能治理更广泛的影响需求


牛津大学人工智能伦理研究所(Institute for Ethics in AI)、计算机科学系和人类未来研究所(Future of Humanity Institute)的研究人员最近发表了一篇展望论文,讨论了一些需求可能带来的影响,比如NeurIPS会议上介绍的那种需求。这篇发表在《自然机器智能》(Nature Machine Intelligence)杂志上的论文还推荐了一系列措施,可以最大限度地提高这些要求的成功几率。


“去年,NeurIPS引入了一项要求,要求提交的作者在他们的论文中包括更广泛的影响声明,”Carina E. Prunkl,进行这项研究的研究员之一,告诉TechXplore。“包括我们在内的很多人都感到惊讶。作为回应,我们决定把两块写在主题:导游人员如何开始思考他们的研究和写的更广泛的影响更广泛影响的报告,以及本文的角度来看,这确实是对画出的一些潜在影响等要求更广泛的影响。”


预测和总结某一特定研究的可能影响是一项非常复杂和具有挑战性的任务。在特定的技术工具或技术可能在广泛的设置中具有多种应用的情况下,这可能更具挑战性。


在他们的论文中,Prunkl和她的同事以研究不同治理机制的发现为基础,来描述由NeurIPS引入的需求可能带来的好处、风险和挑战。此外,他们还提出了一系列可以缓解潜在挑战的战略,并将其分为四个关键类别:透明度、指导、激励和审议。


Prunkl说:“我们的总体目标是通过提高人们对一些潜在缺陷的认识,为正在进行的关于社区主导的治理机制的讨论做出贡献,并为改进这一过程提供建设性的建议。”“我们通过观察其他治理项目的影响开始讨论,比如机构审查委员会,它们在性质上类似,也要求研究人员就其研究的影响撰写声明。”


Prunkl和她的同事们考虑了之前的人工智能治理计划,这些计划要求研究人员准备关于他们工作的影响的声明,并强调了从这些声明中获得的一些教训。然后,他们讨论了NeurIPS更广泛的影响声明要求的潜在好处和风险。最后,他们为会议组织者和整个ML社区准备了一份建议清单,这可以帮助他们提高这些声明对人工智能发展产生积极影响的可能性。


普鲁姆克尔表示:“我们列出的一些好处包括,改进了对人工智能潜在有害影响的预测和缓解,以及改善了研究团体和政策制定者之间的沟通。”“如果不仔细执行,就会有这样的风险,即声明的质量会很低,伦理道德会被认为是一种随意的练习,甚至伦理道德会被轻视,因为这表明实际上可以完全预测这种方式的影响。”


为了评估和预测特定技术的更广泛影响,研究人员最好具有伦理学或社会学等学科背景,对理论框架和之前的实证结果有丰富的知识。在他们的论文中,Prunkl和她的同事列出了过去治理计划失败或负面影响的一系列可能的根本原因。这些原因包括在试图确定某一研究或技术工具的更广泛影响时遇到的固有困难、体制或社会压力以及缺乏协助研究人员编写其声明的一般准则。


“我们的主要建议集中在四个关键主题上:第一,提高透明度和设定期望,这包括目的、动机和期望的沟通,以及如何评估这些声明的程序透明度,”普拉姆克尔说。“第二,提供指导,包括指导如何写这些陈述,以及指导审查员如何评估它们。”


在他们的论文中,Prunkl和她的同事还强调了设定激励机制的重要性。准备高质量的报告可能是昂贵和耗时的,因此他们认为机构应该引入激励措施,鼓励更多的研究人员投入大量的时间和精力来反思他们的工作的影响。


Prunkl解释说:“一个解决方案是将对报表的评估整合到同行评审过程中。”“其他选择包括设立指定奖项,鼓励作者引用其他影响陈述。”


Prunkl和她的同事强调的第四个主题与公众和社区的审议有关。这最后一点超出了更广泛的影响声明的范围,研究人员认为,任何旨在治理人工智能的干预都应该以这一点为基础。他们特别强调了需要更多的论坛,让ML社区能够讨论旨在解决人工智能风险的潜在措施。


“找到有效确保人工智能安全、负责任的发展的治理解决方案,是当今最紧迫的挑战之一,”普拉姆克尔表示。“我们的文章强调了对这种治理机制进行批判性思考的必要性,并仔细思考可能出现的风险和挑战,以及可能破坏预期收益的问题。最后,我们的文章强调了这种治理机制需要社区讨论。”


Prunkl和她的同事们希望,他们准备的建议清单能够帮助会议组织者,他们正计划引入更广泛的影响需求,以应对与人工智能开发相关的可能挑战。研究人员目前正计划加强与ML研究人员的合作,以便进一步协助他们准备研究影响声明。例如,他们计划与研究人员共同设计会议,在那里他们将合作创建资源,可以帮助团队准备这些声明,并确定他们的工作的更广泛的影响。


Prunkl说:“围绕影响报告书的辩论确实凸显出,在应采用何种治理机制以及如何实施这些机制方面,缺乏共识。”“在我们的文件中,我们强调有必要继续就这些机制进行建设性的审议。为了应对这一需求,作者之一卡罗琳·阿什赫斯特(与索伦·巴罗卡斯、罗西·坎贝尔、黛博拉·拉吉和斯图尔特·拉塞尔一起)组织了一个NeurIPS研讨会,主题是‘引导人工智能研究的更广泛影响’。”


在艾什赫斯特和她的同事组织的研讨会上,与会者讨论了神经系统的影响陈述和伦理审查,以及围绕负责任的研发理念的更广泛的问题。此外,组织者还探讨了ML研究生态系统中不同各方在指导编写更广泛的影响声明方面所能发挥的作用。


在未来,Prunkl和她的同事们计划创造更多机会,就人工智能治理进行建设性的审议和讨论。他们希望ML社区和其他参与人工智能使用的各方将继续合作,建立旨在有效解决ML研究可能产生的问题的规范和机制。此外,研究人员将进行进一步的研究,旨在分析影响陈述和一般态度对这些陈述。


Prunkl说:“对会议预印本的影响分析工作已经显示出令人鼓舞和担忧的趋势。既然会议论文的最终版本已经公开,我们/GovAI/我们的研究小组已经开始分析这些声明,以了解研究人员是如何在实践中响应要求的。除此之外,还需要更多的工作来了解ML研究人员目前对这一需求的态度。ElementAI的研究人员发现,NeurIPS的作者对此反应不一;虽然有些人认为这一过程很有价值,但也有些人提到了我们论文中强调的许多挑战,例如将这一要求描述为‘给已经超负荷工作的研究人员增加了一个负担’。”

最新评论(0)条评论
不吐不快,我来说两句

还没有人评论哦,抢沙发吧~

相关新闻推荐