公共部门所需的算法透明度义务

2022-06-26 14:46:15来源:

政府应该强迫公共部门机构对他们使用算法的算法更加透明,这是关于杀戮的决定,综述算法偏见。

由数据伦理和创新中心(CDEI)发表,英国政府咨询机构负责人工智能(AI)和其他数据驱动技术,151页审查提出了一些政府,监管机构和的措施行业可以解决,以减轻与算法决策中偏差相关的风险。

“现在,我们现在努力工作以采用算法决策增加,这是至关重要的,”Cdei董事会成员Adrian Weller说。“政府,监管机构和行业需要与跨学科专家,利益攸关方和公众共同努力,以确保算法用于促进公平性,而不是破坏它。

“数据伦理和创新中心今天制定了一系列措施来帮助英国实现这一目标,专注于提高决策过程中对辛勤影响产生重大影响的透明度和问责制。该报告不仅提出了路线图来解决风险,而且它强调了良好利用数据的机会,以解决历史不公平,并避免在生命的关键领域中的新偏见。“

审查指出,偏差可以以多种方式进入算法决策系统。这些包括历史偏见,其中反映了先前偏见的人类决策或历史社会不平等的数据用于建立模型;数据选择偏置,其中使用的数据收集方法意味着它不是代表性的;和算法设计偏置,其中算法本身的设计导致偏置的引入。

偏见也可以由于人为错误而进入算法决策过程,具体取决于人类解释或使用算法的输出,偏见的风险重新进入过程,因为它们适用于他们自己的意识或无意识的偏见最终决定。

“还有风险可以通过反馈循环随时间放大偏差,因为模型通过使用早期版本的模型在决策中完全或部分地生成的新数据上逐步再次升序,”审查说。“例如,如果基于历史逮捕数据预测犯罪率的模型用于优先考虑警察资源,那么高风险地区的逮捕可能会进一步增加,加强不平衡。”

CDEI还指出,“杀戮做出决定是公共部门许多地方的核心责任”,因此,政府应该对所有公共部门组织使用算法来满足这一责任的强制性透明度义务,这将是帮助“建立和维护公共信任”,并引入更高层次的问责制。

“政府应更准确地开展一个项目来解决这一义务,并试点采取措施实施它,但它应该要求提供关于如何使用算法的决定的信息,算法类型,如何它说,在整体决策过程中用于整体决策过程,并采取的步骤,以确保公平待遇史式。“

“内阁办公室和皇冠商业服务应更新公共部门采购的型号合同和框架协议,以纳入一套最低标准,围绕AI的道德使用,特别侧重于预期的透明度和解释性,以及对公平的持续测试。”

但是,Thecdei表示,如果这些信息不明,可能会通知公众,促进更大的关注。因此,任何与透明相关的出版物都应容易找到,理解和使用,并且应该绝对避免用于服务狭隘的通信目标或有目的地操纵观众。

“如果我们在公共部门的决定范围内考虑透明度,如果它没有被视为最终,但如果没有被视为良好的治理,包括问责制,那么。

它呼吁政府发出指导,澄清平等行为申请算法决策,这应该包括有关衡量偏见的数据集合的信息,以及可能导致积极的各种偏差减缓技术的合法性歧视。

公共和私营部门的组织也应该使用数据来积极识别和减轻偏见,这意味着他们必须了解他们的算法工具的能力和限制,并仔细考虑他们将如何确保如何确保公平的杀戮。

但Cdei警告说:“偏见缓解不能被视为纯粹的技术问题;它需要仔细考虑更广泛的政策,操作和法律背景。“

该审查建议政府和监管机构提供有关组织如何积极使用数据来解决当前和历史偏见的明确指导,这应该解决数据保护法阻止数据保护法监测和缓解歧视的数据的误解。

巴塞罗那算法审计咨询咨询咨询商Eticas的Gemma Galdon Clavell先前已告诉计算机每周AI级功耗算法如何用作“偏见诊断”工具,显示如何重新启动相同的技术以重新实施积极社会成果如果有动机。

“在法国有这个AI公司[Rave法律]使用法国政府的开放数据在司法判决中,他们发现一些法官明确倾向于向移民原产人的人们发出骚扰刑期,因此人们得到了不同的判决由于判决偏见,同样的罪行,“Galdon Clavell说。

“这是一个例子,AI可以帮助我们确定人类偏见在过去失败的特定人群的位置,因此在以正确的方式使用时是一个很好的诊断工具。”

然而,她指出,法国政府对此的回应是不要解决司法偏见问题,而是禁止使用AI分析裁判员和其他成员的专业实践。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章