建立2020:微软旨在为人工智能建立信任

2022-06-19 09:46:15来源:

在其年度建设中2020年开发人员会议期间,微软概述了机器学习的负责任开发程序的计划。目的是使这些可重复,可靠和负责任。

Azure Machine学习自动跟踪数据集的谱系,因此客户可以在中央注册表中维护其机器学习资产的审计跟踪,包括历史,培训和模型解释。这为数据科学家提供了数据,机器学习工程师和开发人员在工作流程中提高了可见性和审计性。

在会议期间,Microsoft提供了有关Azure机器学习中的自定义标签的指导,可用于实现计算机学习模型的数据表,使客户能够改进其数据集的文档和元数据。自定义标签基于微软与AI的合作伙伴关系以及其注释以及机器学习生命周期(关于ML)项目的理解和透明度的基准,这旨在提高机器学习系统文档中的透明度和问责制。

Microsoft的另一个焦点领域是建立对机器学习模型的更好理解和评估和减轻数据中的不公平的工具。在过去几个月里,它一直在划分的模型不公平和解释的工具。这些地区目前对机器学习的从业者特别重要。

2019年,Microsoft发布了FairLearn,这是一个开源工具包,可评估机器学习模型的公平性。微软宣布,微软将在6月份将工具包本身集成到Azure Machine学习中。

Fairlearn Toolkit提供最多15个“公平度量”,以评估和培训模型。它还提供可视仪表板,以显示模型如何针对客户选择的某些组,例如年龄,性别或种族。随着现场研究进展的研究,Microsoft计划添加到这些功能。

它还通过称为Interpetml的工具来解决可解释的人工智能(AI),它提供了一组使用各种技术来提供模型解释性的交互式仪表板。对于不同类型的模型,InterpetML可以帮助从业者更好地了解确定模型输出中最重要的功能,执行“如果”分析和探索数据的趋势。

Microsoft还宣布,它正在添加一个配备的新用户界面,配备了一组可解释性的可视化,支持基于文本的分类和对抗事实示例分析到工具集。

艾美省这些关键领域的新兴性质使其挑战了一些早期企业,了解技术在实践中如何工作,特别是对客户的工作。

Microsoft在这一领域发出了一系列视觉改进,特别是对于数据科学家和机器学习工程师。在InterpetML的演示中,Microsoft展示了零售商如何在其网站上使用可解释性,以支持其AI驱动的消费者产品建议。在客户中建立透明度和AI的信任是目前该技术的最大障碍之一。

事实上,信任 - 或缺乏它 - 在该技术中被出现为企业采用机器学习的最大障碍。在2019年的CCS Insight调查中,39%的IT决策者被认为是在组织中通过的最大障碍。

Nicholas McQuire是CCS Insight的高级副总裁和企业负责人和AI研究。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章