为什么必须解决AI技能,宽带和机器责任

2021-11-28 09:46:10来源:

上帝议院选择人工智能(AI)委员会呼吁政府做更多的是加强英国的网络基础设施,以支持人工智能。

精选委员会自2017年10月以来一直听证证据。它的调查结果,在英国的AI发表:准备好,愿意和能干?报告,还建议政府应修改其熟练的移民配额,以鼓励更多的AI专家来到英国。

报告称:“我们担心的是,在第1层(特殊人才)签证计划下提供的工人数量不足,对英国公司和初创公司的需求的需求过高。”

在该报告中,委员会建议政府应将机器学习和AI添加到第2层技能短缺清单中,而不是依靠第1层专家增加1,000名专家。

关于委员会对超超宽带和移动网络的推出表示:“我们欢迎政府的意图升级国家的数字基础架构,据他们所在。但是,我们担心它背后没有足够的动力,以确保该国的数字基础及时采取潜在的人工智能优惠。

“我们敦促政府考虑进一步大量的公共投资,以确保英国的各地包括在5克和超快宽带的推出中,因为这应该被视为必要性。”

该报告强调了AI动力系统的问责制,如其主要担忧,并呼吁政府和奥福姆研究AI对媒体的影响。

奥纳多的首席技术官Paul Clarke,他们向选择委员会提供了证据,警告说:“AI肯定会提出各种各样的新问题与问责制。是否提供了符合负责任的数据的人或人,建立AI的人,验证它的人,运营它的公司?

“我肯定的时间将在法院逐案中的法院接管,直到建立法定优先权。不清楚。在这个领域,这绝对是一个新的世界,我们将不得不提出一些关于问责制的新答案。“

选择委员会表示如何用于影响人们对社交媒体的观点,说:“AI使得处理和操纵所有形式的数字数据,基本上更容易,鉴于数字数据渗透到现代生活中的许多方面,这介绍了机会和前所未有的挑战。

“对公众了解和与AI一起发展的迅速增长的需求,与技术本身一起发展。特别是数据的操纵将是未来几个月和年度公众理解和讨论的关键领域。

“我们建议,政府和委员会委员会研究AI对常规和社交媒体网点的可能影响,并调查可能抵消利用AI误导或扭曲舆论的措施,作为紧迫性。”

AI系统的责任是委员会表示需要进一步调查的AI中的另一个大面积。报告称:“在我们看来,可以预见到一个场景,其中AI系统可能发生故障,表现不佳或以其他方式产生造成伤害的错误决策。特别是,当算法学习和发展自己的协议时可能会发生这种情况。

“对我们而言,我们的见证人并不清楚,是否需要在这种情况下进行法律责任和补救的新机制,或者现有机制是否足够。我们建议法律委员会考虑现行立法的充分性,以解决AI的法律责任问题,并在适当情况下建议政府适当的补救措施,以确保法律在该领域清楚。“

评论报告的调查结果,活跃OMG主席Louis Halpern,英国公司背后的自然语言会话自学AI,AMI,突出了保持个人数据安全,以避免它在AI算法中滥用的重要性。

“AI将渗透每个经济部门,并有巨大的潜力来改善人们的生活,”他说。“消费者需要知道他们的数据是安全的。我们必须避免AI行业被Facebook / Cambridge Analytica型丑闻污染。“

Brandon Purcell是Forrester的主要分析师,警告说:“为了防止机器学习中的偏见,您必须了解偏差如何渗透机器学习模型。和政治家不是数据科学家,他们将在战斗中对抗算法偏见的前线。和数据科学家不是伦理主义者,他们将帮助公司决定在人工智能系统中灌输哪些值。

'在一天结束时,机器学习擅长检测和利用人与人之间的差异。公司需要刷新自己的核心值,以确定差异化治疗有用,并且当它有害时。“

只有人们可以审核AI算法的学习和决策过程,才会发现这种偏见。最近由GenPact委托的财富知识集团的一项调查发现,63%的高级决策者被调查的人表示,他们希望在AI中看到更多的治理。

Genpact的首席数字官员Sanjay Srivastava说:“AI的挑战不仅仅是流程的自动化 - 它是关于你进入管理自动化企业的前端工艺设计和治理。”

追踪AI技术用于做出决策的推理路径的能力很重要。这种可见性在金融服务中至关重要,审计师和监管机构要求公司了解机器决策的来源。

随着计算机每周报道,领主选择AI委员会表示,迫切需要跨部门道德行为准则,或AI守则,适合在开发或采用的公共和私营部门组织实施ai。它表示,可以通过AI委员会和ALAN图灵研究所的投入来制定和促进此类AI代码。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章