AI峰会2020:为共同的好的调节AI

2022-06-26 13:46:24来源:

根据AI峰会2020年的专家演讲者,人工智能要求仔细考虑规定,以确保技术平衡合作和竞争更加良好的良好。

作为一般的技术,人工智能(AI)可以用于惊人的语境,其中许多倡导者将其快速发展框架作为合作努力,以便为所有人类的利益。

例如,联合国在2017年推出了它是一个良好的倡议,而法国和中国政府则分别谈论“人类的AI”和“艾美人民的利益”分别由许多其他政府和超国家呼应的言论世界各地的尸体。

另一方面,这些同样的倡导者也使用语言和修辞来强调竞争优势,AI可以带来更加狭隘的国家利益。

“就像在国际政治中一样,在争夺人类的共同愿望和竞争中的共同点和竞争中的共同点,竞争的愿望和竞争更加自私和狭隘的愿望之间存在紧张局势。” AI在牛津大学的治理,在本周在线举行的AI峰会。

关于AI是否可以授权非政府组织(非政府组织)和福利社会福利,Stijn Broecke是经济合作和发展组织组织(经合组织)的高级经济学家,增加了AI竞争的竞争可能导致“非常不平等“。

“AI中的一个大风险是它导致胜利的竞争对手,有些公司能够比其他公司更快地发展技术,”他说。“他们可以访问数据,他们可以投资工具,最后它导致劳动力市场中的集中量增加。劳动力市场中的这种浓度在不平等方面具有巨大的负面后果,减少了职能,减少了就业质量和减少工资工作条件。“

Broecke补充说,经合组织国家在不平等中遇到剧烈升高,以及其劳动力市场的并发极化,只有不均匀的开发和部署AI技术将加剧。

“关于AI的新出现证据也表明,受益最多的人是高技能人士,因为AI补充了他们,因此他们的工资增加了,因此它导致劳动力市场的不平等增加,”他说。

为了破坏这些动态并防止进一步的“技术民族主义”,Dafoe认为我们必须集体定义AI技术的负责任治理。

“不幸的是,作为一个负责任的演员并不容易,因为AI的治理并不容易,”他说。“AI是一般的技术,通用技术都有一系列属性,使他们难以管理,并在没有其他副产品的情况下实现某些目标。”

他补充说,“AI的社会和其他后果往往是快速变化和动态的,这使得政策制定者能够设计一项以持续的方式设计的单一解决方案”。

对于Dafoe,该解决方案是为“AI比赛到顶部的竞争”的条件,从而实现竞争等现有的激励措施以“导致更加亲社会而非反社会行为”的方式使用。

“而不是谈论在抽象意义上谈论责任,这将容易被公共关系修辞或营销捕获,我们希望它真的咬人 - 有意义地致以有意义的承诺,即直接映射到最有可能导致有益的行为结果,“他说。“我们不想只是施加昂贵的行为,我们希望行为是社会所需的行为,使AI部署以实现最大的益处并最大限度地减少风险。”

这种关注发展“有意义的承诺”是由AI首脑会议的一些其他发言者呼应,包括AI Law Hub Dee Masters的平等律师和创始人,他谈到了对鼓励更具负责行为的监管的必要性。

“我认为这是一个传统的想法,企业不喜欢规则,业务不喜欢繁文缛节,不喜欢被告知要做什么,但实际上这是我认为我们必须超越的一个地区Wishy-Wishy道德规范[陈述],我们必须真正清楚企业可以做些什么,“她说。

“我们需要非常明确的法律规则,明确的法律规则,但我们也需要可以创造性的规则,以至于他们鼓励良好的行为。例如,在平等行为下,雇主对雇员致敬,但雇主可以通过表明它采取了所有合理的措施来停止歧视。[by]使用那些鼓励负责任行为的那些真正有趣的模型,我想我们可以做到,我认为我们只需要拥抱规则,而不是假装它对业务不利。“

她补充说,现有的法律框架这样的合法法案已经是“95%的人”,只需要一些轻微的改变,使其更加适合,因为“没有人在考虑其起草时的AI,自动决策和算法”。

有一个有利于有关AI的使用的明确规则是它避免了避免昂贵和耗时的需求,例如,思考当前法律框架没有对其AI运营没有承担的技术公司。“我不认为诉讼是一种创造变革的好方法,因为事件发生了变化,它需要良好的资源杀戮来通过法院进行问题,[和]我认为我们无法期待我们的公民前往警察大型技术,“硕士说。

Jessica Lennard是签证的全球数据和AI举措高级主任,为一家经营200个国家的公司工作,监管恐惧是一个大规模的问题,因为它创造了遵循的企业规则不一致。

“我们希望看到高标准的消费者保护,尽可能多的监管对齐,但我们实际上看到的是世界各地的一些领域,导致我们关注,”她说:“其中一个是道德,隐私是另一个,数据共享是第三个和一天结束的,这真的有可能破坏这些消费者的保护和危害你真正需要建造的跨境数据流动艾。“

“我认为我们想要清晰的最大问题之一,这一点并不容易在实践中申请,是责任在于责任,以及”添加了Lennard的内容。

“你想让每个人都说同样的语言 - 尤其是涉及过程的不同部分的技术和非技术人士 - 你希望每个人都清楚地了解这个过程本身,治理,坐在其中的法律,这并不容易做到。“

根据Charles Radclyffe的说法,AI治理和伦理专家在忠诚国际上,近年来企业发布的道德原则的洪水是一个有希望的步骤,许多人从实际现实中删除了很多才能有用。

“所需要的是一些实质性治理层,以及你需要的实质治理将是真正指导你往往的答案,而不是不是不是,”他说。

“你需要的是他的方向,你需要的是清晰度和确定性。我称之为“声明” - 您需要在这种情况下做些什么,或者在这种情况下,你应该做些什么 - 这是那种需要的治理。“


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章