“盖茨”比尔·盖茨:这将是避免AI沦为“武器”的好方法

2023-07-13 19:05:12来源:DeepTech深科技

今天,很高兴为大家分享来自DeepTech深科技的比尔·盖茨:这将是避免AI沦为“武器”的好方法,如果您对比尔·盖茨:这将是避免AI沦为“武器”的好方法感兴趣,请往下看。

来源:DeepTech深科技

最近,比尔·盖茨加入了一众科技界大佬的行列,对人工智能的风险问题发表了意见。一句话概括:他不太担心,我们以前也经历过类似的。

图

在“末日论”发酵数周之后,这种乐观情绪令人耳目一新,但几乎没有提出什么新的想法。

这位亿万富翁商业巨头和慈善家近日在他的个人博客 GatesNotes 上发表了自己的观点。他写道:“我想聊聊我最常听到和读到的担忧,其中许多我都有同感,并解释我是如何看待它们的。”

根据盖茨的说法,人工智能是“我们一生中看到的最具变革性的技术”。这使它超越了互联网、智能手机和个人电脑。在这个领域,他比大多数人做出的贡献都多。这句话也暗示,在未来几十年内,不会有其他东西能与人工智能一争高下。

几周前,总部位于美国旧金山的人工智能安全中心(Center for AI Safety)发布了一份声明,盖茨是签署该声明的数十位知名人士之一,声明如下:“减少人工智能灭绝人类的风险,应与应对流行病和核战争等其他社会大规模风险一同成为全球优先考虑的事项。”

但盖茨在最新的博客文章中并没有散布恐惧。事实上,人类生存风险并没有被关注。相反,盖茨将这场辩论定义为“长期”风险与“当下”风险之间的较量,并选择关注“已经存在或即将出现的风险”。

英国阿兰·图灵研究所(Alan Turing Institute)伦理与负责任创新研究主任大卫·莱斯利(David Leslie)表示:“盖茨已经在同一根弦上挣扎了很长一段时间。”十年前,当深度学习首次兴起时,盖茨是谈论人工智能生存风险的几位公众人物之一,莱斯利说:“很久以前,他更关心超级智能。现在这一点似乎被稍稍淡化了。”

盖茨并没有完全忽视生存风险。他想知道“什么时候”——而不是如果——“我们能开发出一种可以学习任何科目或任务的人工智能”,这通常被称为通用人工智能。

他写道:“无论我们是在十年还是一个世纪后实现这一点,社会都需要深入思考一些问题。如果超级人工智能建立了自己的目标怎么办?如果它们与人类的目标相冲突怎么办?我们真的应该制造超级人工智能吗?但思考这些长期风险不应该以牺牲更直接的风险为代价。”

盖茨和深度学习先驱杰弗里·辛顿(Geoffrey Hinton)之间似乎划出了一条中间地带。辛顿于 2023 年 5 月退出了谷歌,公开表达了他对人工智能的担忧。而其他人,如 Meta AI 的杨立昆(Yann LeCun)和乔埃尔·派诺(Joelle Pineau)则认为,谈论人工智能带来的生存风险是“荒谬可笑的”和“精神错乱的”。

莱斯利说:“很有意思的是,盖茨现在才参与到讨论中,他可以带来什么呢?每个人都在谈论这件事,我们已经听到、看到很多了。”

和盖茨一样,莱斯利并没有完全否定更糟糕的情况。“居心叵测的人可以利用这些技术造成灾难性的伤害,”他说,“你不需要相信超级智能、末日机器人或通用人工智能等论调就能理解这一点。”

莱斯利说:“但我同意,我们当前关注的问题应该是解决生成式人工智能快速商业化带来的现有风险。把镜头放大,然后说,‘好吧,好吧,眼前的问题是什么?’这才有积极的意义。”

盖茨在帖子中指出,人工智能已经在社会的许多基本领域构成威胁,从选举到教育再到就业。当然,这些担忧并不是什么新闻。盖茨想告诉我们的是,尽管这些威胁很严重,但我们可以处理:“相信我们能够管理风险的最好理由是我们以前也做到过。”

在 20 世纪 70 年代和 80 年代,计算机改变了学生学习数学的方式,使他们能够专注于盖茨所说的“算术背后的思维能力”,而不是运算本身。在他眼中,像 ChatGPT 这样的应用程序对其他学科也有同样的作用。

在 20 世纪 80 年代和 90 年代,文字处理和电子表格的出现,让微软(盖茨自己的公司)推动了办公室工作方式的变革。

盖茨在文章中再次回顾了人们是如何适应这些改变的,并声称我们可以再次适应。他写道:“文字处理应用程序并没有废除办公室工作,但它们永远改变了办公室工作。人工智能造成的转变将是一个坎坷的过渡,但我们完全有理由认为,我们可以减少它对人们生活和生计的干扰。”

与错误信息类似:我们学会了如何处理垃圾邮件,所以我们可以对深度伪造(deepfakes)做同样的事情。盖茨写道:“最终,大多数人学会了对某些电子邮件再三确认。随着骗局变得越来越复杂,人们也变得越来越聪明。我们需要为深度伪造做类似的锻炼。”

盖茨敦促迅速但谨慎地采取行动,以解决他清单上的所有危害。但问题是他没有提供任何新的东西。他的许多建议都是老生常谈,还有些是肤浅的,未能触及核心的。

和过去几周的其他人一样,盖茨呼吁成立一个类似于国际原子能机构的全球机构来监管人工智能。他认为这将是控制人工智能网络武器发展的好方法。但他没有说明这些规定应该限制什么,也没有说明应该如何执行。

他说,政府和企业需要提供再培训计划等支持,以确保人们不会在就业市场上落后。他说,在向 ChatGPT 等应用程序成为常态的世界过渡的过程中,教师也应该得到支持。但盖茨没有具体说明这种支持会是什么样子。

他说,我们需要更好地发现深度伪造,或者至少要使用可以检测它们的工具。但即使是最新的检测工具,仍无法很好地检测人工智能生成的图像或文本,发挥它们应有的作用。随着生成式人工智能的进步,检测工具会被越来越远吗?

“一场良性的公众辩论将取决于每个人对这项技术、它的好处和它的风险的了解。”盖茨说的没错,但他总是相信人工智能将解决人工智能的问题,但不是每个人都会认同这一理念。

是的,应该优先考虑眼前的风险。是的,我们以前经历过(或克服过)技术动荡,我们可以再次对抗它们。但究竟要做什么呢?

盖茨写道:“从迄今为止关于人工智能风险的大量文章中可以清楚地看到,没有人知道所有的答案。”

运营/排版:何晨龙

好了,关于比尔·盖茨:这将是避免AI沦为“武器”的好方法就讲到这。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章