“人工智能”FLI创始人马克斯:CEO们对于AI风险很焦虑,只是不敢公开表达

2023-09-30 15:05:20来源:DeepTech深科技

今天,很高兴为大家分享来自DeepTech深科技的FLI创始人马克斯:CEO们对于AI风险很焦虑,只是不敢公开表达,如果您对FLI创始人马克斯:CEO们对于AI风险很焦虑,只是不敢公开表达感兴趣,请往下看。

来源:DeepTech深科技

六个月前,美国生命未来研究所(FLI, Future of Life Institute )发布了一封由埃隆·马斯克(Elon Musk)、史蒂夫·沃兹尼亚克(Steve Wozniak)和约书亚·本吉奥(Yoshua Bengio)等科技界知名人士署名的公开信。

生命未来研究所是一家关注人工智能“灭绝风险”的非营利组织。这封信呼吁科技公司在六个月内“暂停”开发比 OpenAI 的 GPT-4 更强大的人工智能语言模型。

显然,它的呼吁并没有奏效。

(来源:AI 生成)(来源:AI 生成)

我与麻省理工学院(MIT)教授、生命未来研究所的创始人兼总裁马克斯•泰格马克(Max Tegmark)坐下来聊了聊,回顾了自那以来发生的事情。以下是我们谈话的要点。

谈及改变人工智能风险的“奥弗顿窗口”,泰格马克告诉我,在与人工智能研究人员和科技公司 CEO 的交谈中,很明显人们对人工智能带来的(人类)灭绝风险感到非常焦虑,但没有人觉得他们可以公开谈论这个问题。

“因为他们害怕被嘲笑,被打上危言耸听的标签。”他说:“这封信的主要目标是让有关对话成为主流,改变所谓的奥弗顿窗口,让人们可以安全地表达这些担忧。六个月后的今天,我们在这方面的努力显然是成功的。”

但其效果仅此而已。 泰格马克表示,“不太好的是,所有的公司仍在(人工智能模型领域)全速前进,而我们在美国仍然没有有意义的监管。看起来,美国的政策制定者们尽管嘴上谈论着这些东西,但今年不会通过任何有意义的法律来控制最危险的东西。”

那么,他认为政府应该介入的理由是什么?泰格马克正在游说美国政客,希望成立一个类似于美国食品药品监督管理局(FDA,Food and Drug Administration)的机构,以执行有关人工智能的规定,并要求政府迫使科技公司暂停人工智能的开发。

“很明显,像山姆·奥特曼(Sam Altman)、德米斯·哈萨比斯(Demis Hassabis)和达里奥·阿莫代伊(Dario Amodei)这样的人工智能领导者,他们自己也非常担心。但他们都知道他们不能独自停下来,”泰格马克说。只有自己单方面参与的暂停,对他们的公司来说“将是一场灾难”。

他补充道:“否则他们将会在竞争中被淘汰出局,然后无论谁是 CEO,都会被一个不想停下来的人所取代。暂停相关研究的唯一方法是世界各国政府的介入,制定安全标准迫使所有人暂停。”

那么马斯克呢?马斯克在呼吁暂停的公开信上签了名,但紧接着却成立了一家名为 X.AI 的新人工智能公司,开发能够“理解宇宙真实本质”的人工智能系统,而且马斯克还是生命未来研究所的顾问。“显然,他想要暂停,就像许多其他人工智能领导者一样。但只要大规模的暂停没有出现,他就会认为自己也必须行动起来,才能留在这场游戏中。”

为什么泰格马克认为科技公司的 CEO 心存人性的善良?他说“我为什么认为他们真的希望人工智能有一个美好的未来,而不是一个糟糕的未来?我认识他们很多年了。我经常和他们交谈。即使在私人谈话中我也能看出来,我能感觉到这一点。”

一些批评者认为,关注灭绝风险会分散人们对当前危害的注意力,对于这些声音,泰格马克的回应是:“至关重要的是,那些非常关心当前问题的人和那些关心即将到来的危害的人要合作,而不是内斗。我不会批评那些关注当前危害的人。我觉得他们这么做很好,我也非常关心那些风险。如果人们参与这种内斗,只会帮助大型科技公司分裂并打败所有这些努力。”

根据泰格马克的说法,我们现在应该避免三个错误:1.避免让科技公司来主导立法。2. 避免为西方掀起另一场地缘政治竞争。3.避免只关注灭绝威胁或当下的风险,因为我们必须意识到,它们都是人类权力被剥夺的威胁的一部分。我们必须团结起来才能应对这些威胁。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

运营/排版:何晨龙

好了,关于FLI创始人马克斯:CEO们对于AI风险很焦虑,只是不敢公开表达就讲到这。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章