GraphCore如何将AI放在类固醇上

2022-05-22 08:46:30来源:

当亚历斯特透明的神经网络赢得了2012年的想象形象识别竞争时,世界变得迷恋人工智能(AI)。

首次,由图形处理单元(GPU)支持的神经网络比经典算法方法更快,更准确地执行。从那时起,这些网络已经能够比人类更准确地识别对象。

“并且具有更多计算和数据,我们可以在基本上进行更高的性能算法,从基本简单的节目中学到从数据中学习,创造基本突破,”GraphCore,英国芯片启动的Graphcore联合创始人兼首席执行官。

这开始在自然语言处理领域(NLP)。2019年5月,谷歌的研究人员在一个名为BERT的双向变压器网络上发表了一篇论文,这些文件从书面信息中学习,无人监督,铺平了改善情绪分析的方式。

但随着这些网络使用的模型中的参数的数量呈指数级增大,在某些情况下达到数亿,需要新的计算范式。

“我们需要走向计算,这对支持更大的型号更加稀少,”在新加坡南洋科技大学组织的AI研讨会上举行了巨大的速度。“我们需要新的机器来计算ai;我们不能使用现有的CPU或GPU前进。“

感知越来越兴趣的机会,在工业中使用AI,香椿和他的联合创始人Simon Knowles于2016年开始GraphCore,开发公司称之为情报处理单位(IPU)。

Toon表示,IPU旨在解决妨碍“机器智能”的方式解决的一些问题。

“今天,当您查看机器智能时,我们主要是对静态数据,使用大量标记数据进行培训系统,以及部署不受经验的培训系统。

“我们真正需要的是能够理解单词序列的机器,那些单词的含义和对话的背景,”他说,使用NLP作为一个例子。“然后,他们记住对话的背景并使用它来了解未来的对话。”

为了提高处理速度和效率,IPU本身持有机器学习模型和数据,没有外部存储器旁边,以最小化延迟。“如果内存很远而且非常大,我们可以在稍后将其流式传输,但在计算过程中,所有数据都在处理器内部保持,”TOON表示。

每个IPU都有1,216个专业核心,每个核心有六个独立的程序线程在机器学习模型上并行运行。该芯片能够提供125次计算功率的TEROPS。

“所以,而不是通过图层查看模型层,我们正在俯瞰层数,”他说,添加了多个IPU可以加入解决问题。“我们能够理解上下文,我们能够处理整个处理器的更多并行进程。”

Toon表示,IPU架构也适用于培训和推理,这些培训和推理通常被视为今天机器学习中的两个单独任务。

“在未来,当我们有概率的系统,从经验中学习,那些系统将继续在部署后从经验中学习,”他说。“训练与推理之间的禁令将消失。”

在软件方面,IPU支持众所周知的机器学习框架,如Tensorflow,以及GraphCore自己的图形框架,让开发人员构建自己的库功能和神经网络功能。

自成立以来,GraphCore筹集资金超过300米。Toon表示,该公司已有“我们资产负债表上的大量现金”,预计明年将大幅收入。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章