准备部署自定义硬件以加速AI

2022-05-02 10:46:16来源:

据IDC根据IDC开始使用该技术,在2019年,欧洲人工智能(AI)在欧洲的人工智能(AI)的支出设定为增长49%。

Andrea Minonne是IDC客户洞察力与欧洲分析的高级研究分析师表示:“许多欧洲零售商,如丝芙兰,ASOS和Zara,以及纳特韦斯特和汇丰银行等银行已经遇到了AI的好处 - 包括增加的商店访问,更高的收入,降低成本,更令人愉悦和个性化的客户旅程。

“与流程自动化相关的工业特定用例正在成为主流,重点被设定为为个性化或预测目的而转向下一代使用AI。”

有行业共识,即传统的基于CPU的计算机架构通常不达到运行机器学习算法的任务。如今,图形处理器提供运行当前机器学习应用所需的性能。

但是现在需要更大水平的性能的网络巨头正在开发自定义AI加速硬件。例如,2月份,FT报告了Facebook正在开发自己的机器学习芯片。

Facebook加入谷歌,三年前宣布其自定义AI芯片。2016年,谷歌推出了一个张量处理单元(TPU),定制应用专用集成电路(ASIC),它专门为机器学习而设计 - 并针对Tensorflow深神经网络(DNN)学习模块量身定制。

当时,常规Jouppi,Google的杰出硬件工程师写道:“我们已经在我们的数据中心内运行了TPU以上超过一年,并发现它们为机器学习提供了每个瓦特的数量级优化的性能。这与未来大约七年的快速转发技术大致相当于[三代摩尔定律]。“

Google的TPU可在GCP上获得。目前正在测试顶端V2-512 Cloud TPU V2 Pod,每小时花费422.40美元。

ASICS非常昂贵和有限,因为它们旨在运行一个应用程序,例如在Google的TPU的情况下的Tensorflow DNN模块。Microsoft Azure使用现场可编程门阵列(FPGA)提供加速,并根据Microsoft,FPGA提供靠近ASIC的性能。

“随着时间的推移,他们也是灵活和可重新配置的,实现新的逻辑,”它说。它的硬件加速机器学习架构,被称为脑力,基于英特尔的FPGA设备来实现微软表示的内容“使数据科学家和开发人员能够加速实时AI计算”。

可以说,图形处理单元(GPU)是希望部署硬件以加速机器学习算法的大多数组织的入口点。根据NVIDIA的说法,GPUS适合培训AI应用的深神经网络。

“因为神经网络是从大量相同的神经元创建的,所以它们是高度平行的,”它说。“这种并行性自然地映射到GPU,这提供了超大速度超过CPU培训。”

MathWorks的并行计算工具高级工程经理和高级工程经理和主要建筑师Jos Martin表示:“如果没有GPU的出现和他们带来的快速计算,我们就不会看到这一领域的目前的爆炸。AI的发展和GPU计算齐头并进以加速彼此的增长。“

Martin表示,在过去几年GPU技术的进步中,他们现在支持计算机科学中所知的内容,这是Martin表示。

从云等云等机器学习GPU,如亚马逊EC2 P3,提供多达八个NVIDIA V100张核心GPU,每小时31.22美元的网络吞吐量高达100 Gbps。

显然,数据需要在云中进行机器学习处理。如果规定或数据集的大小禁止这一点,许多组织已建立自己的基于GPU的机器学习加速器。

一个例子是莫斯科的Tinkoff Bank,它已经建立了自己的超级计算机,以支持其策略来开发机器学习和AI的平台。被称为Kolmogorov集群,它被认为是俄罗斯第八最大的超级计算机。

包含10个具有由张磁芯的NVIDIA TESLA V100加速器的硬件,可提供高达658.5氟峰的峰值双精度浮点(FP64)性能。

该银行表示,AI-Acceleration硬件仅需24小时即可使用其整个13年累计数据重新培训销售概率预测模型。据估计,传统的计算方法将需要六个月来运行相同的销售预测概率模型。

量子计算可以在机器学习加速的未来发挥作用。随着计算机每周报道,马萨诸塞州理工学院(麻省理工学院)和牛津大学以及来自IBM Q Pim的研究人员,已经发表了一篇关于Quantum Computing如何加速特征映射技术来识别唯一属性的论文在识别某人的脸上的数据中。

研究人员正在寻求确定哪些数据集将代表基于量子的AI加速度的良好拟合。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章