当前位置:主页 > 新闻中心 >

新闻中心

NEWS INFORMATION

AI芯片飞速发展算法也需不断优化

时间:2021-05-19 00:00 点击次数:
  本文摘要:在深度自学的领域里,最重要的是数据和运算。谁的数据更加多,谁的运算更加慢,谁就不会占有优势。 因此,在处理器的自由选择上,可以用作标准化基础计算出来且运算速率更慢的GPU很快沦为人工智能计算出来的主流芯片2017年度GTC技术大会上,英伟达发售了他们公司近期研发的GPU——Volta。该芯片的核心是一款称作“TensorCore(张量处理器)”的人工智能加速器,这是研发下一阶段AI应用于的硬件确保。

亚博手机版

在深度自学的领域里,最重要的是数据和运算。谁的数据更加多,谁的运算更加慢,谁就不会占有优势。

因此,在处理器的自由选择上,可以用作标准化基础计算出来且运算速率更慢的GPU很快沦为人工智能计算出来的主流芯片2017年度GTC技术大会上,英伟达发售了他们公司近期研发的GPU——Volta。该芯片的核心是一款称作“TensorCore(张量处理器)”的人工智能加速器,这是研发下一阶段AI应用于的硬件确保。

然而,我们必须升级软件,改版AI算法,其原因有两点:一是现有的AI算法无法充分利用这个加速器的性能,二是为了取得AI研发中另外的突破。如果我们能充分利用这种新代芯片,不仅将大大前进AI应用于的进展,甚至可能会创立新的AI应用于。

比如说,AI算法可以利用该种芯片的高速运行速度,来更佳地解读和综合分析人类语言。语音识别系统将很大地完备,音频的mRNA将更为精确,计算机将不会有能展现出出有语言风格和情感的语音系统。

有许多公司早已认识到了AI所具备的极大潜力,还研发出有了强劲的芯片,以期取得AI的广泛应用。例如,英伟达研发的GPU以及谷歌研发出有的TPU。这些芯片有一个共同点,就是它们都根据程序局部性原理来大大优化算法。为了取得局部性优势,必须AI芯片和AI算法的联合反对。

目前,新兴的AI芯片早已可以为此获取基础框架(例如Volta的“TensorCore”),但是更好的AI算法还没取得与这种芯片的适当升级。通俗地说道,当下通行的算法无法充分利用到该芯片的高速运行速度。

AI芯片的第一阶段是分段驱动,即同时继续执行多种任务。在海量数据集上训练大型神经网络可以充份展出其易被现有分段芯片利用的明显并行性。

然而,目前来看,内存萃取性能的发展相比之下无法符合人们的市场需求。最后这些新的芯片不会面对“内存墙”的困境,即内存性能不会相当严重容许芯片性能的充分发挥。

为了转入到下一阶段,AI芯片才会在局部性上下功夫。局部性可以反映为反复提到同一个变量。

打个比方,您在杂货店里购物,您要按照购物表格卖东西,表格一共列于10件商品,您如果想要减缓寻获商品的速度的话,可以请求10个朋友,让他们分别寻找1件表格上商品。这种方法虽然是分段驱动的,但效率也十分低落,因为表格上有所不同的物品有可能放在一起,这就不会产生让有所不同的朋友来寻找邻接物品的情况,从而减少了效率。

一个更佳的办法是让每个朋友去一个有所不同的过道,并只去找那个走道的物品。这就是局部性解决目前“内存墙”困境的方式。

新代AI芯片必须具备明显局部性特点的算法相适应。目前,并不是所有的AI算法都能胜任这一任务,因为它们不具备明显的局部性。计算机视觉算法由于其大量用于卷积神经网络而在局部性上显有优势,但语言和语言应用于中所用于的复现神经网络则必须稍作变动(特别是在要对其推理小说能力展开优化),以提高其局部性。

在百度的硅谷AI实验室,研究人员尝试了几种完备算法的方式,来挖出局部性的潜力。早期的实验表明出有了我们十分有可能解决这一艰难的迹象。例如,研究人员发展了RNN网络,让其在较低批量大小下超过了30光驱的提高。

这进了一个好头,但未来AI芯片的性能还要有更大的提高。另一个研究方向是统合了来自卷积和发作神经网络的点子来作的,但这个方向的拟合解法还在后头。深度自学的AI算法计算出来受限,迄今为止的突破都是归功于运算速度更慢的计算机的经常出现。

然而,当下的算法早已获得了突破性进展,而且早已在语音辨识,机器翻译和人类语音综合方面获得了成果。目前,展开下一阶段AI算法研发的硬件早已做到。

早期实验中的种种迹象指出——我们正处于下一代算法研发的前端。预计下一代算法能充分利用目前AI芯片的性能,并且可以引导我们获得其他方面的突破。


本文关键词:芯片,飞速,发展,算法,也需,不断,优化,在,深度,亚博手机版

本文来源:亚博APP-www.plcpus.com

Copyright © 2009-2021 www.plcpus.com. 亚博APP科技 版权所有 备案号:ICP备73531522号-8

在线客服 联系方式 二维码

服务热线

0789-270633085

扫一扫,关注我们