您好,欢迎访问三七文档
当前位置:首页 > 电子/通信 > 电子设计/PCB > 人工智能人工智能浪潮来袭芯片厂商群雄逐鹿
请阅读最后评级说明和重要声明1/12[Table_MainInfo]•研究报告•信息技术行业2016-6-8行业研究(行业周报)长江计算机“七日谈”(20160608)科技新知:人工智能浪潮来袭,芯片厂商群雄逐鹿评级看好维持[Table_Author]分析师马先文862765799815maxw@cjsc.com.cn执业证书编号:S0490511060001分析师王懿超(8621)68751569wangyc8@cjsc.com执业证书编号:S0490516050003联系人杨靖凤(8621)68751636yangjf@cjsc.com.cn分析师[Table_Doc]相关研究《云计算深度专题之一——概述篇:腾“云”而至,“计算”成为基础资源迎来普及》2016-6-7《长江电子日观点荟萃(2016.06.07)》2016-6-7《长江计算机“七日谈”(20160607)一级市场动态:K12教育获资本青睐,巨头鏖战方酣》2016-6-7报告要点芯片为人工智能的发展奠定技术根基人工智能是未来科技发展的战略制高点已成市场共识,其核心的算法主要基于成熟的神经网络算法,需要强大的运算做支撑。像人脑一样会思考,以分布式、平行的方式存储和处理信息,就像人脑的神经元和突触对信息的处理方式一样,能准确、快速地识别更加复杂的事物。深度学习模型需要大量的数据和强悍的计算能力,只有更好的硬件加速条件,才能满足现有数据和模型规模继续扩大的需求。芯片计算能力的大幅提升深度学习的效率,带动人工智能更快发展。巨头争相布局,芯片市场硝烟四起人工智能的高景气带动了包括以GPU、FPGA及TPU为代表的AI芯片产业的崛起,各种不同类型的芯片厂商鏖战方酣,而芯片则可反哺AI产业推进。GPU:优化和调整了CPU结构,使其运算速度突飞猛进,拥有了更强大的处理浮点运算的能力。用GPU来运行机器学习模型,同样大的训练集,耗费功率更低、占用基础设施更少的情况下能够支持远比单纯使用CPU时10-100倍的应用吞吐量。GPU是当今智能产品市场覆盖率最广泛的芯片。FPGA:最初是从专用集成电路发展起来的半定制化的可编程电路,可以根据一个固定的模式来处理输入的数据然后输出,灵活性及适应性很强,因此它可以作为一种用以实现特殊任务的可再编程芯片应用与机器学习中。百度使用FPGA版本百度大脑后,语音在线服务、广告点击率预估模型等的计算性能皆提升了3~4倍。TPU:是一种专用集成电路,专为谷歌深度学习语言TensorFlow开发的芯片。TPU可以容忍低运算精度,操作时需要较少的晶体管,于是就可以以更快的速度通过使用更加复杂与强大的机器学习算法得到更加智能的结果。TPU已在搜索引擎、谷歌地图导航功能、Android语音识别功能中应用。人工智能领域其他资讯Facebook公布最新AI系统DeepTEXT,可以读懂用户发布的内容;人工智能已渐渐成为Facebook网络审查员的主流;谷歌人工智能既会写诗又能谱曲;前NASA局长的神经元芯片公司KunEdge获1亿美元融资。请阅读最后评级说明和重要声明2/12行业研究(行业周报)目录AI芯片力助人工智能长风破浪......................................................................................................3群雄逐鹿,芯片厂商锋芒初露......................................................................................................4英伟达GPU力助深度学习提升......................................................................................................................4百度拥抱FPGA..............................................................................................................................................5谷歌发布TPU加速布局..................................................................................................................................6科技技术产业动态........................................................................................................................7图表目录图1:运算芯片为人工智能提供计算能力.....................................................................................................................3图2:X86架构服务器..................................................................................................................................................3图3:神经网络芯片相对传统芯片的优势.....................................................................................................................4图4:GPU的运算单元远超CPU................................................................................................................................4图5:GPU加速大幅缩减机器学习训练时间................................................................................................................5图6:XILINXFPGA性能..........................................................................................................................................6图7:不同方案开发时间和可达到性能的关系.............................................................................................................6图8:TPU外观............................................................................................................................................................7请阅读最后评级说明和重要声明3/12行业研究(行业周报)AI芯片力助人工智能长风破浪运算芯片为人工智能提供计算能力。人工智能是科技行业的下一个重大领域,科技巨头纷纷进场布局,开发人工智能技术。人工智能的核心的算法,目前发展最为成熟的是神经网络算法。神经网络算法需要强大的运算做支撑,像人脑一样会思考,以分布式、平行的方式存储和处理信息,就像人脑的神经元和突触对信息的处理方式一样,准确、快速地识别更加复杂的事物。图1:运算芯片为人工智能提供计算能力资料来源:艾瑞,长江证券研究所CPU已无法满足需要人工智能需要。随着图像影音识别到大数据的发展,出现了深度神经网络和卷积神经网络以及机器学习甚至深度学习,深度学习需要海量已标记的数据进行长时间的训练,其对计算能力的要求越来越高。最早是由CPU提供算力,当今的计算机架构都是冯诺依曼结构,计算机的内存和处理器是分离的,由总线数据传输通道连接。计算机的处理速度受到总线速度的制约,这就是所谓的“冯诺依曼瓶颈”。此外,CPU的架构中,计算单元(运算器ALU)在CPU结构中占据很小的部分。因为CPU存在的目的是通用计算机的处理核心,可以处理各种设备请求,拥有断点运算的能力,需要复杂的逻辑控制单元(控制器CU),这就牺牲了计算效率,大型运算成本越来越高。图2:X86架构服务器输入设备输出设备存储器运算器控制器数据流指令流控制流CPU资料来源:长江证券研究所神经网络芯片是人工智能的未来。深度学习模型需要极为大量的数据和计算能力,只有更好的硬件加速条件,才能满足现有数据和模型规模继续扩大的需求。深度学习以神经请阅读最后评级说明和重要声明4/12行业研究(行业周报)网络为基础,神经网络是一个巨大的网状结构,节点连接非常复杂。每一个节点就类似大脑中的神经元,与周围节点交互,处理接收的信息。芯片计算能力的增强可以帮助算法更快的学习,带动人工智能更快发展。图3:神经网络芯片相对传统芯片的优势资料来源:互联网,长江证券研究所群雄逐鹿,芯片厂商锋芒初露英伟达GPU力助深度学习提升GPU即图形处理器,最初是用来做绘图运算的微处理器。GPU优化和调整了CPU结构,使其运算速度突飞猛进,拥有了更强大的处理浮点运算的能力。不仅可以在图形处理上游刃有余,还可以用来做科学计算,密码破解、金融分析等需要大规模并行运算的领域。2009年,斯坦福大学的吴恩达及其团队发现GPU芯片可以并行运行神经网络。用GPU来运行机器学习模型,同样的大训练集,GPU在耗费功率更低、占用基础设施更少的情况下能够支持远比单纯使用CPU时10-100倍的应用吞吐量。图4:GPU的运算单元远超CPU资料来源:互联网,长江证券研究所请阅读最后评级说明和重要声明5/12行业研究(行业周报)GPU是当今智能产品市场覆盖率最广泛的芯片。传统处理器计算一个一亿节点神经网的所有级联可能性需耗时数周,一个GPU集群完成同一任务只需一周。基于大规模GPU集群搭建的AI超算平台,能够支持亿万级别图像的全面实时处理,并且利用深度学习算法设计的智能程序能通过快速迭代拥有强大的学习能力,实现高精度的智能识别结果。深度学习主要分为学习和推算两个部分,学习涉及提出并验证算法,从海量数据中做识别,学习能力相比推算更加复杂。谷歌、Facebook、微软、Twitter和百度等互联网巨头都在使用GPU分析图片、视频和音频文件,改进搜索和图像标签等应用功能。互联网消费互动媒体Tractica预计,到2024年深度学习项目在GPU上的花费将从2015年的4360万增长到41亿美元。图5:GPU加速大幅缩减机器学习训练时间资料来源:互联网,长江证券研究所百度拥抱FPGAGPU能够提供更好的运算能力和访问带宽,但是其能耗和成本都很高,不适合线上大规模部署。FPGA最初是从专用集成电路发展起来的半定制化的可编程电路,可以根据一个固定的模式来处理输入的数据然后输出,也就是说不同的编程数据在同一片FPGA可以产生不同的电路功能,灵活性及适应性很强,因此它可以作为一种用以实现特殊任务的可再编程芯片应用与机器学习中。2012年,百度自主设计深度学习专有的体系结构和芯片,使用FPGA实现百度第一版自主设计的深
本文标题:人工智能人工智能浪潮来袭芯片厂商群雄逐鹿
链接地址:https://www.777doc.com/doc-6811590 .html