您好,欢迎访问三七文档
当前位置:首页 > 行业资料 > 其它行业文档 > 36KE 人工智能行业研究报告
2017.236氪研究院人工智能行业研究报告236Kr-人工智能行业研究报告2017年2月定义与研究范围涵盖AI基础技术及终端产品研究范围:人工智能是一门综合了计算机科学、生理学、哲学的交叉学科。凡是使用机器代替人类实现认知、识别、分析、决策等功能,均可认为使用了人工智能技术。作为一种基础技术,人工智能在很多行业都有用武之地。既有人工智能+基础行业的概念(如人工智能+金融=Fintech),也有其具体应用行业的概念(比如机器人)。按照技术应用的不同场景,可以将人工智能分为基础技术类及终端产品类,本报告研究范围涵盖以下领域:研究目的:本报告将集中探讨:人工智能行业整体的发展现状与技术发展趋势各细分领域投融资热度与技术成熟度巨头在人工智能领域的布局与策略各应用领域市场规模、竞争格局、进入壁垒、产业链上下游构成行业标杆的商业模式、核心竞争力、未来发展预期语义识别芯片计算机视觉语音识别机器人智能金融智能医疗智能安防智能家居终端产品基础技术注释:自动驾驶行业是AI的一个重要分支,关于该领域的研究讨论请参见36氪研究院系列报告《自动驾驶行业研究报告》。行业分析师曹婷caoting@36kr.com相关研究报告:《自动驾驶行业研究报告》2017.2《机器之眼,看懂世界:计算机视觉行业研究报告》2016.9《科技炼金,融汇未来:金融科技行业研究报告》2016.8目录Contents一、人工智能行业驱动力1.行业驱动——数据量、运算力、算法技术2.政策法规3.投资热度国际投资热度分析国内投资热度分析国内公司运营数据分析二、人工智能产业链与巨头布局分析1.产业链构成2.巨头布局开源平台布局芯片布局技术布局一、人工智能行业概述三、人工智能基础应用介绍与典型公司分析1.语音识别2.语义识别3.计算机视觉目录Contents五、人工智能在各行业的应用介绍与典型公司分析1.机器人2.AI+金融3.AI+医疗4.AI+安防5.AI+家居六、人工智能芯片介绍与典型公司分析六、人工智能行业趋势展望1.人工智能各行业综述2.人工智能当前发展瓶颈四、人工智能芯片介绍与典型公司分析1.人工智能芯片适用性分析GPUFPGAASIC2.人工智能芯片产业链分析3.人工智能芯片典型公司分析人工智能行业概述CHAPTER1•行业驱动——数据量、运算力、算法技术•政策法规•投资热度国际投资热度分析国内投资热度分析国内公司运营数据分析636Kr-人工智能行业研究报告2017年2月数据量、运算力和算法模型是影响人工智能行业发展的三大要素。2000年之后,数据量的上涨、运算力的提升和深度学习算法的出现极大的促进了人工智能行业的发展。•海量数据为人工智能发展提供燃料要理解数据量的重要性,得先从算法说起。数据量和算法可以分别比作人工智能的燃料和发动机。算法是计算机基于所训练的数据集归纳出的识别逻辑,好的算法模型可以实现精准的物体和场景识别。数据集的丰富性和大规模性对算法训练尤为重要。因此可以说,实现机器精准视觉识别的第一步,就是获取海量而优质的应用场景数据。以人脸识别为例,训练该算法模型的图片数据量至少应为百万级别。2000年以来,得益于互联网、社交媒体、移动设备和廉价的传感器,这个世界产生并存储的数据量急剧增加,这为通过深度学习的方法来训练计算机视觉技术提供很好的土壤。IDC数据显示,从2011年起,全球所产生的数据量已达到ZB级别(1ZB约为10亿GB),海量的数据将为计算机视觉算法模型提供远远不断的素材。而关于数据量对提高算法准确率方面的重要性,更有学者提出:“It’snotwhohasthebestalgorithmthatwins.It’swhohasthemostdata.”行业驱动力·数据量海量数据为人工智能发展提供燃料大数据训练模型应用于具体场景算法模型场景应用01020304050来源:IDC,36氪研究院2020数据量与准确率之间的关系2009-2020年全球总体数据量(单位:ZB)20090%10%20%30%40%50%60%70%80%90%100%1002003004005006007008009001000准确率测试字符数量WindowMemory-BasedPerceptronNaïveBayes说明:window、memory-based、perceptron、naivebayes均为不同算法来源:Stanford机器学习公开课,36氪研究院1.1行业驱动---数据量运算力算法技术1.2政策法规1.3投资热度全球投资热度国内投资热度国内公司运营数据分析736Kr-人工智能行业研究报告2017年2月人工智能领域是一个数据密集的领域,传统的数据处理技术难以满足高强度、大数据的处理需求。AI芯片的出现让大规模的数据效率大大提升,加速了深层神经网络的训练迭代速度,极大的促进了人工智能行业的发展。AI算法的处理需要大量的矩阵计算操作,因此特别适合使用并行运算芯片进行数据处理。而传统的CPU一次只能同时做一两个加减法运算,无法满足并行运算的需求。目前,出现了GPU、NPU、FPGA和各种各样的AI-PU专用芯片。而其中,出现最早的GPU为人工智能的发展做出了巨大的贡献。擅长并行计算的GPU大幅提升机器学习效率。在GPU出现之前,算法运行的速度是很慢的,即使是一个简单的神经网络数据的培训,也得花费几天、甚至几周的时间。1999年,Nvidia公司在推销Geforce256芯片时,提出了GPU(图像处理器)概念。GPU是专为执行复杂的数学和集合计算而设计的数据处理芯片。它的出现让并行计算成为可能,对数据处理规模、数据运算速度带来了指数级的增长,极大的促进人工智能行业,尤其计算机视觉领域的发展。GPU与传统CPU相比,在处理海量数据方面有压倒性的优势。据RajatRaina与吴恩达的合作论文“用GPU进行大规模无监督深度学习”显示,在运行大规模无监督深度学习模型时,使用GPU和使用传统双核CPU在运算速度上的差距最大会达到近七十倍。在一个四层,一亿个参数的深度学习网络上,使用GPU将程序运行时间从几周降低到一天。今天,数据处理速度不再成为制约计算机视觉发展的主要瓶颈。想要发挥专用芯片的计算优势,需要芯片结构和软件算法两者相匹配。目前的趋势是,随着对人工智能各类应用需求的不断增强,专门用于加速人工智能应用的AI-PU或将成为计算机另一个标配组件。行业驱动·运算力运算力的提升大幅推动人工智能发展世界上第一款GPU-GeForce256中科寒武纪即将投产的“寒武纪”NPUAltera的高端FPGA产品Stratix101.1行业驱动---数据量运算力算法技术1.2政策法规1.3投资热度全球投资热度国内投资热度国内公司运营数据分析836Kr-人工智能行业研究报告2017年2月在深度学习出现之前,机器学习领域的主流是各种浅层学习算法,如神经网络的反响传播算法(BP算法)、支撑向量机(SVM)、Boosting、LogisticRegression等。这些算法的局限性在于对有限样本和计算单元的情况下对复杂函数的表示能力有限,对复杂数据的处理受到制约。以计算机视觉为例,作为一个数据复杂的领域,浅层学习算法的识别准确率并不高。该类识别原理多为通过寻找合适的特征来让机器辨识物品状态,由于这个处理逻辑是浅层的,不能穷举各种复杂的情境,因而算法拟合的准确率不高。深度学习突破人工智能算法瓶颈。2006年,GeoffreyHinton和合作者发表论文,“Afastalgorithmfordeepbeliefnets”,此后“DeepLearning(深度学习)”的概念被提出。以计算机视觉为例,深度学习出现之前,基于寻找合适的特征来让机器辨识物体状态的方式几乎代表了计算机视觉的全部。尽管对多层神经网络的探索已经存在,然而实践效果并不好。深度学习出现之后,计算机视觉的主要识别方式发生重大转变,自学习状态成为视觉识别主流。即,机器从海量数据库里自行归纳物体特征,然后按照该特征规律识别物体。图像识别的精准度也得到极大的提升,从70%+提升到95%。在短短几年时间里,深度学习颠覆了语音识别、语义理解、计算机视觉等基础应用领域的算法设计思路,逐渐形成了从一类训练数据出发,经过一个端到端的模型,直接输出最终结果的一种模式。由于深度学习是根据提供给它的大量的实际行为(训练数据集)来自我调整规则中的参数,进而调整规则,因此在和训练数据集类似的场景下,可以做出一些很准确的判断。行业驱动力·算法深度学习突破人工智能算法瓶颈72.00%74.50%84.70%89.00%93.00%95.00%60%70%80%90%100%2010201120122013201420152010-2015年ImageNet比赛图像识别准确率注释:ImageNet是计算机视觉系统识别项目。来源:36氪研究院过去现在未来Googletranslate语义识别准确率60%83.4%…注释:Googletranslate是语义识别项目。来源:36氪研究院1.1行业驱动---数据量运算力算法技术1.2政策法规1.3投资热度全球投资热度国内投资热度国内公司运营数据分析936Kr-人工智能行业研究报告2017年2月•其他国家人工智能相关政策各国均在政策层面强调和推动人工智能的发展。其中,美国侧重于研发新型脑研究技术;欧盟主攻以超级计算机技术来模拟脑功能;日本则聚焦以动物为模型研究各种脑功能和脑疾病的机理。政策法规·国外政策加码,人工智能发展如火如荼国家相关措施美国•2013年4月,美国正式公布“推进创新神经技术脑研究计划”(BRAIN)。得到政府拨款1.1亿美元,覆盖美国国家卫生研究院(HIN)、国防部高级研究项目局、国家科学基金会。•2014年HIN小组制定了未来十年详细计划,预计每年投入3-5亿美元开发用于监测和映射大脑活动和结构的新工具,十年计划共花费45亿美元。欧盟2013年初,欧盟宣布了未来十年的“新兴旗舰技术项目”——人脑计划(HBP),该项目汇聚了来自24个国家的112家企业、研究所和高校等机构,总投资预计将达到12亿欧元。计划在2018年前开发出第一个具有意识和智能的人造大脑.日本2014年9月启动大脑研究计划Brain/MINDS。该计划为期10年,由日本理化学研究所主导实施,旨在理解大脑如何工作以及通过建立动物模型,研究大脑神经回路技术,从而更好地诊断以及治疗大脑疾病。来源:36氪研究院1.1行业驱动---数据量运算力算法技术1.2政策法规1.3投资热度全球投资热度国内投资热度国内公司运营数据分析1036Kr-人工智能行业研究报告2017年2月•国内人工智能相关政策国内近几年也出台了相关扶植人工智能发展的政策,积极推动人工智能在各个细分领域的渗透。2016年5月,国家四部委更是颁布《“互联网+”人工智能三年行动实施方案》,明确提出要培育发展人工智能新兴产业、推进重点领域智能产品创新、提升终端产品智能化水平。政策法规·国内政策加码,人工智能发展如火如荼来源:36氪研究院实施时间颁布主体法律法规相关内容2015.5国务院《中国制造2025》提出“加快发展智能制造装备和产品”,指出“组织研发具有深度感知、智慧决策、自动执行功能的高档数控机床、工业机器人、增材制造装备等智能制造装备以及智能化生产线,统筹布局和推动智能交通工具、智能工程机械、服务机器人、智能家电、智能照明电器、可穿戴设备等产品研发和产业化。”2015/7/4国务院《国务院关于积极推进“互联网+”行动的指导意见》明确提出人工智能作为11个重点布局的领域之一,促进人工智能在智能家居、智能终端、智能汽车、机器人等领域的推广应用。2015/7/9中央办公厅、国务院《关于加强社会治安防控体系建设的意见》加大公共安全视频监控覆盖,将社会治安防控信息化纳入智慧城市建设总体规划,加深大数据、云计算和智能传感等新技术的应用。2016.1国务院《“十三五”国家科技创新规划》智能制造和机器人成为“科技创新-2030项目”重大工程之一。2016/3/18国务院《国民经
本文标题:36KE 人工智能行业研究报告
链接地址:https://www.777doc.com/doc-5450584 .html