您好,欢迎访问三七文档
当前位置:首页 > IT计算机/网络 > 数据挖掘与识别 > 大数据的处理和分析48
大数据的处理和分析课程内容•课程内容(本次讲座与下述内容关系不大)围绕学科理论体系中的模型理论,程序理论和计算理论1.模型理论关心的问题给定模型M,哪些问题可以由模型M解决;如何比较模型的表达能力2.程序理论关心的问题–给定模型M,如何用模型M解决问题–包括程序设计范型、程序设计语言、程序设计、形式语义、类型论、程序验证、程序分析等3.计算理论关心的问题给定模型M和一类问题,解决该类问题需多少资源讲座提纲•大数据的魅力–数据挖掘、大数据、大数据案例、大数据的特点•大数据时代的思维变革–样本和全体、精确性和混杂性、因果关系和相关关系•大数据的处理–几种主要处理方式、MapReduce编程模型•大数据的分析–关键技术概述、PageRank初步•数据挖掘–数据挖掘的定义1.从数据中提取出隐含的过去未知的有价值的潜在信息2.从大量数据或者数据库中提取有用信息的科学–相关概念:知识发现1.数据挖掘是知识发现过程中的一步2.粗略看:数据预处理数据挖掘数据后处理预处理:将未加工输入数据转换为适合处理的形式后处理:如可视化,便于从不同视角探查挖掘结果大数据的魅力•数据挖掘–典型事例:购物篮分析顾客一次购买商品1面包、黄油、尿布、牛奶2咖啡、糖、小甜饼、鲑鱼3面包、黄油、咖啡、尿布、牛奶、鸡蛋4面包、黄油、鲑鱼、鸡5鸡蛋、面包、黄油6鲑鱼、尿布、牛奶7面包、茶叶、糖、鸡蛋8咖啡、糖、鸡、鸡蛋9面包、尿布、牛奶、盐10茶叶、鸡蛋、小甜饼、尿布、牛奶经关联分析,可发现顾客经常同时购买的商品:尿布牛奶大数据的魅力•大数据–大数据,或称海量数据,指所涉及的数据量规模巨大到无法通过人工,在合理时间内达到截取、管理、处理、并整理成为人类所能解读的信息–在总数据量相同的情况下,与个别分析独立的小型数据集相比,将各个小型数据集合并后进行分析可得出许多额外的信息和数据关系性,可用来察觉商业趋势、避免疾病扩散、打击犯罪、测定实时交通路况或判定研究质量等–这样的用途正是大型数据集盛行的原因–数据挖掘则是探讨用以解析大数据的方法大数据的魅力•大数据案例—谷歌预测冬季流感的传播–2009年出现了一种称为甲型H1N1的新流感病毒,在短短几周内迅速传播开来,全球的公共卫生机构都担心一场致命的流行病即将来袭–美国也要求医生在发现甲型H1N1病例时告知疾病控制与预防中心。但人们从患病到求医会滞后,信息传到疾控中心也需要时间,因此通告新病例往往有一两周的延迟。而且疾控中心每周只进行一次数据汇总–信息滞后两周对一种飞速传播的疾病是致命的,它使得公共卫生机构在疫情爆发的关键时期难以有效发挥作用大数据的魅力•大数据案例—谷歌预测冬季流感的传播–在这种流感爆发的几周前,谷歌的工程师在《自然》杂志发表引人注目的论文,令公共卫生官员和计算机科学家感到震惊–因为文章不仅预测了流感在全美的传播,而且具体到特定的地区和州–谷歌是通过观察人们在网上的搜索记录来完成这个预测的,这种方法以前一直是被忽略的–谷歌保存了多年来所有的搜索记录,每天有来自全球30亿条搜索指令(仅谷歌有这样的数据资源),如此庞大数据资源足以支撑和帮助它完成这项工作大数据的魅力大数据的魅力•大数据案例—谷歌预测冬季流感的传播–原理十分简单现在大家都有上网搜索信息的习惯,连头痛感冒也上网搜索,谷歌流感趋势项目通过记录搜索有关“流感”词条的地区和频率,并分析其与流感在时间和空间上的传播之间的联系,追踪到流感广泛传播的地区,进而预测流感可能爆发的高危地区。即当某地区在网上搜寻与流感有关信息的人日益增多,很可能意味着该地区有许多人患上流感类疾病–因为流感趋势项目能够近乎实时地估计流感活动情况,故它比其他系统能够更早地发现流感疫情大数据的魅力•大数据案例—谷歌预测冬季流感的传播–谷歌把5000万条美国人最频繁检索的词条与疾控中心在2003年到2008年间季节性流感传播期间的数据进行比较,以确定相关检索词条,并总共处理了4.5亿(?)个不同的数学模型–在把得出的预测与2007年和2008年美国疾控中心记录的实际流感病例进行对比后,筛选了45条检索词条的组合,并把它们用于一个特定的数学模型后,其预测与官方数据相关性高达97%–因此当2009年甲型H1N1流感爆发时,与滞后的官方数据相比,谷歌成为一个更有效及时的指示者大数据的魅力•大数据案例—谷歌预测冬季流感的传播–这是当今社会所独有的一种新型能力:以一种前所未有的方式,通过对海量数据的分析,获得巨大价值的产品和服务,或深刻的洞见–大数据不仅会变革公共卫生,也会变革商业、变革思维,改变政府与民众关系的方法,…,开启重大的时代转型大数据的魅力•大数据的特点–体量巨大(Volume)数据集合的规模不断扩大,已从GB(1024MB)到TB(1024GB)再到PB级,甚至已经开始以EB和ZB来计数。至今,人类生产的所有印刷材料的数据量是200PB。未来10年,全球大数据将增加50倍,管理数据仓库的服务器的数量将增加10倍–类型繁多(Variety)数据种类繁多,并且被分为结构化、半结构化和非结构化的数据。半结构化和非结构化数据,包括传感器数据、网络日志、音频、视频、图片、地理位置信息等,占有量越来越大,已远远超过结构化数据大数据的魅力•大数据的特点–价值密度低(Value)。数据总体的价值巨大,但价值密度很低。以视频为例,在长达数小时连续不断的视频监控中,有用数据可能仅一二秒。另一极端是各数据都有贡献,但单个数据价值很低–速度快(Velocity)。数据往往以数据流的形式动态快速地产生,具有很强的时效性,用户只有把握好对数据流的掌控才能有效利用这些数据。例如,一天之内需要审查500万起潜在的贸易欺诈案件;需要分析5亿条日实时呼叫的详细记录,以预测客户的流失率大数据时代的思维变革数据采集和数据处理技术已经发生了翻天覆地的变化,人们的思维和方法要跟得上这个变化大数据时代的精髓在于人们分析信息时的三个转变,这些转变将改变人们决策的制定和对表象的理解大数据时代的思维变革•变革一—更多:不是随机样本,而是全体数据1.随机抽样:用最少的数据获得最多的信息–过去由于获取和分析全体数据的困难,抽样调查是一种常用统计分析方法。它根据随机原则从总体中抽取部分实际数据进行调查,并运用概率估计方法,根据样本数据推算总体相应的数量指标–抽样分析的精确性随抽样随机性的增加而提高,与样本数量的增加关系不大。抽样随机性高时,分析的精度能达到把全体作为样本调查时的97%–样本选择的随机性比样本数量更重要大数据时代的思维变革•变革一—更多:不是随机样本,而是全体数据1.随机抽样:用最少的数据获得最多的信息–抽样分析的成功依赖于抽样的随机性,但实现抽样的随机性非常困难–当想了解更深层次的细分领域的情况时,随机抽样方法不一定有效,即在宏观领域起作用的方法在微观领域可能失去了作用–随机抽样需要严密的安排和执行,人们只能从抽样数据中得出事先设计好的问题的结果大数据时代的思维变革•变革一—更多:不是随机样本,而是全体数据2.全体数据:用全体数据可对数据进行深度探讨–流感趋势预测分析了整个美国几十亿条互联网检索记录,使得它能提高微观层面分析的准确性,甚至能够推测某个特定城市的流感状况–信用卡诈骗需通过观察异常情况来识别,这只有在掌握所有的数据时才能做到–社会科学是被“样本=全体”撼动得最厉害的一门学科。这门学科过去非常依赖于样本分析、研究和调查问卷。当记录下人们的平常状态,就不用担心在做研究和调查问卷时存在的偏见了大数据时代的思维变革•变革二—更杂:不是精确性,而是混杂性–对小数据而言,最基本和最重要的要求就是减少错误,保证质量。因为收集的数据较少,应确保每个数据尽量精确,以保证分析结果的准确性–允许不精确数据是大数据的一个亮点,而非缺点。因为放松了容错的标准,就可以掌握更多数据,而掌握大量新型数据时,精确性就不那么重要了–例如,与服务器处理投诉时的数据进行比较,用语音识别系统识别呼叫中心接到的投诉会产生不太准确的结果,但它有助于把握事情的大致情况–不精确的大量新型数据能帮助掌握事情发展趋势大数据时代的思维变革•变革二—更杂:不是精确性,而是混杂性–执迷于精确性是信息缺乏时代的产物,大数据时代要求重新审视精确性的优劣,如果将传统的思维模式运用于数字化、网络化的21世纪,就会错过重要信息,失去做更多事情,创造出更好结果的机会–另一方面,需要与数据增加引起的各种混乱(数据格式不一致,数据错误率增加等)做斗争。错误并不是大数据的固有特性,但可能是长期存在并需要去处理的现实问题大数据时代的思维变革•变革三—更好:不是因果关系,而是相关关系1.因果关系与相关关系–因果关系是指一个事件是另一个事件的结果–相关关系是指两个事件的发生存在某个规律–与通过逻辑推理研究因果关系不同,大数据研究通过统计性的搜索、比较、聚类、分析和归纳,寻找事件(或数据)之间的相关性–一般来说,统计学无法检验逻辑上的因果关系–也许正因为统计方法不致力于寻找真正的原因,才促进数据挖掘和大数据技术在商业领域广泛应用大数据时代的思维变革•变革三—更好:不是因果关系,而是相关关系2.相关关系帮助捕捉现在和预测未来–如果A和B经常一起发生,则只需注意到B发生了,就可以预测A也发生了–故障经常是慢慢出现的,通过收集所有数据,可预先捕捉到事物要出故障的信号。如将发动机的嗡嗡声、引擎过热等异常情况与正常情况对比,就能知道什么地方将出毛病,及时更换或修复–过去需先有想法,然后收集数据来测试想法的可行性,现在可以对大数据进行相关关系分析知道机票是否会飞涨、哪些词条最能显示流感的传播大数据时代的思维变革•变革三—更好:不是因果关系,而是相关关系3.大数据改变人类探索世界的方法–越来越多的事物不断地数据化,将拓展人类的视野,使得人们可从大量的数据中,发现隐藏在其中的自然规律、社会规律和经济规律–当网页变成数据,谷歌具备了令人大跌眼球的全文搜索能力,在几个毫秒之内,就能让人们检索世界上几乎所有的网页–当方位变成数据,每个人都能借助GPS快速到达目的地大数据时代的思维变革•变革三—更好:不是因果关系,而是相关关系3.大数据改变人类探索世界的方法–当情绪变成数据,人们甚至根据大家快乐与否判断股市的涨跌–上述这些不同的数据可归结为几类相似的数学模型,从而使得“数据科学”(应用数据学习知识的学科)成为一门具备普遍适用的学科–生物信息学、计算社会学、天体信息学、电子工程、金融学、经济学等学科,都依赖数据科学的发展大数据的处理•大数据处理的几种主要方式海量数据的处理对于当前的技术来说是一种极大的挑战,目前大数据的主要处理形式如下:–静态数据的批量处理数据体量巨大、精确度高、价值密度低;挖掘合适模式、得出具体含义、制定明智决策、…;用于社交网络、电子商务、搜索引擎等–在线数据的实时流式处理日志数据、传感器数据、Web数据等;数据连续不断、来源众多、格式复杂等;流式挖掘、实时分析、…;应用于智能交通、环境监控、金融银行等–还有在线数据的交互处理、图数据处理大数据的处理•MapReduce编程模型–是批量数据处理的一个常用编程模型–源于函数式语言的两个高阶函数:map和reduce–map(f1,[x1,…,xn])=[f1(x1),…,f1(xn)]–f1作用于n个变元的计算可以并行–reduce(f2,[y1,…,yn])=f2(…f2(f2(y1,y2),y3),…,yn)–若二元函数f2是有交换律和结合率的运算,则f2作用于n个变元的计算也可以适当并行–两者的复合:reduce(f2,map(f1,[x1,…,xn]))–MapReduce源于此,但更加一般•MapReduce编程模型–MapReduce是一种比较专用的并行编程模型,面向大数据集上的可并行化的问题–Map完成过滤或分类,例如,它把数据集中所有的人按姓氏分成若干队列,每个姓氏一个队列;Reduce完成概括总结操作,例如,计算各姓氏队列中的人数,产生按姓氏的人口比例–MapReduce可以在并行计算机、计算机集群和计算机网格上实现大数据的
本文标题:大数据的处理和分析48
链接地址:https://www.777doc.com/doc-28474 .html