您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 咨询培训 > 3-第三讲(数据预处理)
《数据挖掘》第三讲数据预处理主要内容为什么要预处理数据?数据清理数据集成和变换数据归约为什么要预处理数据?现实世界的数据是“肮脏的”不完整的:有些感兴趣的属性缺少属性值,或仅包含聚集数据含噪声的:包含错误或者“孤立点”不一致的:数据源不同,其在编码或命名上有差异没有高质量的数据,就没有高质量的挖掘结果高质量的决策必须依赖高质量的数据数据仓库需要对高质量的数据进行一致地集成数据质量的多维度量一个广为认可的多维度量观点:精确度完整度一致性合乎时机可信度附加价值(已经物化的数据,方便我们挖掘研究)可访问性跟数据本身的含义相关的内在的、上下文相关的、数据的表达形式数据预处理的主要任务数据清理填写空缺的值,平滑噪声数据,识别、删除孤立点,解决不一致性数据集成集成多个数据库、数据立方体或文件数据变换规范化和聚集数据归约通过一些技术(概念分层上卷等)得到数据集的压缩表示,它小得多,但可以得到相同或相近的结果数据离散化数据归约的一部分,通过概念分层和数据的离散化来规约数据,对数字型数据特别重要数据预处理的形式数据清理空缺值数据并不总是完整的例如:数据库表中,很多条记录的对应字段没有相应值,比如销售表中的顾客收入引起空缺值的原因设备异常与其他已有数据不一致而被删除因为误解而没有被输入的数据在输入时,有些数据因为得不到重视而没有被输入对数据的改变没有进行日志记载(事务操作都会被日志文件记载,每次修改操作需要查找日志)空缺值要经过推断而补上,否则算法中断报错如何处理空缺值?常用方法如下:直接忽略掉空缺值的整个属性或元组:当类标号缺少时通常这么做(假定挖掘任务设计分类或描述),当每个属性缺少值的百分比变化很大时,其效果非常差。人工填写空缺值:工作量大,可行性低使用一个全局变量填充空缺值:比如使用unknown或-∞使用属性的平均值填充空缺值使用与给定元组属同一类的所有样本的平均值使用最可能的值填充空缺值(基于数学算法):使用像Bayesian公式或判定树这样的基于模型推断的方法噪声数据噪声:一个测量变量中的随机错误或偏差引起不正确属性值的原因数据收集工具不够精确引起的问题数据输入错误数据传输错误(通信协议问题)技术限制命名规则的不一致其它需要数据清理的数据问题重复记录(引起冗余)不完整的数据不一致的数据如何处理噪声数据分箱(binning):首先排序数据,并将其分到等深箱中(容放相等个数数据)然后可以按箱的平均值平滑、按箱中值平滑、按箱的边界平滑等等,从而达到平滑噪声的目的聚类:监测并且去除孤立点计算机和人工检查结合计算机检测可疑数据,然后对其进行人工判断(工作量大)回归通过让数据适应回归函数来平滑数据数据平滑的分箱方法首先对数据进行排序:price的排序后数据(单位:美元):4,8,15,21,21,24,25,28,34划分为(等深的)箱:箱1:4,8,15箱2:21,21,24箱3:25,28,34用箱平均值平滑:箱1:9,9,9箱2:22,22,22箱3:29,29,29用箱边界平滑(以左边界为例):箱1:4,4,15箱2:21,21,24箱3:25,25,34聚类通过聚类分析检测离群点,消除噪声聚类将类似的值聚成簇。直观的,落在簇集合之外的值被视为离群点,往往就是噪声点回归xyy=x+1X1Y1Y1’回归去噪一般是将Y1调整到Y1’,不是删除数据集成和数据变换数据集成(三个方面)数据集成:将多个数据源中的数据整合到一个一致的存储中模式集成:整合不同数据源中的元数据(描述数据的数据)实体识别问题:匹配整合来自不同数据源的现实世界中相同的实体,比如:A.cust-id=B.customer_no检测并解决数据值的冲突对现实世界中的同一实体,来自不同数据源的属性值可能是不同的可能的原因:不同的数据表示,不同的度量等等处理数据集成中的冗余数据集成多个数据库时,经常会出现冗余数据同一属性在不同的数据库中会有不同的字段名一个属性可以由另外一个表导出,如“年薪”有些冗余可以被“相关性分析”检测到仔细将多个数据源中的数据集成起来,能够减少或避免结果数据中的冗余与不一致性,从而可以提高挖掘的速度和质量。BABAnBBAAr)1())((,数据变换平滑:去除数据中的噪声聚集:汇总,数据立方体的构建(方体的计算就是一种聚集。数据立方体最底层叫基本方体,一般是已知的基本数据,根据现有数据按照不同维度汇总,得到不同层次的方体,所有方体联合起来称为方体的格,这个方体的格也叫数据立方体)数据概化:沿概念分层向上汇总进一步缩小数据量,概化规范化:将数据按比例缩放,使之落入一个小的特定区间最小-最大规范化z-score规范化小数定标规范化属性构造通过现有属性构造新的属性,并添加到属性集中。数据变换——规范化最小-最大规范化(简单的线性变换)z-score规范化(分母代表属性A的标准差,相除投影)小数定标规范化(移动小数点,使其落在(0,1))AAAAAAminnewminnewmaxnewminmaxminvv_)__('AAdevstandmeanvv_'jvv10'其中,j是使Max(||)1的最小整数'v数据规约(缩小数据的范围)数据归约策略数据仓库中往往存有海量数据,在其上进行复杂的数据分析与挖掘需要很长的时间数据归约数据归约可以用来得到数据集的归约表示,它小得多,但可以产生相同的(或几乎相同的)分析结果数据归约策略数据立方体聚集(根据不同维度对数据进行往上汇总)维归约(检测删除基本不相关的冗余的属性、维)数据压缩(使用编码机制压缩数据集,应用于多媒体技术)数值归约(用替代的较小数据替换或估计数据集,如参数模型,用参数加数学公式来表示原始数据集)离散化和概念分层产生用于数据归约的时间不应当超过或“抵消”在归约后的数据上挖掘节省的时间。数据立方体聚集最底层的方体对应于基本方体基本方体对应于感兴趣的实体(一般是原始数据集)在数据立方体中存在着不同级别的汇总数据立方体可以看成方体的格每个较高层次的抽象将进一步减少结果数据的数目数据立方体提供了对预计算的汇总数据的快速访问使用与给定任务相关的最小方体(根据给出的数据立方体的已知最底维度而定)在可能的情况下,对于汇总数据的查询应当使用数据立方体维归约通过删除不相干的属性或维来减少数据量属性子集选择找出最小属性集,使得数据类的概率分布尽可能的接近使用所有属性的原分布减少出现在发现模式上的属性的数目,使得模式更易于理解维规约方法:启发式的(探索性的)方法逐步向前选择(由空属性集开始逐步添加相近属性集)逐步向后删除(由全属性集开始逐步删除不相关属性集)向前选择和向后删除相结合判定归纳树探索性选择方法具体的步骤:d个属性有2d个可能的子集,遍历计算他们非常繁杂。逐步向前选择由空属性集开始,选择原属性集中最好的属性,并将其添加入该集合,重复该步骤。逐步向后删除由整个属性集开始,每一步都删除掉尚在属性集中的最坏属性向前选择和向后删除相结合每一步选择一个最好属性,并删除一个最坏属性可以使用一个临界值(例如选择属性个数等)来判定上述三种方法的结束条件判定归纳树模型:每个非叶子结点表示对某个属性的判定条件,每个叶子结点是判定的类别,根据这个模型,那么判定树上出现的属性就是当前跟我们分析目标相关的属性数据压缩有损压缩VS.无损压缩字符串压缩(或文本压缩)有广泛的理论基础和精妙的算法通常是无损压缩在解压缩前对字符串的操作很有限(如查找字符串出现次数)音频/视频压缩通常是有损压缩,压缩精度可以递进选择有时可以在不解压整体数据的情况下,重构某个片断两种有损数据压缩的方法:小波变换和主要成分分析数值归约通过选择替代的、较小的数据表示形式来减少数据量有参方法:使用一个参数模型估计数据,最后只要存储参数即可。线性回归方法:Y=α+βX多元回归:线性回归的扩充对数线性模型:近似离散的多维数据概率分布无参方法:直方图聚类选样无参方法:1、直方图一种重要的数据归约技术将某属性的数据划分为不相交的子集,或桶,桶中放置该值的出现频率桶和属性值的划分规则等宽等深V-最优MaxDiff05101520253035401000030000500007000090000无参方法:2、聚类将数据集划分为聚类,然后通过聚类来表示数据集如果数据可以组成各种不同的聚类,则该技术非常有效,反之如果数据界线模糊,则方法无效数据可以分层聚类,并被存储在多层索引树中聚类的定义和算法都有很多选择无参方法:3、选样允许用数据的较小随机样本(子集)表示大的数据集对数据集D的样本选择:简单随机选择n个样本,不回放:由D的N个元组中抽取n个样本简单随机选择n个样本,回放:过程同上,只是元组被抽取后,将被回放,可能再次被抽取结合聚类的选样:D中元组被分入M个互不相交的聚类中,可在其中的m个聚类上进行简单随机选择(mM)结合分层的选样:D被划分为互不相交的“层”,则可通过对每一层的简单随机选样得到D的分层选样选样——SRS原始数据选样——聚类/分层选样原始数据聚类/分层选样离散化与概念分层生成(数据规约中重要的方法之一)数据离散化三种类型的属性值可以离散化:名称型——e.g.无序集合中的值序数——e.g.有序集合中的值连续值——e.g.实数离散化(使数据有限或者数目减少)将连续属性的范围划分为区间从而减少所必须处理的数据量应用举例:有效的规约数据基于判定树的分类挖掘(离散化的有效应用)离散化的数值用于进一步分析离散化和概念分层离散化通过将属性域划分为区间,减少给定连续属性值的个数。区间的标号可以代替实际的数据值。概念分层通过使用高层的概念(比如:青年、中年、老年)来替代底层的属性值(比如:实际的年龄数据值)来规约数据注意:离散化后数据细节会丢失,然而越概化越高层的数据越有助于数据挖掘,对人的理解越有意义。数据数值的离散化和概念分层生成分箱(binning)分箱技术递归的用于结果划分,可以产生概念分层。直方图分析(histogram)直方图分析方法递归的应用于每一部分,可以自动产生多级概念分层。聚类分析将数据划分成簇,每个簇形成同一个概念层上的一个节点,每个簇可再分成多个子簇,形成子节点。基于熵的离散化(统计学角度)通过自然划分分段通过自然划分分段将数值区域划分为相对一致的、易于阅读的、看上去更直观或自然的区间。自然划分的3-4-5规则:如果一个区间最高有效位上包含3,6,7或9个不同的值,就将该区间划分为3个等宽子区间(将7划分为?);如果一个区间最高有效位上包含2,4,或8个不同的值,就将该区间划分为4个等宽子区间(将2划分为?);如果一个区间最高有效位上包含1,5,或10个不同的值,就将该区间划分为5个等宽子区间(将1划分为?);将该规则递归的应用于每个子区间对于数据集中出现的最大值和最小值的极端分布,为了避免上述方法出现的结果扭曲,可以在顶层分段时,选用一个大部分的概率空间,仅在该大概率空间进行自然划分。e.g.5%-95%3-4-5规则——例子(-$400,$5,000)(-$400,0)(-$400--$300)(-$300--$200)(-$200--$100)(-$100-0)(0,$1,000)(0-$200)($200-$400)($400-$600)($600-$800)($800-$1,000)($2,000,$5,000)($2,000-$3,000)($3,000-$4,000)($4,000-$5,000)($1,000,$2,000)($1,000-$1,200)($1,200-$1,400)($1,400-$1,600
本文标题:3-第三讲(数据预处理)
链接地址:https://www.777doc.com/doc-5079194 .html