您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 信息化管理 > Python中文乱码详解
Python中文乱码详解本文目的为Python程序员简练地介绍字符编码相关支持,彻底解疑“Python中文乱码”,“Python2与Python3字符编码差异”等相关问题。使用其他语言的程序员可作参考,道理都是相通的,不过具体处理方式不同罢了。痛苦的根源起因计算机不能直接识别字符(文本的最小组成单位)。字形:字的形状,又叫字图。文字的抽象形状,“小短横线”就是汉字“一”的字形。字符:抽象符号和数字成对编码用于在计算机系统中表示的信息单位。虽然字符本身是抽象的,但它一旦存在于计算机系统中,它就对应了某种特定字符编码方式。字符“一”在GBK编码中是0xD2BB。字体:字的形体。草书、行书、楷书,都叫字体。计算机中的字体如:华文行楷,微软雅黑。解决办法但是计算机可以识别二进制数,于是采用一个二进制数来指代一个字符。结果很多人都想到了这个解决办法。比如拉丁字母,他们想到了用十进制65来表示字符’A’。不同国家或者不同组织,他们因为事先没有商量,都用了同一个整数来表示他们自己国家里的某个文字。在不相互沟通的时候相安无事,但相互沟通时,就出现了问题。编码与解码先记住,任何信息,存放在存储介质中时,都是二进制流(比特流)。编码过程:字符转换成二进制流表示的过程。解码过程:二进制流转换成字符的过程。编码规则:编码和解码过程中遵循的规则,例如GBK编码,UTF-8编码。字符编码的来龙去脉ASCII美国信息交换标准代码,最早的通用编码方案。开始时,只用7个比特位就表示完了所有拉丁文字母和一些符号,共128个。后来发现不够用,又启用了第8位,刚好一个字节的长度,共256个字符。但是,不同的公司/组织把这扩展出来的128个码位指派给了不同的字符,文档交流就困难了。于是ANSI这个组织站出来了,制定了ANSI标准。而且人们也发现,ASCII这种单字节(因为它占8个比特位)编码满足不了更多的字符需求,那必须得用多个字节编码。多字节字符集(MBCS)概念就诞生了。ANSI美国国家标准协会认可的标准。注意,它是一种标准,而不是某种具体编码,可以看做是编码的一种分类。ANSI的标准就是,ASCII码占用的码位及其所指代的字符不许改变,剩下的自己扩展。中国人在这个规定上有自己的扩展(如GBK),英国人也有自己的扩展(如ISO-8859-1,即latin-1)。所以ISO-8859-1和GBK都可以称之为ANSI编码,因为它们符合ANSI规定。以Windows系统为例,中文系统中所指的ANSI编码就是GBK,英文系统中的ANSI编码就是ISO-8859-1。MBCS多字节字符集(Multi-ByteCharacterSet),采用不定长度可以是一个字节,也可以是两个字节,也可以是三个字节来进行编码。大多数情况下2个字节就够用了,汉字就分配两个字节,称之为DBCS(Double-ByteChactacterSet)。在Linux系统中看得到MBCS说法,在Windows中呢?其实就是ANSI,ANSI只规定了第一个字节的位置是ASCII,超出这个范围的,肯定也是多字节的了。CodePage代码页,把一种字符编码方式(和字符集有区别,稍后讲解)放在一个CodePage上,编码解码就像翻书查字典似的。很多个代码页,也就容纳了很多种编码方式。这个概念最早来自IBM,但也被微软等公司采用。同一种编码方式,在不同的公司制定的CodePage里“页码”也不相同。比如UTF-8,在微软的CodePage里是65001,在IBM里是1208。注意:MBCS、DBCS、CodePage、ANSI,它们各自指代的不是某种具体编码,而是符合某种规则的编码方式的统称。在不同的操作系统或平台下,它们有一个默认值而已。PS:微软的CP936不等于GBK,它们有几十个不太常用的字符不同。所以绝大多数情况下感觉不到差异。Unicode/UCS通过以上的介绍知道,各种解决方案都是各自为政,解决不了“同一个系统中同时显示全宇宙的所有字符”这个问题。于是就有两个组织,他们开始着手做这件事情,UCS和Unicode诞生了。通用字符集(UCS,UniversalCharacterSet)是由国际标准化组织(ISO)制定的ISO10646标准所定义的字符集。通常也译为通用多八位编码字符集。统一码(Unicode)是由统一码联盟指定的。后来发现,一山不容二虎,世界人民不需要两个目的相同但是具体实现却有差异的编码方案。UCS和Unicode握手言和,从Unicode2.0起,采用了和ISO10646-1的编码方案,它们在相同的码位上都对应同样的字符。尽管这两个组织目前还在相互独立的在发布字符编码标准。可能是Unicode名字好记,所以采用更为广泛。关于UCS-2,UCS-4这些概念不再赘述,自行查阅。Unicode,UTF-8,UTF-16它们是什么关系UTF-8(UnicodeTransformationFormat)即Unicode转换格式,8的意思是使用8比特为单位来进行编码。码位小于128时,就是对应的字节值;大于等于128时,就会转换成2、3、4字节的序列。每个字节的序列值介于128~255。GBK,GB2312,Latin-1,Big-5,ASCII等,它们的字符集和具体编码实现方式绑定(如GBK字符集就采用GBK编码方式),即字符和存储在介质上的二进制流一一对应。缺陷很明显,字符集扩展性差。Unicode考虑了这个问题,所以它的编码与编码的实现方式没有绑定。而是有多种实现方式,如UTF-8,UTF-16,UTF-32。例如字符‘A’在Unicode中的编码是65,但存储在介质上时,二进制流的十六进制表示采用UTF-8时是0x41,而UTF-16大端模式是0x000x41。至于什么是大端模式、小端模式,UTF-X,GBXXX的具体编码实现方式请自行查阅。内码与外码内码:存储在介质上时使用的编码形式。例如GBK,GB2312。外码:外部输入系统时的编码。例如拼音输入法编码,仓颉输入法编码。例如:采用仓颉输入法对汉字“驹”的编码是NMPR,输入系统以后得到字符“驹”。使用GBK作为内码进行存储时就是0xBED4。乱码产生的原因编码和解码时用了不同或者不兼容的字符编码方式。就算同是Unicode,UTF-8和UTF-16也是不同的。解决乱码问题,需要把握的要点:输入某软件系统时字符所采用的编码是什么?(从数据库或文件读取时,原来存储时的编码是什么?从网页抓取时,网页的编码是什么?从控制台输入时,控制台的编码方式是什么?)软件系统中的编码方式是什么?(原本若是UTF-8存储,GBK编码的软件系统该如何处理?)输出时的编码方式是什么?(如Python脚本处理后的字符串是Unicode编码,输出到采用GBK编码的Windows控制台时应该做什么?)Python2.x字符编码问题Python2字符(串)类型探究basestring:str和unicode对象的基类,抽象的,不可被调用或实例化,仅可用于类型检查。isinstance(obj,basestring)等价于isinstance(obj,(str,unicode))。1234isinstance('驹',basestring)Trueisinstance(u'驹',basestring)Truestr:实际是字节串。Python2中也有bytes对象。bytes==str结果为True。例如:‘驹’,这个字符串长度为1,但len('驹')在windows平台下是2(默认GBK),Linux平台下是3(默认UTF-8)。1234isinstance('驹',str)Trueisinstance(u'驹',str)Falseunicode:unicode(string[,encoding,errors]),按照encoding参数指定的编码方式把参数string转换成unicode。unicode编码的字符串对象,也可以直接加前缀u表示。len(u'驹')在Windows和Linux下都是1。1234isinstance('驹',unicode)Falseisinstance(u'驹',unicode)Trueunicode构造器的参数encoding默认是7位ASCII编码,所以默认时传入的字节串或字符串的每一个字节值必须小于128:Windows系统下:1234567#Win平台默认情况下就是GBK编码,所以以下结果就是GBK编码值'驹''\xbe\xd4'#报错,试图用unicode方法默认的ASCII编码去解码GBK编码的字符unicode('驹')Traceback(mostrecentcalllast):8910111213......UnicodeDecodeError:'ascii'codeccan'tdecodebyte0xbe...#正确,录入时以GBK编码,故而以GBK方式去解码,再转换成Unicode形式unicode('驹','GBK')#等价于u'驹'u'\u9a79'Linux系统下:12345678910111213#Linux平台默认情况下就是UTF-8编码,所以以下结果就是UTF-8编码值'驹''\xe9\xa9\xb9'#报错,试图用unicode方法默认的ASCII编码去解码UTF-8编码的字符unicode('驹')Traceback(mostrecentcalllast):......UnicodeDecodeError:'ascii'codeccan'tdecodebyte0xbe...#正确,录入时以GBK编码,故而以GBK方式去解码,再转换成Unicode形式unicode('驹','UTF-8')#等价于u'驹'u'\u9a79'总结1:通过系统shell录入或直接在程序中定义的字符串,Python2中默认就是str对象(字节串),其字节值是由系统默认编码方式编码所得,Windows是GBK编码方式,Linux是UTF-8。所以我们向某个媒介(文件、网页/浏览器、系统Shell或其他软件呈现文本的区域)输出字符串内容时,要用该媒介接收的编码形式编码字符串后再传递给它。例如,要从shell中输出字符串时(新手常用urlopen打开一个网页,然后print网页内容),必须将字符串转换为当前的shell使用的编码形式。如,Windows的cmd是GBK,Linux的bash是UTF-8。PyCharm自带的shell不管是Windows还是Linux都是UTF-8。encode与decode方法S.encode([encoding[,errors]])-object文档解释:用编解码器注册的编码方式来编码字符串S。encoding参数的默认值就是Python默认的编码方式。errors默认值是’strict’,严格模式,一旦编码出错就抛出UnicodeEncodeErrors异常,还可以是’ignore’(忽略错误),‘replace’(将出错的字串替换,一般是替换为问号)。S.decode([encoding[,errors]])-object文档解释:用编解码器注册的编码方式来解码字符串S。参数与encode的一致。Linux平台下实验观察(Win平台结果也同样,不过是win默认为GBK编码)12345678910111213s1='abc驹'#Python2下默认的是str对象,实际是字节串,utf-8编码的s2=u'abc驹'#unicode字符串s1'abc\xe9\xa9\xb9's2u'abc\u9a79'#把str对象,已经是utf-8编码形式的字串再来encodes1.encode('UTF-8')Traceback(mostrecentcalllast):#奇怪的是此处报UnicodeDecodeError注意我们用的
本文标题:Python中文乱码详解
链接地址:https://www.777doc.com/doc-4991968 .html