android查看mysql字符集编码码,哪些支持中文哪些不支持中文

5770人阅读
字符编码与国际化
在Android系统设备中,如果有包含简体中文或繁体中文标题的歌曲时,有时候会看到乱码的现象,这是怎么回事?
要想知道答案,需要先了解下字符编码相关知识。
字符乱码问题由来
PC出现的早期,不同国家或区域对自己的文字制定了编码规范,大家各自为政,没有标准化
编码方案A: 代码 100 内容:”###“
编码方案B: 代码 100 内容:”@@@“
问题出现了:将编码方案A编码的内容使用在编码方案B中,会显示预期之外的内容如乱码等。
在此例子中,如果某文字用方案A编码,但是用方案B解码,则本应该显示”###“的文字会变成”@@@“
如何解决编码问题?
为解决各地区不同标准产生的编码问题,需要一种统一的编码方式,这便是ISO 10646和Unicode的由来。
各种不同的编码
1. ISO 10646
ISO 10646标准由国际标准化组织ISO颁布,用来实现全球所有文种的统一编码;
ISO 10646定义了标准字符集(Universal Character Set,UCS);
历史上存在两个独立的尝试创立单一字符集的组织,即国际标准化组织(ISO)和多语言软件制造商组成的统一码联盟即Unicode。
前者开发了ISO/IEC 10646 项目,后者开发了统一码项目。因此最初制定了不同的标准。
1991年前后,两个项目的参与者都认识到,世界不需要两个不兼容的字符集。于是,它们开始合并双方的工作成果,并为创立一个单一编码表而协同工作。
Unicode:统一码,为每一个字符定义唯一的代码(即一个整数);
目前的 Unicode 字符分为 17 组编排, 每组称为平面(Plane),而每平面拥有65536个代码点;
UCS-2即Unicode 0号平面字符集;
http://zh.wikipedia.org/wiki/Unicode%E5%AD%97%E7%AC%A6%E5%B9%B3%E9%9D%A2%E6%98%A0%E5%B0%84
http://zh.wikibooks.org/wiki/Unicode
Unicode的实现方式称为Unicode转换格式(Unicode Transformation Format,简称为UTF),如UTF-16,UTF-8等;
8-bit Unicode Transformation Format,是一种针对Unicode的可变长度字符编码;
UTF-8使用一至四个字节为每个字符编码:
&- ASCII字符只需一个字节编码;
&- 拉丁文等 需要二个字节编码;&
&- 其他基本多文种平面(BMP)中的字符三字节编码
&- 其他极少使用的Unicode 辅助平面的字符使用四字节编码
Unicode和UTF-8之间的转换关系表&
& & & & &UCS-4编码 & & & & & UTF-8字节流&
U+ – U+xxxxxxx&
U+ – U+000007FF 110xxxxx 10xxxxxx&
U+ – U+0000FFFF 1110xxxx 10xxxxxx 10xxxxxx&
U+ – U+001FFFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
16bit Unicode Transformation Format,把Unicode的码位转换为16比特长的码元;
UTF-16是UCS-2的父集,在BMP中,UTF-16编码就等于UCS码;
在辅助平面中,UTF-16使用“代理对”的方法进行编码;
代理对编码方法:
& 1.码位减去0x10000, 得到的值的范围为20比特长的0..0xFFFFF.&
& 2.高位的10比特值加上0xD800,得到高位代理(范围0xD800..0xDBFF);
& 3.低位的10比特值加上0xDC00,得到低位代理(范围0xDC00..0xDFFF);
高位代理、低位代理、BMP中的有效字符的码位,三者互不重叠;
& - 不同平台使用不同字节序;
& - 为了确定UTF-16文件的大小尾序,在采用UTF-16编码文件的开头,都会放置BOM(Byte Order Mark)信息,FF FE代表UTF-16LE,FE FF代表UTF-16BE;
& - U+FEFF,U+FFFE字符在UNICODE中代表的意义是ZERO WIDTH NO-BREAK SPACE,它是个没有宽度也没有断字的空白;
& - U+6731,UTF-16LE编码为“31 67”,UTF-16BE编码为“67 31”;&
American Standard Code for Information 美国信息交换标准代码;
单字节编码,使用7位二进制数表示,编码范围为0 - 127,可表达128个字符;
ASCII码字符不存在乱码问题,因为绝大部分地区编码都兼容ascii;
扩展ASCII:
标准ASCII码只用到一个字节中的7位,如果使用第8位,则可扩展编码范围128 - 255,扩展后的标准即为ISO8859-1,也称为&Latin-1
4. ISO8859
- ISO 8859,全称ISO/IEC 8859,是一个8位字符集的标准,现时定义了15个字符集
- ASCII收录了空格及94个“可印刷字符”,足以给英语使用。但是,其他使用拉丁字母的语言(主要是欧洲国家的语言),都有一定数量的附加符号字母,故可以使用ASCII及控制字符以外的区域来储存及表示。
- 兼容ASCII,0x20 - 0x7F为ASCII,0xA0-0xFF为ISO 8859-x字符
- Unicode 0x00-0xFF范围的字符由 0x00-0x7F(ASCII) + 0x80-0x9F(控制符) + 0xA0-0xFF(ISO 8859-1)组成
各种ISO 8859字符集&
ISO/IEC 8859-1 (Latin-1) - 西欧语言&
ISO/IEC 8859-2 (Latin-2) - 中欧语言&
ISO/IEC 8859-3 (Latin-3) - 南欧语言。世界语也可用此字符集显示。&
ISO/IEC 8859-4 (Latin-4) - 北欧语言&
ISO/IEC 8859-5 (Cyrillic) - 斯拉夫语言&
ISO/IEC 8859-6 (Arabic) - 阿拉伯语&
ISO/IEC 8859-7 (Greek) - 希腊语&
ISO/IEC 8859-8 (Hebrew) - 希伯来语(视觉顺序)&
ISO 8859-8-I - 希伯来语(逻辑顺序)&
ISO/IEC 8859-9(Latin-5 或 Turkish)- 它把Latin-1的冰岛语字母换走,加入土耳其语字母。&
ISO/IEC 8859-10(Latin-6 或 Nordic)- 北日耳曼语支,用来代替Latin-4。&
ISO/IEC 8859-11 (Thai) - 泰语,从泰国的 TIS620 标准字集演化而来。&
ISO/IEC 8859-13(Latin-7 或 Baltic Rim)- 波罗的语族&
ISO/IEC 8859-14(Latin-8 或 Celtic)- 凯尔特语族&
ISO/IEC 8859-15 (Latin-9) - 西欧语言,加入Latin-1欠缺的芬兰语字母和大写法语重音字母,以及欧元(EUR)符号。&
ISO/IEC 8859-16 (Latin-10) - 东南欧语言。主要供罗马尼亚语使用,并加入欧元符号。&
由于英语没有任何重音字母(不计外来词),故可使用以上十五个字集中的任何一个来表示。
代码页(Code Page),也称“内码表”,是特定语言的字符集的一张表;
早期,字符集编码信息存放在ROM中,被称为OEM代码页(IBM PC使用);
微软针对不同的使用地区与国家,定义了一系列的支持不同语言字符集的代码页,被称作&Windows (或ANSI) 代码页&;
不同的厂商对同一个字符集编码使用各自不同的名称。例如,UTF-8在IBM称作代码页1208, 在微软称作代码页65001, 在SAP称作代码页4110;
微软系统中,中日韩语言代码页:
932 — 日文 (Shift-JIS)
936 — 简体中文(GBK)&
949 — 韩文 (EUC-KR)
950 — 繁体中文(Big5)
GB-x:简体中文编码
中华人民共和国国家标准简体中文字符集,共收录6763个汉字,覆盖中国大陆99.75%的使用频率
对于人名、古汉语等方面出现的罕用字,GB 2312不能处理每个汉字及符号以两个字节来表示,兼容ASCII
Unicode BMP平面汉字。1993年,Unicode 1.1版本推出,收录中国大陆、台湾、日本及韩国通用字符集的汉字,总共有20,902个。
中国大陆将之定为GB13000
汉字内码扩展规范,K为汉语拼音 Kuo Zhan(扩展)中“扩”字的声母
相当于GB 2312 + GB 13000。由于GB 2312-80只收录6763个汉字,有不少汉字并未有收录在内,于是厂商微软利用GB 2312-80未使用的编码空间,收录GB全部字符制定了GBK编码字符有一字节和双字节编码。对于单字节,00–7F范围即ASCII,对于双字节,第一字节的范围是81–FE,第二字节的范围在40–7E及80–FE
国家标准GB 《信息技术 中文编码字符集》,是中华人民共和国现时最新的内码字集
与GB 完全兼容,与GBK基本兼容,支持GB 13000及Unicode的全部统一汉字,共收录汉字70244个
Big5:繁体中文编码
Big5,又称为大五码或五大码,繁体中文地区中最常用的汉字字符集,共收录13,060个汉字
双字节字符集,“高位字节”使用了0xA1-0xF9,“低位字节”使用了0x40-0x7E,及0xA1-0xFE (CP950)
由于很多日常用字未被收录(“着”,“柏”,“喆”等),所以在市面上支持Big5码的软件(如仓颉输入法),有不少都自行在原本的编码外,添加一些符号及用字
如何知道当前字符是何种编码?
不同代码页使用的代码范围不一样,通过检测代码范围来得到一个字符可能的编码。
注意,中日韩等象形文字的编码范围有可能会有重叠部分,因此某个字符检测可能得到多个结果。
如果是判断某个字符串,则可检测每个字符可能的编码,对每一个结果进行与操作,则可得到更准确的结果。
编码 & & & & &范围(只有部分信息,实际请参考代码页)
Shift-JIS & & 高位字节0x81-0xFC,低位字节0x40-0x7E,…,0x -0xFC,
GBK & & & & & 高位字节0x81-0xFE,低位字节0x40-0x7E,0x80-0xFE
Big5 & & & & &高位字节0xA1-0xF9,低位字节0x40-0x7E,0xA1-0xFE
EUC-KR & & & &高位字节0x81-0xFD,低位字节0x41-0x5A,0x61-0x7A,0x81-0xFE
注意编码范围不是连续的,因此在实现过程中,需要根据代码页把其所有范围列出来,检测编码时判断字符是否在该范围
Android使用:http://www.unicode.org/Public/MAPPINGS/VENDORS/MICSFT/WINDOWS/
GBK编码范围
ICU:International Components for Unicode, &Unicode国际化组件;
:http://site.icu-project.org/
开源软件,有两种版本:ICU4J(Java)和ICU4C(C,C++)
ICU主要功能:
& 代码页转换
& 字符比较器(Collation)
& 日期,时间,货币,数字等格式转换
& 时区计算
& Unicode支持
& 正则表达式
& 处理文本排向(Bidi )
& 文本边界
ICU提供一个转换器,可以将代码页编码(如GBK)转换成Unicode编码
同一种编码可能有多个别名,创建转换器时可以输入别名
转换器别名信息可从android源码中获取,路径为: android/external/icu4c/data/mappings/convrtrs.txt&
或者从查看Demo: http://demo.icu-project.org/icu-bin/convexp
使用ICU4C完成不同编码的转换
1.创建转换器
convDest = ucnv_open(name,…); //目标转换器,打开转换器如”GBK”,”UTF-8”,返回converter对象
convSrc = ucnv_open(name,…); &//源转换器
ucnv_convertEX(convDest,convSrc,pDest,pDestLen,pSrc,pSrcLen,…)
3.关闭转换器
ucnv_close(convDest);
ucnv_close(convSrc);
了解了字符编码相关知识后,再来看乱码现象。
目前智能手机,平板等设备基本使用unicode字符集,对于unicode字符,可以正常显示,而非unicode字符则需要先转换成unicode,否则会显示乱码。
在转换之前,需要检测编码。由于中日韩文字的编码有重叠部分,检测时有可能得到多个结果,因此在检测结果上还要加个条件,即根据当前设置的语言来决定最终结果。
所以如果设置当前语言为简体中文,查看繁体中文或日韩文编码信息的歌曲时会看到乱码。
抛开效率问题,这种情况其实可以解决,通过判断检测结果是否唯一,如果是则将对应编码转换成utf8即可。
有些mp3歌曲信息是unicode编码,所以无论设置哪种语言都可以显示正确。
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:53456次
排名:千里之外
原创:25篇
评论:15条
(1)(6)(3)(1)(2)(3)(1)(5)(2)(2)解决android studio Gradle警告GBK编码的不可映射字符的问题&&categories:&&author:今天用android studio来写代码,然后在代码中加了中文注释导致无法编译:提示错误:“ Gradle: 警告:编码 GBK 的不可映射字符”。网络上 查找各种解决方法, 也没有最终解决, 可以通过到cmd中进行编译, 找到错误的代码行, 可以进行删除相关注释,一般都能解决,但是不是最好的办法。下面是从网络上搜索的解决方法,如下(其实我的程序这么操作后,也没有解决, 我是用下面的另外方法进行的解决) 网上也有挺多解决的方法,但是看得不是很明显,这里截图给大家分享一下:这里是中文代码注释android studio代码中的 中文注释,容易引起编译问题,程序没办法启动编译出错,在项目下的build.gradle下添加以下代码即可解决。复制代码&在图中代码中添加相关设置可以解决android studio中文编码问题tasks.withType(Compile) {
options.encoding = “UTF-8″}截图看起来更加清晰哈.设置android studio的编码方式为utf-8&参照上面的过程进行了设置, 但是在我的项目中, 问题还是存在,后来采用源代码转换成gbk的方式,问题解决,过程如下:1. 选择源代码文件, 选择其中文件编码选择文件的编码方式, 如图, 选择File encoding子菜单2. 在弹出菜单中选择 gbk类型选择GBK编码方式&3. 最后选择转换当前文件代码 到 gbk方式, 然后在编译在android stuido的源代码文件中选择 转换当前代码到目标编码方式解决乱码的编译问题近期文章
分类目录选择分类目录书路&&(10)儿童画&&(98)&&&儿童作品&&(82)&&&儿童画教程&&(16)原创&&(126)&&&0基础编程&&(23)&&&android&&(9)&&&hadoop&&(18)&&&java原创&&(2)&&&livewriter&&(11)&&&nginx&&(52)资料&&(866)&&&android资料&&(84)&&&java资料&&(67)&&&linux资料&&(34)&&&mysql资料&&(34)&&&nginx资料&&(17)&&&svn&&(9)&&&wordpress&&(48)&&&搜索资料&&(45) 文章归档 选择月份 2016年六月 &(1) 2016年五月 &(14) 2016年四月 &(6) 2016年三月 &(20) 2016年二月 &(11) 2016年一月 &(14) 2015年十二月 &(17) 2015年十一月 &(13) 2015年十月 &(6) 2015年九月 &(6) 2015年八月 &(7) 2015年七月 &(11) 2015年六月 &(19) 2015年五月 &(26) 2015年四月 &(19) 2015年三月 &(35) 2015年二月 &(38) 2015年一月 &(20) 2014年十二月 &(8) 2014年十一月 &(8) 2014年十月 &(3) 2014年九月 &(3) 2014年八月 &(3) 2014年七月 &(4) 2014年六月 &(3) 2014年五月 &(7) 2014年四月 &(10) 2014年三月 &(8) 2014年二月 &(8) 2014年一月 &(11) 2013年十二月 &(11) 2013年十一月 &(9) 2013年十月 &(40) 2013年九月 &(79) 2013年八月 &(50) 2013年七月 &(68) 2013年六月 &(50) 2013年五月 &(59) 2013年四月 &(65) 2013年三月 &(59) 2013年二月 &(20) 2013年一月 &(59) 2012年十二月 &(52) 2012年十一月 &(91) 2012年十月 &(23)IBM Bluemix
点击按钮,开始云上的开发!
developerWorks 社区
编码问题一直困扰着开发人员,尤其在 Java 中更加明显,因为 Java 是跨平台语言,不同平台之间编码之间的切换较多。本文将向你详细介绍 Java 中编码问题出现的根本原因,你将了解到:Java 中经常遇到的几种编码格式的区别;Java 中经常需要编码的场景;出现中文问题的原因分析;在开发 Java web 程序时可能会存在编码的几个地方,一个 HTTP 请求怎么控制编码格式?如何避免出现中文问题?
, Java 工程师, 淘宝网
许令波,developerWorks 中国网站最佳作者,现就职于淘宝网,是一名 Java 开发工程师。对大型互联网架构设计颇感兴趣,喜欢钻研开源框架的设计原理。有时间将学到的知识整理成文章,也喜欢记录下工作和生活中的一些思考。个人网站是:http://xulingbo.net。
几种常见的编码格式为什么要编码不知道大家有没有想过一个问题,那就是为什么要编码?我们能不能不编码?要回答这个问题必须要回到计算机是如何表示我们人类能够理解的符号的,这些符号也就是我们人类使用的语言。由于人类的语言有太多,因而表示这些语言的符号太多,无法用计算机中一个基本的存储单元—— byte 来表示,因而必须要经过拆分或一些翻译工作,才能让计算机能理解。我们可以把计算机能够理解的语言假定为英语,其它语言要能够在计算机中使用必须经过一次翻译,把它翻译成英语。这个翻译的过程就是编码。所以可以想象只要不是说英语的国家要能够使用计算机就必须要经过编码。这看起来有些霸道,但是这就是现状,这也和我们国家现在在大力推广汉语一样,希望其它国家都会说汉语,以后其它的语言都翻译成汉语,我们可以把计算机中存储信息的最小单位改成汉字,这样我们就不存在编码问题了。所以总的来说,编码的原因可以总结为:
计算机中存储信息的最小单元是一个字节即 8 个 bit,所以能表示的字符范围是 0~255 个
人类要表示的符号太多,无法用一个字节来完全表示
要解决这个矛盾必须需要一个新的数据结构 char,从 char 到 byte 必须编码如何“翻译”明白了各种语言需要交流,经过翻译是必要的,那又如何来翻译呢?计算中提拱了多种翻译方式,常见的有 ASCII、ISO-8859-1、GB2312、GBK、UTF-8、UTF-16 等。它们都可以被看作为字典,它们规定了转化的规则,按照这个规则就可以让计算机正确的表示我们的字符。目前的编码格式很多,例如 GB2312、GBK、UTF-8、UTF-16 这几种格式都可以表示一个汉字,那我们到底选择哪种编码格式来存储汉字呢?这就要考虑到其它因素了,是存储空间重要还是编码的效率重要。根据这些因素来正确选择编码格式,下面简要介绍一下这几种编码格式。
ASCII 码学过计算机的人都知道 ASCII 码,总共有 128 个,用一个字节的低 7 位表示,0~31 是控制字符如换行回车删除等;32~126 是打印字符,可以通过键盘输入并且能够显示出来。
ISO-8859-1128 个字符显然是不够用的,于是 ISO 组织在 ASCII 码基础上又制定了一些列标准用来扩展 ASCII 编码,它们是 ISO-8859-1~ISO-8859-15,其中 ISO-8859-1 涵盖了大多数西欧语言字符,所有应用的最广泛。ISO-8859-1 仍然是单字节编码,它总共能表示 256 个字符。
GB2312它的全称是《信息交换用汉字编码字符集 基本集》,它是双字节编码,总的编码范围是 A1-F7,其中从 A1-A9 是符号区,总共包含 682 个符号,从 B0-F7 是汉字区,包含 6763 个汉字。
GBK全称叫《汉字内码扩展规范》,是国家技术监督局为 windows95 所制定的新的汉字内码规范,它的出现是为了扩展 GB2312,加入更多的汉字,它的编码范围是 8140~FEFE(去掉 XX7F)总共有 23940 个码位,它能表示 21003 个汉字,它的编码是和 GB2312 兼容的,也就是说用 GB2312 编码的汉字可以用 GBK 来解码,并且不会有乱码。
GB18030全称是《信息交换用汉字编码字符集》,是我国的强制标准,它可能是单字节、双字节或者四字节编码,它的编码与 GB2312 编码兼容,这个虽然是国家标准,但是实际应用系统中使用的并不广泛。
UTF-16说到 UTF 必须要提到 Unicode(Universal Code 统一码),ISO 试图想创建一个全新的超语言字典,世界上所有的语言都可以通过这本字典来相互翻译。可想而知这个字典是多么的复杂,关于 Unicode 的详细规范可以参考相应文档。Unicode 是 Java 和 XML 的基础,下面详细介绍 Unicode 在计算机中的存储形式。UTF-16 具体定义了 Unicode 字符在计算机中存取方法。UTF-16 用两个字节来表示 Unicode 转化格式,这个是定长的表示方法,不论什么字符都可以用两个字节表示,两个字节是 16 个 bit,所以叫 UTF-16。UTF-16 表示字符非常方便,每两个字节表示一个字符,这个在字符串操作时就大大简化了操作,这也是 Java 以 UTF-16 作为内存的字符存储格式的一个很重要的原因。
UTF-8UTF-16 统一采用两个字节表示一个字符,虽然在表示上非常简单方便,但是也有其缺点,有很大一部分字符用一个字节就可以表示的现在要两个字节表示,存储空间放大了一倍,在现在的网络带宽还非常有限的今天,这样会增大网络传输的流量,而且也没必要。而 UTF-8 采用了一种变长技术,每个编码区域有不同的字码长度。不同类型的字符可以是由 1~6 个字节组成。UTF-8 有以下编码规则:
如果一个字节,最高位(第 8 位)为 0,表示这是一个 ASCII 字符(00 - 7F)。可见,所有 ASCII 编码已经是 UTF-8 了。
如果一个字节,以 11 开头,连续的 1 的个数暗示这个字符的字节数,例如:110xxxxx 代表它是双字节 UTF-8 字符的首字节。
如果一个字节,以 10 开始,表示它不是首字节,需要向前查找才能得到当前字符的首字节Java 中需要编码的场景前面描述了常见的几种编码格式,下面将介绍 Java 中如何处理对编码的支持,什么场合中需要编码。I/O 操作中存在的编码我们知道涉及到编码的地方一般都在字符到字节或者字节到字符的转换上,而需要这种转换的场景主要是在 I/O 的时候,这个 I/O 包括磁盘 I/O 和网络 I/O,关于网络 I/O 部分在后面将主要以 Web 应用为例介绍。下图是 Java 中处理 I/O 问题的接口:Reader 类是 Java 的 I/O 中读字符的父类,而 InputStream 类是读字节的父类,InputStreamReader 类就是关联字节到字符的桥梁,它负责在 I/O 过程中处理读取字节到字符的转换,而具体字节到字符的解码实现它由 StreamDecoder 去实现,在 StreamDecoder 解码过程中必须由用户指定 Charset 编码格式。值得注意的是如果你没有指定 Charset,将使用本地环境中的默认字符集,例如在中文环境中将使用 GBK 编码。写的情况也是类似,字符的父类是 Writer,字节的父类是 OutputStream,通过 OutputStreamWriter 转换字符到字节。如下图所示:同样 StreamEncoder 类负责将字符编码成字节,编码格式和默认编码规则与解码是一致的。如下面一段代码,实现了文件的读写功能:清单 1.I/O 涉及的编码示例 String file = "c:/stream.txt";
String charset = "UTF-8";
// 写字符换转成字节流
FileOutputStream outputStream = new FileOutputStream(file);
OutputStreamWriter writer = new OutputStreamWriter(
outputStream, charset);
writer.write("这是要保存的中文字符");
} finally {
writer.close();
// 读取字节转换成字符
FileInputStream inputStream = new FileInputStream(file);
InputStreamReader reader = new InputStreamReader(
inputStream, charset);
StringBuffer buffer = new StringBuffer();
char[] buf = new char[64];
int count = 0;
while ((count = reader.read(buf)) != -1) {
buffer.append(buffer, 0, count);
} finally {
reader.close();
}在我们的应用程序中涉及到 I/O 操作时只要注意指定统一的编解码 Charset 字符集,一般不会出现乱码问题,有些应用程序如果不注意指定字符编码,中文环境中取操作系统默认编码,如果编解码都在中文环境中,通常也没问题,但是还是强烈的不建议使用操作系统的默认编码,因为这样,你的应用程序的编码格式就和运行环境绑定起来了,在跨环境下很可能出现乱码问题。内存中操作中的编码在 Java 开发中除了 I/O 涉及到编码外,最常用的应该就是在内存中进行字符到字节的数据类型的转换,Java 中用 String 表示字符串,所以 String 类就提供转换到字节的方法,也支持将字节转换为字符串的构造函数。如下代码示例: String s = "这是一段中文字符串";
byte[] b = s.getBytes("UTF-8");
String n = new String(b,"UTF-8");另外一个是已经被被废弃的 ByteToCharConverter 和 CharToByteConverter 类,它们分别提供了 convertAll 方法可以实现 byte[] 和 char[] 的互转。如下代码所示: ByteToCharConverter charConverter = ByteToCharConverter.getConverter("UTF-8");
char c[] = charConverter.convertAll(byteArray);
CharToByteConverter byteConverter = CharToByteConverter.getConverter("UTF-8");
byte[] b = byteConverter.convertAll(c);这两个类已经被 Charset 类取代,Charset 提供 encode 与 decode 分别对应 char[] 到 byte[] 的编码和 byte[] 到 char[] 的解码。如下代码所示: Charset charset = Charset.forName("UTF-8");
ByteBuffer byteBuffer = charset.encode(string);
CharBuffer charBuffer = charset.decode(byteBuffer);编码与解码都在一个类中完成,通过 forName 设置编解码字符集,这样更容易统一编码格式,比 ByteToCharConverter 和 CharToByteConverter 类更方便。Java 中还有一个 ByteBuffer 类,它提供一种 char 和 byte 之间的软转换,它们之间转换不需要编码与解码,只是把一个 16bit 的 char 格式,拆分成为 2 个 8bit 的 byte 表示,它们的实际值并没有被修改,仅仅是数据的类型做了转换。如下代码所以: ByteBuffer heapByteBuffer = ByteBuffer.allocate(1024);
ByteBuffer byteBuffer = heapByteBuffer.putChar(c);以上这些提供字符和字节之间的相互转换只要我们设置编解码格式统一一般都不会出现问题。Java 中如何编解码前面介绍了几种常见的编码格式,这里将以实际例子介绍 Java 中如何实现编码及解码,下面我们以“I am 君山”这个字符串为例介绍 Java 中如何把它以 ISO-8859-1、GB2312、GBK、UTF-16、UTF-8 编码格式进行编码的。清单 2.String 编码 public static void encode() {
String name = "I am 君山";
toHex(name.toCharArray());
byte[] iso8859 = name.getBytes("ISO-8859-1");
toHex(iso8859);
byte[] gb2312 = name.getBytes("GB2312");
toHex(gb2312);
byte[] gbk = name.getBytes("GBK");
toHex(gbk);
byte[] utf16 = name.getBytes("UTF-16");
toHex(utf16);
byte[] utf8 = name.getBytes("UTF-8");
toHex(utf8);
} catch (UnsupportedEncodingException e) {
e.printStackTrace();
}我们把 name 字符串按照前面说的几种编码格式进行编码转化成 byte 数组,然后以 16 进制输出,我们先看一下 Java 是如何进行编码的。下面是 Java 中编码需要用到的类图图 1. Java 编码类图首先根据指定的 charsetName 通过 Charset.forName(charsetName) 设置 Charset 类,然后根据 Charset 创建 CharsetEncoder 对象,再调用 CharsetEncoder.encode 对字符串进行编码,不同的编码类型都会对应到一个类中,实际的编码过程是在这些类中完成的。下面是 String. getBytes(charsetName) 编码过程的时序图图 2.Java 编码时序图从上图可以看出根据 charsetName 找到 Charset 类,然后根据这个字符集编码生成 CharsetEncoder,这个类是所有字符编码的父类,针对不同的字符编码集在其子类中定义了如何实现编码,有了 CharsetEncoder 对象后就可以调用 encode 方法去实现编码了。这个是 String.getBytes 编码方法,其它的如 StreamEncoder 中也是类似的方式。下面看看不同的字符集是如何将前面的字符串编码成 byte 数组的?如字符串“I am 君山”的 char 数组为 49 20 61 6d 20 541b 5c71,下面把它按照不同的编码格式转化成相应的字节。按照 ISO-8859-1 编码字符串“I am 君山”用 ISO-8859-1 编码,下面是编码结果:从上图看出 7 个 char 字符经过 ISO-8859-1 编码转变成 7 个 byte 数组,ISO-8859-1 是单字节编码,中文“君山”被转化成值是 3f 的 byte。3f 也就是“?”字符,所以经常会出现中文变成“?”很可能就是错误的使用了 ISO-8859-1 这个编码导致的。中文字符经过 ISO-8859-1 编码会丢失信息,通常我们称之为“黑洞”,它会把不认识的字符吸收掉。由于现在大部分基础的 Java 框架或系统默认的字符集编码都是 ISO-8859-1,所以很容易出现乱码问题,后面将会分析不同的乱码形式是怎么出现的。按照 GB2312 编码字符串“I am 君山”用 GB2312 编码,下面是编码结果:GB2312 对应的 Charset 是 sun.nio.cs.ext. EUC_CN 而对应的 CharsetDecoder 编码类是 sun.nio.cs.ext. DoubleByte,GB2312 字符集有一个 char 到 byte 的码表,不同的字符编码就是查这个码表找到与每个字符的对应的字节,然后拼装成 byte 数组。查表的规则如下: c2b[c2bIndex[char && 8] + (char & 0xff)]如果查到的码位值大于 oxff 则是双字节,否则是单字节。双字节高 8 位作为第一个字节,低 8 位作为第二个字节,如下代码所示: if (bb & 0xff) {
// DoubleByte
if (dl - dp & 2)
return CoderResult.OVERFLOW;
da[dp++] = (byte) (bb && 8);
da[dp++] = (byte)
// SingleByte
if (dl - dp & 1)
return CoderResult.OVERFLOW;
da[dp++] = (byte)
}从上图可以看出前 5 个字符经过编码后仍然是 5 个字节,而汉字被编码成双字节,在第一节中介绍到 GB2312 只支持 6763 个汉字,所以并不是所有汉字都能够用 GB2312 编码。按照 GBK 编码字符串“I am 君山”用 GBK 编码,下面是编码结果:你可能已经发现上图与 GB2312 编码的结果是一样的,没错 GBK 与 GB2312 编码结果是一样的,由此可以得出 GBK 编码是兼容 GB2312 编码的,它们的编码算法也是一样的。不同的是它们的码表长度不一样,GBK 包含的汉字字符更多。所以只要是经过 GB2312 编码的汉字都可以用 GBK 进行解码,反过来则不然。按照 UTF-16 编码字符串“I am 君山”用 UTF-16 编码,下面是编码结果:用 UTF-16 编码将 char 数组放大了一倍,单字节范围内的字符,在高位补 0 变成两个字节,中文字符也变成两个字节。从 UTF-16 编码规则来看,仅仅将字符的高位和地位进行拆分变成两个字节。特点是编码效率非常高,规则很简单,由于不同处理器对 2 字节处理方式不同,Big-endian(高位字节在前,低位字节在后)或 Little-endian(低位字节在前,高位字节在后)编码,所以在对一串字符串进行编码是需要指明到底是 Big-endian 还是 Little-endian,所以前面有两个字节用来保存 BYTE_ORDER_MARK 值,UTF-16 是用定长 16 位(2 字节)来表示的 UCS-2 或 Unicode 转换格式,通过代理对来访问 BMP 之外的字符编码。按照 UTF-8 编码字符串“I am 君山”用 UTF-8 编码,下面是编码结果:UTF-16 虽然编码效率很高,但是对单字节范围内字符也放大了一倍,这无形也浪费了存储空间,另外 UTF-16 采用顺序编码,不能对单个字符的编码值进行校验,如果中间的一个字符码值损坏,后面的所有码值都将受影响。而 UTF-8 这些问题都不存在,UTF-8 对单字节范围内字符仍然用一个字节表示,对汉字采用三个字节表示。它的编码规则如下:清单 3.UTF-8 编码代码片段 private CoderResult encodeArrayLoop(CharBuffer src,
ByteBuffer dst){
char[] sa = src.array();
int sp = src.arrayOffset() + src.position();
int sl = src.arrayOffset() + src.limit();
byte[] da = dst.array();
int dp = dst.arrayOffset() + dst.position();
int dl = dst.arrayOffset() + dst.limit();
int dlASCII = dp + Math.min(sl - sp, dl - dp);
// ASCII only loop
while (dp & dlASCII && sa[sp] & '\u0080')
da[dp++] = (byte) sa[sp++];
while (sp & sl) {
char c = sa[sp];
if (c & 0x80) {
// Have at most seven bits
if (dp &= dl)
return overflow(src, sp, dst, dp);
da[dp++] = (byte)c;
} else if (c & 0x800) {
// 2 bytes, 11 bits
if (dl - dp & 2)
return overflow(src, sp, dst, dp);
da[dp++] = (byte)(0xc0 | (c && 6));
da[dp++] = (byte)(0x80 | (c & 0x3f));
} else if (Character.isSurrogate(c)) {
// Have a surrogate pair
if (sgp == null)
sgp = new Surrogate.Parser();
int uc = sgp.parse(c, sa, sp, sl);
if (uc & 0) {
updatePositions(src, sp, dst, dp);
return sgp.error();
if (dl - dp & 4)
return overflow(src, sp, dst, dp);
da[dp++] = (byte)(0xf0 | ((uc && 18)));
da[dp++] = (byte)(0x80 | ((uc && 12) & 0x3f));
da[dp++] = (byte)(0x80 | ((uc &&
6) & 0x3f));
da[dp++] = (byte)(0x80 | (uc & 0x3f));
// 2 chars
// 3 bytes, 16 bits
if (dl - dp & 3)
return overflow(src, sp, dst, dp);
da[dp++] = (byte)(0xe0 | ((c && 12)));
da[dp++] = (byte)(0x80 | ((c &&
6) & 0x3f));
da[dp++] = (byte)(0x80 | (c & 0x3f));
updatePositions(src, sp, dst, dp);
return CoderResult.UNDERFLOW;
}UTF-8 编码与 GBK 和 GB2312 不同,不用查码表,所以在编码效率上 UTF-8 的效率会更好,所以在存储中文字符时 UTF-8 编码比较理想。几种编码格式的比较对中文字符后面四种编码格式都能处理,GB2312 与 GBK 编码规则类似,但是 GBK 范围更大,它能处理所有汉字字符,所以 GB2312 与 GBK 比较应该选择 GBK。UTF-16 与 UTF-8 都是处理 Unicode 编码,它们的编码规则不太相同,相对来说 UTF-16 编码效率最高,字符到字节相互转换更简单,进行字符串操作也更好。它适合在本地磁盘和内存之间使用,可以进行字符和字节之间快速切换,如 Java 的内存编码就是采用 UTF-16 编码。但是它不适合在网络之间传输,因为网络传输容易损坏字节流,一旦字节流损坏将很难恢复,想比较而言 UTF-8 更适合网络传输,对 ASCII 字符采用单字节存储,另外单个字符损坏也不会影响后面其它字符,在编码效率上介于 GBK 和 UTF-16 之间,所以 UTF-8 在编码效率上和编码安全性上做了平衡,是理想的中文编码方式。Java Web 涉及到的编码对于使用中文来说,有 I/O 的地方就会涉及到编码,前面已经提到了 I/O 操作会引起编码,而大部分 I/O 引起的乱码都是网络 I/O,因为现在几乎所有的应用程序都涉及到网络操作,而数据经过网络传输都是以字节为单位的,所以所有的数据都必须能够被序列化为字节。在 Java 中数据被序列化必须继承 Serializable 接口。这里有一个问题,你是否认真考虑过一段文本它的实际大小应该怎么计算,我曾经碰到过一个问题:就是要想办法压缩 Cookie 大小,减少网络传输量,当时有选择不同的压缩算法,发现压缩后字符数是减少了,但是并没有减少字节数。所谓的压缩只是将多个单字节字符通过编码转变成一个多字节字符。减少的是 String.length(),而并没有减少最终的字节数。例如将“ab”两个字符通过某种编码转变成一个奇怪的字符,虽然字符数从两个变成一个,但是如果采用 UTF-8 编码这个奇怪的字符最后经过编码可能又会变成三个或更多的字节。同样的道理比如整型数字 1234567 如果当成字符来存储,采用 UTF-8 来编码占用 7 个 byte,采用 UTF-16 编码将会占用 14 个 byte,但是把它当成 int 型数字来存储只需要 4 个 byte 来存储。所以看一段文本的大小,看字符本身的长度是没有意义的,即使是一样的字符采用不同的编码最终存储的大小也会不同,所以从字符到字节一定要看编码类型。另外一个问题,你是否考虑过,当我们在电脑中某个文本编辑器里输入某个汉字时,它到底是怎么表示的?我们知道,计算机里所有的信息都是以 01 表示的,那么一个汉字,它到底是多少个 0 和 1 呢?我们能够看到的汉字都是以字符形式出现的,例如在 Java 中“淘宝”两个字符,它在计算机中的数值 10 进制是 28120 和 23453,16 进制是 6bd8 和 5d9d,也就是这两个字符是由这两个数字唯一表示的。Java 中一个 char 是 16 个 bit 相当于两个字节,所以两个汉字用 char 表示在内存中占用相当于四个字节的空间。这两个问题搞清楚后,我们看一下 Java Web 中那些地方可能会存在编码转换?用户从浏览器端发起一个 HTTP 请求,需要存在编码的地方是 URL、Cookie、Parameter。服务器端接受到 HTTP 请求后要解析 HTTP 协议,其中 URI、Cookie 和 POST 表单参数需要解码,服务器端可能还需要读取数据库中的数据,本地或网络中其它地方的文本文件,这些数据都可能存在编码问题,当 Servlet 处理完所有请求的数据后,需要将这些数据再编码通过 Socket 发送到用户请求的浏览器里,再经过浏览器解码成为文本。这些过程如下图所示:图 3. 一次 HTTP 请求的编码示例()如上图所示一次 HTTP 请求设计到很多地方需要编解码,它们编解码的规则是什么?下面将会重点阐述一下:URL 的编解码用户提交一个 URL,这个 URL 中可能存在中文,因此需要编码,如何对这个 URL 进行编码?根据什么规则来编码?有如何来解码?如下图一个 URL:图 4.URL 的几个组成部分上图中以 Tomcat 作为 Servlet Engine 为例,它们分别对应到下面这些配置文件中:Port 对应在 Tomcat 的 &Connector port="8080"/& 中配置,而 Context Path 在 &Context path="/examples"/& 中配置,Servlet Path 在 Web 应用的 web.xml 中的 &servlet-mapping&
&servlet-name&junshanExample&/servlet-name&
&url-pattern&/servlets/servlet/*&/url-pattern&
&/servlet-mapping&&url-pattern& 中配置,PathInfo 是我们请求的具体的 Servlet,QueryString 是要传递的参数,注意这里是在浏览器里直接输入 URL 所以是通过 Get 方法请求的,如果是 POST 方法请求的话,QueryString 将通过表单方式提交到服务器端,这个将在后面再介绍。上图中 PathInfo 和 QueryString 出现了中文,当我们在浏览器中直接输入这个 URL 时,在浏览器端和服务端会如何编码和解析这个 URL 呢?为了验证浏览器是怎么编码 URL 的我们选择 FireFox 浏览器并通过 HTTPFox 插件观察我们请求的 URL 的实际的内容,以下是 URL:HTTP://localhost:8080/examples/servlets/servlet/ 君山 ?author= 君山在中文 FireFox3.6.12 的测试结果图 5. HTTPFox 的测试结果君山的编码结果分别是:e5 90 9b e5 b1 b1,be fd c9 bd,查阅上一届的编码可知,PathInfo 是 UTF-8 编码而 QueryString 是经过 GBK 编码,至于为什么会有“%”?查阅 URL 的编码规范 RFC3986 可知浏览器编码 URL 是将非 ASCII 字符按照某种编码格式编码成 16 进制数字然后将每个 16 进制表示的字节前加上“%”,所以最终的 URL 就成了上图的格式了。默认情况下中文 IE 最终的编码结果也是一样的,不过 IE 浏览器可以修改 URL 的编码格式在选项 -& 高级 -& 国际里面的发送 UTF-8 URL 选项可以取消。从上面测试结果可知浏览器对 PathInfo 和 QueryString 的编码是不一样的,不同浏览器对 PathInfo 也可能不一样,这就对服务器的解码造成很大的困难,下面我们以 Tomcat 为例看一下,Tomcat 接受到这个 URL 是如何解码的。解析请求的 URL 是在 org.apache.coyote.HTTP11.InternalInputBuffer 的 parseRequestLine 方法中,这个方法把传过来的 URL 的 byte[] 设置到 org.apache.coyote.Request 的相应的属性中。这里的 URL 仍然是 byte 格式,转成 char 是在 org.apache.catalina.connector.CoyoteAdapter 的 convertURI 方法中完成的: protected void convertURI(MessageBytes uri, Request request)
throws Exception {
ByteChunk bc = uri.getByteChunk();
int length = bc.getLength();
CharChunk cc = uri.getCharChunk();
cc.allocate(length, -1);
String enc = connector.getURIEncoding();
if (enc != null) {
B2CConverter conv = request.getURIConverter();
if (conv == null) {
conv = new B2CConverter(enc);
request.setURIConverter(conv);
} catch (IOException e) {...}
if (conv != null) {
conv.convert(bc, cc, cc.getBuffer().length -
cc.getEnd());
uri.setChars(cc.getBuffer(), cc.getStart(),
cc.getLength());
} catch (IOException e) {...}
// Default encoding: fast conversion
byte[] bbuf = bc.getBuffer();
char[] cbuf = cc.getBuffer();
int start = bc.getStart();
for (int i = 0; i & i++) {
cbuf[i] = (char) (bbuf[i + start] & 0xff);
uri.setChars(cbuf, 0, length);
}从上面的代码中可以知道对 URL 的 URI 部分进行解码的字符集是在 connector 的 &Connector URIEncoding=”UTF-8”/& 中定义的,如果没有定义,那么将以默认编码 ISO-8859-1 解析。所以如果有中文 URL 时最好把 URIEncoding 设置成 UTF-8 编码。QueryString 又如何解析? GET 方式 HTTP 请求的 QueryString 与 POST 方式 HTTP 请求的表单参数都是作为 Parameters 保存,都是通过 request.getParameter 获取参数值。对它们的解码是在 request.getParameter 方法第一次被调用时进行的。request.getParameter 方法被调用时将会调用 org.apache.catalina.connector.Request 的 parseParameters 方法。这个方法将会对 GET 和 POST 方式传递的参数进行解码,但是它们的解码字符集有可能不一样。POST 表单的解码将在后面介绍,QueryString 的解码字符集是在哪定义的呢?它本身是通过 HTTP 的 Header 传到服务端的,并且也在 URL 中,是否和 URI 的解码字符集一样呢?从前面浏览器对 PathInfo 和 QueryString 的编码采取不同的编码格式不同可以猜测到解码字符集肯定也不会是一致的。的确是这样 QueryString 的解码字符集要么是 Header 中 ContentType 中定义的 Charset 要么就是默认的 ISO-8859-1,要使用 ContentType 中定义的编码就要设置 connector 的 &Connector URIEncoding=”UTF-8” useBodyEncodingForURI=”true”/& 中的 useBodyEncodingForURI 设置为 true。这个配置项的名字有点让人产生混淆,它并不是对整个 URI 都采用 BodyEncoding 进行解码而仅仅是对 QueryString 使用 BodyEncoding 解码,这一点还要特别注意。从上面的 URL 编码和解码过程来看,比较复杂,而且编码和解码并不是我们在应用程序中能完全控制的,所以在我们的应用程序中应该尽量避免在 URL 中使用非 ASCII 字符,不然很可能会碰到乱码问题,当然在我们的服务器端最好设置 &Connector/& 中的 URIEncoding 和 useBodyEncodingForURI 两个参数。HTTP Header 的编解码当客户端发起一个 HTTP 请求除了上面的 URL 外还可能会在 Header 中传递其它参数如 Cookie、redirectPath 等,这些用户设置的值很可能也会存在编码问题,Tomcat 对它们又是怎么解码的呢?对 Header 中的项进行解码也是在调用 request.getHeader 是进行的,如果请求的 Header 项没有解码则调用 MessageBytes 的 toString 方法,这个方法将从 byte 到 char 的转化使用的默认编码也是 ISO-8859-1,而我们也不能设置 Header 的其它解码格式,所以如果你设置 Header 中有非 ASCII 字符解码肯定会有乱码。我们在添加 Header 时也是同样的道理,不要在 Header 中传递非 ASCII 字符,如果一定要传递的话,我们可以先将这些字符用 org.apache.catalina.util.URLEncoder 编码然后再添加到 Header 中,这样在浏览器到服务器的传递过程中就不会丢失信息了,如果我们要访问这些项时再按照相应的字符集解码就好了。POST 表单的编解码在前面提到了 POST 表单提交的参数的解码是在第一次调用 request.getParameter 发生的,POST 表单参数传递方式与 QueryString 不同,它是通过 HTTP 的 BODY 传递到服务端的。当我们在页面上点击 submit 按钮时浏览器首先将根据 ContentType 的 Charset 编码格式对表单填的参数进行编码然后提交到服务器端,在服务器端同样也是用 ContentType 中字符集进行解码。所以通过 POST 表单提交的参数一般不会出现问题,而且这个字符集编码是我们自己设置的,可以通过 request.setCharacterEncoding(charset) 来设置。另外针对 multipart/form-data 类型的参数,也就是上传的文件编码同样也是使用 ContentType 定义的字符集编码,值得注意的地方是上传文件是用字节流的方式传输到服务器的本地临时目录,这个过程并没有涉及到字符编码,而真正编码是在将文件内容添加到 parameters 中,如果用这个编码不能编码时将会用默认编码 ISO-8859-1 来编码。HTTP BODY 的编解码当用户请求的资源已经成功获取后,这些内容将通过 Response 返回给客户端浏览器,这个过程先要经过编码再到浏览器进行解码。这个过程的编解码字符集可以通过 response.setCharacterEncoding 来设置,它将会覆盖 request.getCharacterEncoding 的值,并且通过 Header 的 Content-Type 返回客户端,浏览器接受到返回的 socket 流时将通过 Content-Type 的 charset 来解码,如果返回的 HTTP Header 中 Content-Type 没有设置 charset,那么浏览器将根据 Html 的 &meta HTTP-equiv="Content-Type" content="text/ charset=GBK" /& 中的 charset 来解码。如果也没有定义的话,那么浏览器将使用默认的编码来解码。其它需要编码的地方除了 URL 和参数编码问题外,在服务端还有很多地方可能存在编码,如可能需要读取 xml、velocity 模版引擎、JSP 或者从数据库读取数据等。xml 文件可以通过设置头来制定编码格式 &?xml version="1.0" encoding="UTF-8"?&Velocity 模版设置编码格式: services.VelocityService.input.encoding=UTF-8JSP 设置编码格式: &%@page contentType="text/ charset=UTF-8"%&访问数据库都是通过客户端 JDBC 驱动来完成,用 JDBC 来存取数据要和数据的内置编码保持一致,可以通过设置 JDBC URL 来制定如 MySQL:url="jdbc:mysql://localhost:3306/DB?useUnicode=true&characterEncoding=GBK"。 常见问题分析在了解了 Java Web 中可能需要编码的地方后,下面看一下,当我们碰到一些乱码时,应该怎么处理这些问题?出现乱码问题唯一的原因都是在 char 到 byte 或 byte 到 char 转换中编码和解码的字符集不一致导致的,由于往往一次操作涉及到多次编解码,所以出现乱码时很难查找到底是哪个环节出现了问题,下面就几种常见的现象进行分析。中文变成了看不懂的字符例如,字符串“淘!我喜欢!”变成了“? ? ? ?? ? ??>>? ? ?”编码过程如下图所示字符串在解码时所用的字符集与编码字符集不一致导致汉字变成了看不懂的乱码,而且是一个汉字字符变成两个乱码字符。一个汉字变成一个问号例如,字符串“淘!我喜欢!”变成了“??????”编码过程如下图所示将中文和中文符号经过不支持中文的 ISO-8859-1 编码后,所有字符变成了“?”,这是因为用 ISO-8859-1 进行编解码时遇到不在码值范围内的字符时统一用 3f 表示,这也就是通常所说的“黑洞”,所有 ISO-8859-1 不认识的字符都变成了“?”。一个汉字变成两个问号例如,字符串“淘!我喜欢!”变成了“????????????”编码过程如下图所示这种情况比较复杂,中文经过多次编码,但是其中有一次编码或者解码不对仍然会出现中文字符变成“?”现象,出现这种情况要仔细查看中间的编码环节,找出出现编码错误的地方。一种不正常的正确编码还有一种情况是在我们通过 request.getParameter 获取参数值时,当我们直接调用 String value = request.getParameter(name);会出现乱码,但是如果用下面的方式 String value = String(request.getParameter(name).getBytes("
ISO-8859-1"), "GBK"); 解析时取得的 value 会是正确的汉字字符,这种情况是怎么造成的呢?看下如所示:这种情况是这样的,ISO-8859-1 字符集的编码范围是 0000-00FF,正好和一个字节的编码范围相对应。这种特性保证了使用 ISO-8859-1 进行编码和解码可以保持编码数值“不变”。虽然中文字符在经过网络传输时,被错误地“拆”成了两个欧洲字符,但由于输出时也是用 ISO-8859-1,结果被“拆”开的中文字的两半又被合并在一起,从而又刚好组成了一个正确的汉字。虽然最终能取得正确的汉字,但是还是不建议用这种不正常的方式取得参数值,因为这中间增加了一次额外的编码与解码,这种情况出现乱码时因为 Tomcat 的配置文件中 useBodyEncodingForURI 配置项没有设置为”true”,从而造成第一次解析式用 ISO-8859-1 来解析才造成乱码的。总结本文首先总结了几种常见编码格式的区别,然后介绍了支持中文的几种编码格式,并比较了它们的使用场景。接着介绍了 Java 那些地方会涉及到编码问题,已经 Java 中如何对编码的支持。并以网络 I/O 为例重点介绍了 HTTP 请求中的存在编码的地方,以及 Tomcat 对 HTTP 协议的解析,最后分析了我们平常遇到的乱码问题出现的原因。综上所述,要解决中文问题,首先要搞清楚哪些地方会引起字符到字节的编码以及字节到字符的解码,最常见的地方就是读取会存储数据到磁盘,或者数据要经过网络传输。然后针对这些地方搞清楚操作这些数据的框架的或系统是如何控制编码的,正确设置编码格式,避免使用软件默认的或者是操作系统平台默认的编码格式。
参考资料 ,详细描述了 Unicode 如何编码。
,详细介绍了 ISO-8859-1 的一些细节。
,详细描述了 URL 编码规范
,W3C 关于 HTTP 协议的详细描述。
查看文章 (developerWorks,2010 年 5 月):了解 Tomcat 中容器的体系结构,基本的工作原理,以及 Tomcat 中使用的经典的设计模式介绍。
,(developerWorks,2011 年 2 月):以 Tomcat 为例了解 Servlet 容器是如何工作的?一个 Web 工程在 Servlet 容器中是如何启动的? Servlet 容器如何解析你在 web.xml 中定义的 Servlet ?用户的请求是如何被分配给指定的 Servlet 的? Servlet 容器如何管理 Servlet 生命周期?你还将了解到最新的 Servlet 的 API 的类层次结构,以及 Servlet 中一些难点问题的分析。
:这里有数百篇关于 Java 编程各个方面的文章。
加入 。查看开发人员推动的博客、论坛、组和维基,并与其他 developerWorks 用户交流。
developerWorks: 登录
标有星(*)号的字段是必填字段。
保持登录。
单击提交则表示您同意developerWorks 的条款和条件。 查看条款和条件。
在您首次登录 developerWorks 时,会为您创建一份个人概要。您的个人概要中的信息(您的姓名、国家/地区,以及公司名称)是公开显示的,而且会随着您发布的任何内容一起显示,除非您选择隐藏您的公司名称。您可以随时更新您的 IBM 帐户。
所有提交的信息确保安全。
选择您的昵称
当您初次登录到 developerWorks 时,将会为您创建一份概要信息,您需要指定一个昵称。您的昵称将和您在 developerWorks 发布的内容显示在一起。昵称长度在 3 至 31 个字符之间。
您的昵称在 developerWorks 社区中必须是唯一的,并且出于隐私保护的原因,不能是您的电子邮件地址。
标有星(*)号的字段是必填字段。
(昵称长度在 3 至 31 个字符之间)
单击提交则表示您同意developerWorks 的条款和条件。 .
所有提交的信息确保安全。
文章、教程、演示,帮助您构建、部署和管理云应用。
立即加入来自 IBM 的专业 IT 社交网络。
为灾难恢复构建应用,赢取现金大奖。
static.content.url=/developerworks/js/artrating/SITE_ID=10Zone=Java technology, Web developmentArticleID=699832ArticleTitle=深入分析 Java 中的中文编码问题
publish-date=

我要回帖

更多关于 android url中文编码 的文章

 

随机推荐