UTF-8

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

UTF-8 (от англ. Unicode Transformation Format, 8-bit — «формат преобразования Юникода, 8-битный») — одна из общепринятых и стандартизированных кодировок текста, которая позволяет хранить символы Unicode. Стандарт UTF-8 официально закреплён в документах RFC 3629 и ISO/IEC 10646 Annex D. Кодировка нашла широкое применение в UNIX-подобных операционных системах и веб-пространстве[1]. Сам же формат UTF-8 был изобретён 2 сентября 1992 года Кеном Томпсоном и Робом Пайком и реализован в Plan 9.[2] В качестве BOM использует последовательность байт EF16, BB16, BF16 (что у неё самой является трёхбайтовой реализацией символа FEFF16).

Одним из преимуществ является совместимость с ASCII — любые их 7-битные символы отображаются как есть, а остальные выдают пользователю мусор (шум). Поэтому в случае, если латинские буквы и простейшие знаки препинания (включая пробел) занимают существенный объём текста, UTF-8 даёт выигрыш по объёму по сравнению с UTF-16.[3][4]

Принцип кодирования[править | править исходный текст]

Правила записи кода одного символа в UTF-8[править | править исходный текст]

1. Если размер символа в кодировке UTF-8 = 1 байт

Код имеет вид (0aaa aaaa), где «0» — просто ноль, остальные биты «a» — это код символа в кодировке ASCII;

2. Если размер символа в кодировке в UTF-8 > 1 байт (то есть от 2 до 6):

2.1 Первый байт содержит количество байтов символа, закодированное в единичной системе счисления;
2 — 11
3 — 111
4 — 1111
5 — 1111 1
6 — 1111 11
2.2 «0» — бит терминатор, означающий завершение кода размера
2.3 далее идут значащие байты кода, которые имеют вид (10xx xxxx), где «10» — биты признака продолжения, а x — значащие биты.


В общем случае варианты представления одного символа в кодировке UTF-8 выглядят так:

(1 байт)  0aaa aaaa 
(2 байта) 110x xxxx 10xx xxxx
(3 байта) 1110 xxxx 10xx xxxx 10xx xxxx
(4 байта) 1111 0xxx 10xx xxxx 10xx xxxx 10xx xxxx (5 байт) 1111 10xx 10xx xxxx 10xx xxxx 10xx xxxx 10xx xxxx
(6 байт) 1111 110x 10xx xxxx 10xx xxxx 10xx xxxx 10xx xxxx 10xx xxxx

Пример:

Код BOM для UTF-8 = FEFF(16) = 1111 1110 1111 1111(2)
1 байт 2 байт 3 байт
(3 байта) 1110 xxxx 10xx xxxx 10xx xxxx
bin 1110 1111 1011 1011 1011 1111
hex
EF
BB
BF

Определение длины кода в UTF-8[править | править исходный текст]

Количество
байт UTF-8
Количество
значащих бит
1
7
2
+4 11
3
+5 16
4
+5 21
5
+5 26
6
+5 31

В общем случае количество значащих бит C, кодируемых n байтами UTF-8, определяется по формуле:

C = 7 при n=1

C = n*5+1 при n>1

Преобразование из UTF-32LE в UTF-8[править | править исходный текст]

Значащие биты в форме записи UTF-32LE располагаются подряд начиная с заполнения младшего байта. Задача преобразования UTF-32BE в UTF-8 сводится к выбору соответствующей формы UTF-8 и копированию значащих битов UTF-32LE без каких либо дополнительных преобразований. Если вам требуется быстро реализовать кодирование и раскодирование, то можете воспользоваться следующей схемой:

Числа на схеме означают:

1 — Дипазон значений в UTF-8
2 — (в скобках) количество значащих бит
3 — Инвертированная битовая маска.
4 — Дипазон значений (в десятичной системе счисления) для UTF-32LE.

UTF-8 Encoding Scheme.png

Очень часто требуется проверять наличие старших битов числа.
Следующий код на языке Си исключает случайные описки при наборе маски
#define UTF8_MASK( bits ) ( ~( int )0 << bits )

if ( !( value & UTF8_MASK( 7 ) ) ) // 7 - количество значащих бит.
// Можно подставлять также: 11, 16, 21, 26, 31.
{
// Выполняется, если у числа нет битов, установленных в "1", кроме младших 7 }
Предыдущий код будет заменен препроцессором на этот:
if ( !( value & 0xFFFFFF80 ) )
{
}

Примеры последовательностей[править | править исходный текст]

В таблице ниже значения представлены в шестнадцатеричной системе счисления. Порядок байт в значении больше байта: Little Endian. На практике для каждого значения выбирается представление с минимальной длиной байт (большие — не рациональны; остальные представлены для наглядности и тестов кодировщиков).

Значение 1 байт 2 байта 3 байта 4 байта 5 байт 6 байт
0000
(NUL)
00 C0 80 E0 80 80 F0 80 80 80 F8 80 80 80 80 FC 80 80 80 80 80
0073
(малая латинская «s»)
73 C1 B3 E0 81 B3 F0 80 81 B3 F8 80 80 81 B3 FC 80 80 80 81 B3
041A
(большая кириллическая «К»)
- D0 9A E0 90 9A F0 80 90 9A F8 80 80 90 9A FC 80 80 80 90 9A
0BF5
(«௵» — год на тамильском)
- - E0 AF B5 F0 80 AF B5 F8 80 80 AF B5 FC 80 80 80 AF B5
D7FF
(последний символ перед суррогатом UTF-16)
- - ED 9F BF F0 8D 9F BF F8 80 8D 9F BF FC 80 80 8D 9F BF
D800
(первый символ суррогатов UTF-16)
- - ED A0 80 F0 8D A0 80 F8 80 8D A0 80 FC 80 80 8D A0 80
DFFF
(последний символ суррогатов UTF-16)
- - ED BF BF F0 8D BF BF F8 80 8D BF BF FC 80 80 8D BF BF
E000
(первый символ после суррогатов UTF-16)
- - EE 80 80 F0 8E 80 80 F8 80 8E 80 80 FC 80 80 8E 80 80
26218
(«𦈘» — китайский иероглиф)
- - - F0 A6 88 98 F8 80 A6 88 98 FC 80 80 A6 88 98
10FFFF
(максимальный код Unicode)
- - - F4 8F BF BF F8 84 8F BF BF FC 80 84 8F BF BF
110000
(первый код после максимального Unicode)
- - - F4 90 80 80 F8 84 90 80 80 FC 80 84 90 80 80
ABCDEF
(произвольное 5-байтовое)
- - - - F8 AA BC B7 AF FC 80 AA BC B7 AF
7FFFFFFF
(максимальный код UCS-4)
- - - - - FD BF BF BF BF BF

Максимальный потенциал[править | править исходный текст]

До этого рассматривалось кодирование в UTF-8 лишь 32-битных целых без отрицательных значений. Следует отметить, что в стандарте Unicode используются символы лишь до кода 0010FFFF16 включительно. Поэтому даже 32-битных значений может вполне хватить, но этот раздел был включён для полноты изложения в случае использования UTF-8 для кодирования несимвольных данных.

Алгоритм UTF-8 технически позволяет записывать код любой длины. Но для эффективной и надёжной работы алгоритма необходимо ограничение длины кода. Действующий стандарт Unicode 6.х предполагает использование кода до 21-го бита, то есть до четырех байт в UTF-8.

Кодирование битовых цепочек[править | править исходный текст]

Занимает байт Кодирует бит Представление кода по алгоритму UTF-8
1 7 0xxx-xxxx
2 11 110x-xxxx 10xx-xxxx
3 16 1110-xxxx 10xx-xxxx 10xx-xxxx
4 21 1111-0xxx 10xx-xxxx 10xx-xxxx 10xx-xxxx
5 26 1111-10xx 10xx-xxxx 10xx-xxxx 10xx-xxxx 10xx-xxxx
6 31 1111-110x 10xx-xxxx 10xx-xxxx 10xx-xxxx 10xx-xxxx 10xx-xxxx
7 36 1111-1110 10xx-xxxx 10xx-xxxx 10xx-xxxx 10xx-xxxx 10xx-xxxx 10xx-xxxx
8 41 1111-1111 100x-xxxx 10xx-xxxx 10xx-xxxx ... 10xx-xxxx
9 46 1111-1111 1010-xxxx 10xx-xxxx 10xx-xxxx .... 10xx-xxxx
10 51 1111-1111 1011-0xxx 10xx-xxxx 10xx-xxxx ..... 10xx-xxxx
11 56 1111-1111 1011-10xx 10xx-xxxx 10xx-xxxx ...... 10xx-xxxx
12 61 1111-1111 1011-110x 10xx-xxxx 10xx-xxxx ....... 10xx-xxxx
13 66 1111-1111 1011-1110 10xx-xxxx 10xx-xxxx ........ 10xx-xxxx
14 71 1111-1111 1011-1111 100x-xxxx 10xx-xxxx ......... 10xx-xxxx
15 76 1111-1111 1011-1111 1010-xxxx 10xx-xxxx .......... 10xx-xxxx
16 81 1111-1111 1011-1111 1011-0xxx 10xx-xxxx ........... 10xx-xxxx
17 86 1111-1111 1011-1111 1011-10xx 10xx-xxxx ............ 10xx-xxxx
18 91 1111-1111 1011-1111 1011-110x 10xx-xxxx ............. 10xx-xxxx
19 96 1111-1111 1011-1111 1011-1110 10xx-xxxx .............. 10xx-xxxx
20 101 1111-1111 1011-1111 1011-1111 100x-xxxx ............... 10xx-xxxx

Диапазоны Unicode[править | править исходный текст]

В таблице ниже представлены диапазоны кодирования символов Unicode в UTF-8.

Коды символов Unicode (HEX) Размер в UTF-8 Представленные классы символов
00000000 — 0000007F 1 байт ASCII, в том числе латинский алфавит, простейшие знаки препинания и арабские цифры
00000080 — 000007FF 2 байта кириллица, расширенная латиница, арабский, армянский, греческий, еврейский и коптский алфавит; сирийское письмо, тана, нко; МФА; некоторые знаки препинания
00000800 — 0000FFFF 3 байта все другие современные формы письменности, в том числе грузинский алфавит, индийское, китайское, корейское и японское письмо; сложные знаки препинания; математические и другие специальные символы
00010000 — 001FFFFF 4 байта музыкальные символы, редкие китайские иероглифы, вымершие формы письменности, 00110000 — 001FFFFF не используется в Unicode
00200000 — 03FFFFFF 5 байт не используется в Unicode
04000000 — 7FFFFFFF 6 байт не используется в Unicode

Отличительные значения байтов[править | править исходный текст]

Отличительные значения байтов представлены в первую очередь для использования в алгоритмах автоматического определения кодировки текста. Первичным признаком можно считать BOM, которая повышает вероятность использования той или иной кодировки (см. отдельную статью). Другим признаком является обнаружение не валидных или сильно маловероятных байт, или же наоборот вероятных. Здесь же следует отметить, что UTF-8 поддерживает кодирование 31-битных кодов UCS-4. Если речь касается символов Unicode, то пяти- и шестибайтовые значения оказываются сильно маловероятными. И есть ещё один примечательный момент — в кодировке UTF-8 возможно избыточное кодирование, что порождает многозначность. Например, ASCII-символ можно закодировать шестью вариантами байтовых последовательностей, но это не означает не валидность избыточных байтовых последовательностей. И здесь можно впасть в заблуждение когда первый байт содержит только нулевые биты значения — для последовательностей выше двух байт исключительно это нормально.

Все значения представлены в шестнадцатеричной системе счисления. Под значением «сильно маловероятен» в колонке «статус» следует рассматривать использование кодировщика, который не отбрасывает лидирующие нули.

Значение байта Статус Значение
00..7F без сомнений ASCII-символы.
80..BF без сомнений Любой не первый байт символа.
С0..C1 избыточное кодирование Первый байт двухбайтового символа, который содержит ASCII-код.
C2..DF без сомнений Первый байт двухбайтового символа.
E0 небольшие сомнения Первый байт трёхбайтового символа, но им же могут начинаться символы с избыточным кодированием (последовательности E0 80 и E0 81).
E1..EF без сомнений Первый байт трёхбайтового символа.
F0 небольшие сомнения Первый байт четырёхбайтового символа, но им же могут начинаться символы с избыточным кодированием (последовательности F0 80 A0 и ниже по последнему байту).
F1..F7 без сомнений Первый байт четырёхбайтового символа.
F8 небольшие сомнения Первый байт пятибайтового символа, но им же могут начинаться символы с избыточным кодированием (последовательности F0 80 и F0 87).
F9..FB без сомнений Первый байт пятибайтового символа, не используется для кодирования Unicode.
FC небольшие сомнения Первый байт шестибайтового символа, но им же могут начинаться символы с избыточным кодированием (последовательности FС 80 и F0 83).
FD без сомнений Первый байт шестибайтового символа, не используется для кодирования Unicode.
FE..FF не возможны при кодировании вплоть до 31 бита У первого байта символа устанавливается столько старших битов, сколько байтов отводится под символ. Их конец обозначается терминальным битом 0, а оставшиеся биты соответствуют старшим битам значения. Байты 254 и 255 в двоичной системе: 111111102 и 111111112 соответствуют длинам 7 и 8, а длина 31 бит может быть закодирован шестью байтами.

UTF-8 и ошибки кодирования/декодирования[править | править исходный текст]

Примеры ниже приведены для быстрой ориентации в случаях некорректного декодирования текста (так называемые кракозябры).

Так выглядит фраза «Человек сейчас увидит лишь то, что ожидает увидеть.» если она воспринята декодировщиком в кодировке Windows-1251, а не UTF-8:


Человек сейчас увидит лишь то, что ожидает увидеть.

Фраза «Человек сейчас увидит лишь то, что ожидает увидеть.» при двойном кодировании UTF-8 в UTF-8:


Человек сейчас увидит лишь то, что ожидает увидеть.

Самосинхронизация и UTF-16[править | править исходный текст]

Самосинхронизацию в UTF-8 можно рассмотреть когда вашей программе подаются случайные байты и вам нужно определить начало первого символа. Первичным признаком является сброшенный старший бит байта — это ASCII-символ. Если же он установлен, то пропускаем те байты, у которых сброшен бит перед старшим. В остальных случаях можно продолжать посимвольное поточное раскодирование.

UTF-8 обладает свойством самосинхронизации при обработке 8-битными байтами. Альтернативной UTF-8 является кодировка UTF-16, которая уже обрабатывается 16-битными словами. Возможно возникновение сомнения что UTF-16 не является самосинхронизирующейся. В настоящий момент передача данных в компьютере в подавляющем большинстве производится цельными октетами — 8 бит или ничего (см. IPv4, IPv6, SATA для современной аппаратуры и ATA с PATA для недавней). В данных условиях UTF-8 имеет преимущество в характеристике самосинхронизации перед UTF-16, если речь касается аппаратной передачи данных или работы с байтовым потоком (чтение Unicode-данных с произвольной позиции). Если же работа осуществляется в оперативной памяти одной машины, то UTF-16 так же является самосинхронизирующейся (если аппаратура способна подавать цельные 16-битные слова).

См. также[править | править исходный текст]

Примечания[править | править исходный текст]

Ссылки[править | править исходный текст]


Кодировки символов
Основы алфавиттекстфайлданные ) • набор символовконверсия
Исторические кодировки Докомп.: семафорная (Макарова)МорзеБодоМТК-2
Комп.: 6-битнаяУППRADIX-50EBCDICДКОИ-8 ) • КОИ-7ISO 646
современное
8-битное
представление
символы ASCIIуправляющиепечатные ) • не-ASCIIпсевдографика )
8-битные код.стр. Кириллица: КОИ-8ГОСТ 19768-87MacCyrillic
ISO 8859 1 (лат.)2345 (кир.)6789101112131415 (€)16
Windows 12501251 (кир.)1252125312541255125612571258WGL4
IBM & DOS 437850852855866 «альт.»МИКНИИ ЭВМ
Многобайтные Традиционные DBCSGB2312 ) • HTML
Unicode UTF-16UTF-8список символовкириллица )
Связанные темы интерфейс пользователяраскладка клавиатурылокальперевод строкишрифткракозябрытранслитнестандартные шрифтытекст как изображение
Утилиты iconvrecode