NOME

perluniintro - introduzione a Unicode in Perl

DESCRIZIONE

Questo documento fornisce un'idea generale di Unicode e di come usarlo in Perl.

Unicode

Unicode è uno standard per la codifica dei caratteri che progetta di codificare tutti i metodi di scrittura del mondo, e molti altri simboli ancora.

Unicode e ISO/IEC 10646 sono due standard coordinati che forniscono "code point" per ciascun carattere di praticamente tutti gli standard di codifica carattere moderni, coprendo oltre 30 sistemi di scrittura e centinaia di linguaggi, inclusi tutti i linguaggi moderni di importanza commerciale. Sono codificati anche tutti i caratteri dei voluminosi dizionari cinesi, giapponesi e coreani. Lo standard arriverà a coprire sostanzialmente tutti i caratteri di oltre 250 sistemi di scrittura e di migliaia di linguaggi.

Un carattere Unicode è un'entità astratta. Non è limitato da alcuna particolare dimensione dei tipi interi, in particolare non è limitato al char del linguaggio C. Unicode è indipendente dal linguaggio e dall'aspetto grafico: non codifica la lingua del testo e non definisce font o altri dettagli di rappresentazione grafica. Unicode si occupa di caratteri e di testi composti da tali caratteri.

Unicode definisce caratteri come LATIN CAPITAL LETTER A (``lettera A latina maiuscola'', NdT), o GREEK SMALL LETTER ALPHA (``lettera alpha greca minuscola'', NdT), e numeri univoci per tali caratteri, in questo caso 0x0041 e 0x03B1, rispettivamente. Questi numeri univoci sono chiamati code point ("punti codice", NdT).

Lo standard Unicode preferisce usare la notazione esadecimale per i code point. Se numeri come 0x0041 vi sono poco familiari, date un'occhiata alla sezione "Notazione esadecimale", più sotto. Lo standard Unicode usa la notazione U+0041 LATIN CAPITAL LETTER A, per indicare il code point esadecimale e il nome normativo del carattere.

Unicode definisce altresì svariate proprietà dei caratteri, come "maiuscolo" o "minuscolo", "cifra decimale", o "punteggiatura"; queste proprietà sono indipendenti dal nome dei caratteri. Inoltre, alcune operazioni sui caratteri, come conversioni tra maiuscole e minuscole, e "collazione" (ordinamento), sono definite dallo standard.

Un carattere Unicode può cosistere di un singolo code point, oppure di un carattere base (ad esempio LATIN CAPITAL LETTER A), seguito da uno o più modificatori (ad esempio COMBINING ACUTE ACCENT "accento acuto da combinare"). Questa sequenza di carattere base e modificatori viene chiamata sequenza di caratteri combinati ("combining character sequence" in inglese, NdT).

Se chiamare o no queste sequenze "caratteri" dipende dal vostro punto di vista. Se siete un programmatore, probabilmente tenderete a vedere ciascun elemento della sequenza come una unità distinta, o "carattere". D'altro canto, l'intera sequenza può essere vista come "carattere" dal punto di vista dell'utente, poiché probabilmente viene considerata tale nel contesto della sua lingua.

Secondo questa visione dei caratteri come "l'intera sequenza", il numero totale di caratteri è un concetto poco chiaro. Ma nell'idea del programmatore, "ciascuna unità è un carattere", il concetto di "carattere" è molto più deterministico. In questo documento, assumiamo questo secondo punto di vista: un "carattere" è un code point Unicode, sia un carattere base o un carattere da combinare.

Per alcune combinazioni, esistono caratteri precombinati. LATIN CAPITAL LETTER A WITH ACUTE ("lettera A latina maiuscola con accento acuto", NdT), ad esempio, è definito come singolo code point. Questi caratteri precombinati, comunque, esistono solo per alcune combinazioni, e sono previsti principalmente per supportare conversioni avanti-e-indietro tra Unicode e standard precedenti (come ad esempio i vari ISO 8859). Nel caso generale, il metodo di composizione è più estendibile. Per supportare conversioni tra i vari modi di comporre i caratteri, sono state definite varie forme di normalizzazione ("normalization forms" in inglese, NdT) per produrre rappresentazioni uniformi.

Per mantenere la compatibilità con le codifiche precedenti, l'idea di "un numero unico per ciascun carattere" non si realizza del tutto: invece, c'è "almeno un numero per ciascun carattere". Lo stesso carattere potrebbe essere rappresentato in modo diverso in diverse codifiche. Neppure l'inverso è sempre vero: alcuni code point non hanno un corrispondente carattere assegnato. In primo luogo, esistono code point non allocati all'interno di blocchi altrimenti usati. In secondo luogo, ci sono speciali caratteri di controllo Unicode che non rappresentano veri e propri "caratteri".

Un'idea diffusa relativamente a Unicode sostiene che sia "a 16 bit", ovvero, che Unicode sia rappresentato da 0x10000 (ovvero 65536) caratteri, da 0x0000 a 0xFFFF. Ciò è falso. A partire dalla versione 2.0, Unicode è stato definito fino a 21 bit (0x10FFFF), e dalla versione 3.1 sono stati definiti caratteri oltre 0xFFFF. I primi 0x10000 caratteri sono chiamati il Piano 0, o Basic Multilingual Plane (BMP). Con Unicode 3.1, sono definiti in totale 17 piani, anche se ancora non sono affatto pieni di caratteri definiti.

Un'altra idea diffusa è che i blocchi di 256 caratteri abbiamo qualcosa a che vedere con le lingue -- che ciascun blocco definisca i caratteri usati in una lingua o insieme di lingue. Neanche questo è vero. La divisione in blocchi esiste, ma è quasi del tutto accidentale -- un effetto collaterale del modo con cui i caratteri sono stati, e sono ancora, allocati. Invece, esiste il concetto di script, che è molto più utile: c'è lo script Latin, lo script Greek, et cetera. Gli script di solito coprono varie parti di diversi blocchi. Per maggiori informazioni, leggete Unicode::UCD.

I code point Unicode sono soltanto numeri, astratti. Per essere comunicati, questi numeri devono essere codificati ("encoded" in inglese, NdT) in qualche modo. Unicode definisce svariate forme di codifica dei caratteri, di cui UTF-8 è forse la più nota. UTF-8 è una codifica a lunghezza variabile che rappresenta i caratteri Unicode come sequenze da 1 a 6 byte (se ci si limita ai caratteri attualmente definiti ne bastano 4). Altre codifiche sono UTF-16 e UTF-32, e le loro varianti big-endian e little-endian (UTF-8 è invariante). Lo standard ISO/IEC 10646 definisce le forme UCS-2 e UCS-4.

Per ulteriori informazioni sulle codifiche -- ad esempio, per sapere cosa sono i surrogati e i byte order marks (BOM) -- leggete perlunicode.

Il supporto Unicode in Perl

A partire da Perl 5.6.0, Perl ha avuto la capacità di gestire nativamente Unicode. Ad ogni modo, Perl 5.8.0 è la minima versione raccomandata per lavorare seriamente con Unicode. La versione di manutenzione 5.6.1 ha corretto molti dei problemi della prima implementazione di Unicode, ma ad esempio le espressioni regolari ancora non funzionano con Unicode nella 5.6.1.

A partire da Perl 5.8.0, l'uso di use utf8 non è più necessario. In versione precedenti la direttiva utf8 era usata per dichiarare che le operazioni del blocco o file corrente avrebbero dovuto tener conto di Unicode. Si è scoperto che questo modello era sbagliato, o quantomeno scomodo: la "Unicodità" è ora associata ai dati, anziché alle operazioni. Resta solo un caso in cui serve un esplicito use utf8: se il vostro stesso script Perl è codificato in UTF-8, potete usare caratteri Unicode negli identificatori, nelle costanti stringa e nelle espressioni regolari, scrivendo use utf8. Questo non è il comportamento predefinito perché script salvati in altre codifiche a 8 bit (ad esempio ISO 8859-1) provocherebbero errori. Cfr. utf8.

Il modello Unicode di Perl

Perl supporta sia stringhe di caratteri nativi a 8 bit, come prima della 5.6, che stringhe di caratteri Unicode. Il principio è che Perl tenta di mantenere i dati come byte più a lungo possibile, ma quando non è più possibile evitare la "Unicodità", i dati vengono automaticamente convertiti in Unicode.

Internamente, al momento, Perl usa la codifica a 8 bit nativa della piattaforma (ad esempio Latin-1), qualunque essa sia, usando UTF-8 per codificare le stringhe Unicode. In particolare, se tutti i code point nella stringa sono minori di 0xFF, Perl usa la codifica a 8 bit nativa. Altrimenti usa UTF-8.

Un utente di Perl normalmente non deve preoccuparsi di come Perl codifichi internamente le stringhe, ma ciò diventa rilevante quando si scrivono stringhe Unicode in un canale ("stream", NdT) senza uno strato PerlIO -- un canale con la codifica predefinita. In questo caso, i byte della codifica interna (quella nativa, o UTF-8, a seconda della stringa), vengono usati pari pari, e verrà emesso un avvertimento di "Wide character" se tali stringhe contengono caratteri oltre 0xFF.

Ad esempio,

perl -e 'print "\x{DF}\n", "\x{0100}\x{DF}\n"'              

produce una mistura piuttosto inutile di byte in codifica nativa e UTF-8, oltre che un avvertimento:

Wide character in print at ...

Per emettere UTF-8, usate lo strato :utf8. Inserendo

binmode(STDOUT, ":utf8");

prima di print in questo programma di esempio ci si assicura che l'output sia interamente UTF-8, e si elimina l'avvertimento.

Se le vostre variabili di ambiente per il locale (LANGUAGE, LC_ALL, LC_CTYPE, LANG) contengono la stringa 'UTF-8' o 'UTF8' in maiuscolo o minuscolo, la codifica assunta di STDIN, STDOUT, STDERR e di ogni file che verrà aperto sarà UTF-8. Notare che ciò implica che Perl si aspetta che tutti gli altri programmi facciano altrettanto: se Perl è portato a credere che STDIN sia in UTF-8, ma i dati che arrivano da un altro programma su STDIN non sono in UTF-8, Perl si lamenterà che gli sta arrivando UTF-8 malformato.

Tutte le funzionalità che combinano Unicode e I/O richiedono l'uso della nuova caratteristica PerlIO. Praticamente tutte le piattaforme di Perl 5.8, comunque, usano PerlIO: potete controllare se la vostra lo usa eseguendo "perl -V" e cercando "useperlio=define".

Unicode e EBCDIC

Perl 5.8.0 supporta Unicode anche sulle piattaforme EBCDIC. Su di esse, il supporto Unicode è alquanto più complesso da implementare poiché sono nessarie conversioni aggiuntive a ogni passo. Restano alcuni problemi, leggete perlebcdic per i dettagli.

Ad ogni modo, il supporto Unicode sulle piattaforme EBCDIC è migliore che nella serie 5.6, che in pratica non funzionava affatto. Sulle piattaforme EBCDIC la codifica interna è UTF-EBCDIC, anziché UTF-8. La differenza sta nel fatto che, come UTF-8 è "ASCII-safe" nel senso che i caratteri ASCII hanno una codifica identica in UTF-8, UTF-EBCDIC è "EBCDIC-safe".

Creare Unicode

Per creare caratteri Unicode nelle costanti per code point oltre 0xFF, usate la notazione \x{...} all'interno di stringhe con virgolette doppie:

my $sorriso = "\x{263a}";

Potete fare altrettanto nelle espressioni regolari costanti:

$sorriso =~ /\x{263a}/;

A tempo di esecuzione potete usare chr():

my $alef_ebraica = chr(0x05d0);

Leggete le "Ulteriori risorse" per sapere come trovare tutti questi codici numerici.

Naturalmente, ord() esegue l'operazione inversa: trasforma un carattere in un code point.

Notate che \x.. (senza {} e con solo due cifre esadecimali), \x{...} e chr(...) con argomenti minore di 0x100 (256 in decimale) producono caratteri a 8 bit per compatibilità all'indietro con versioni precedenti di Perl. Per argomenti maggiori o uguali a 0x100, vengono sempre prodotti caratteri Unicode. Se volete forzare la produzione di caratteri Unicode indipendentemente dal valore numerico, usate pack("U", ...) anziché \x.., \x{...} e chr().

Potete anche usare la direttiva charnames per chiamare i caratteri per nome nelle stringhe con virgolette doppie:

use charnames ':full';
my $alef_araba = "\N{ARABIC LETTER ALEF}";

E, come detto prima, potete usare pack() per convertire numeri in caratteri Unicode:

my $an_georgiana  = pack("U", 0x10a0);

Notate che sia \x{...} che \N{...} sono costanti stringa risolte a tempo di compilazione: non potete metterci dentro delle variabili. Se volete funzionalità simili a tempo di esecuzione, usate chr() e charnames::vianame().

Notate anche che se tutti i code point passati a pack "U" sono inferiori a 0x100, verranno generati byte, proprio come se usaste chr().

my $bytes = pack("U*", 0x80, 0xFF);

Se volete forzare la produzione di caratteri Unicode, usate lo speciale prefisso "U0". Non consuma argomenti, ma forza il risultato ad essere composto di caratteri Unicode, anziché di byte:

my $caratteri = pack("U0U*", 0x80, 0xFF);

Gestire Unicode

Nella maggior parte dei casi, gestire Unicode è trasparente: usate semplicemente le stringhe come sempre. Funzioni come index(), length() e substr() lavorano sui caratteri Unicode, così come le espressioni regolari (leggete perlunicode e perlretut).

Ricordate che Perl considera i componenti delle sequenze di caratteri combinati come caratteri, per cui ad esempio

use charnames ':full';
print length("\N{LATIN CAPITAL LETTER A}\N{COMBINING ACUTE ACCENT}"), "\n";

scriverà 2, non 1. L'unica eccezione è che le espressioni regolari hanno \X che fa match con una sequenza di caratteri combinati.

La gestione non è proprio così trasparente, ad ogni modo, quando si lavora con altre codifiche, I/O, e alcuni casi speciali.

Altre codifiche

Quando combinate dati Unicode e dati in codifiche precedenti, questi ultimi devono essere trasformati in Unicode. Normalmente viene assunto che i dati non-Unicode siano codificati secondo ISO 8859-1 (o EBCDIC, sulle opportune piattaforme). Potete aggirare questa assunzione usando la direttiva encoding, ad esempio:

use encoding 'latin2'; # ISO 8859-2

nel qual caso le costanti (stringhe o espressioni regolari), chr() e ord() in tutto il vostro script produrranno caratteri Unicode a partire da code point in ISO 8859-2. Notate che la corrispondenza dei nomi delle codifiche è lasca: invece che latin2 potreste aver scritto Latin 2 o iso8859-2, o altre varianti. Dicendo soltanto

use encoding;

la codifica viene estratta dalla variabile di ambiente PERL_ENCODING. Se tale variabile non è impostata, la direttiva fallirà.

Il modulo Encode sa trattare molte codifiche e fornisce interfacce per convertire tra tali codifiche:

use Encode 'from_to';
from_to($data, "iso-8859-3", "utf-8"); # da latin-3 a utf-8

I/O in Unicode

Normalmente, scrivendo su file dati Unicode

print FH $qualche_stringa_in_unicode, "\n";

si ottengono i byte che Perl usa internamente per rappresentare la stringa Unicode. La codifica interna del Perl dipende sia dal sistema che da quali caratteri sono presenti al momento nella stringa. Se qualcuno dei caratteri ha code point 0x100 o maggiore, otterrete un avvertimento. Per essere sicuri che l'output venga prodotto nella codifica che volete -- ed evitare gli avvertimenti -- aprite il canale specificando la codifica. Alcuni esempi:

open FH, ">:utf8", "file";

open FH, ">:encoding(ucs2)",      "file";
open FH, ">:encoding(UTF-8)",     "file";
open FH, ">:encoding(shift_jis)", "file";

e su canali già aperti, usate binmode():

binmode(STDOUT, ":utf8");

binmode(STDOUT, ":encoding(ucs2)");
binmode(STDOUT, ":encoding(UTF-8)");
binmode(STDOUT, ":encoding(shift_jis)");

La corrispondenza dei nomi di codifica è lasca: maiuscole e minuscole sono uguali, e molte codifiche hanno svariati sinonimi. Notare che lo strato :utf8 deve essere sempre specificato esattamente in quel modo; non viene trattato come gli altri nomi di codifica.

Leggete PerlIO per lo strato :utf8, PerlIO::encoding e Encode::PerlIO per lo strato :encoding(), e Encoding::Supported per le tante codifiche supportate dal modulo Encode.

Leggere da un file di cui conoscete la codifica non trasforma magicamente i dati in Unicode per quanto riguarda Perl. Per farlo, specificato l'opportuno strato all'apertura del file:

open(my $fh,'<:utf8', 'file_in_utf8');
my $linea_in_unicode = <$fh>;

open(my $fh,'<:encoding(Big5)', 'file_in_Big5');
my $linea_in_unicode = <$fh>;

Gli strati di I/O possono essere anche specificati con la direttiva open. Leggete open, o analizzate l'esempio seguente.

use open ':utf8'; # gli strati di input e output di default saranno UTF-8
open X, ">file";
print X chr(0x100), "\n";
close X;
open Y, "<file";
printf "%#x\n", ord(<Y>); # dovrebbe scrivere 0x100
close Y;

Con la direttiva open potete usare lo strato :locale

$ENV{LC_ALL} = $ENV{LANG} = 'ru_RU.KOI8-R';
# :locale controllera` le variabili di ambiente come LC_ALL
use open OUT => ':locale'; # russki parusski
open(O, ">koi8");
print O chr(0x430); # Unicode CYRILLIC SMALL LETTER A = KOI8-R 0xc1
close O;
open(I, "<koi8");
printf "%#x\n", ord(<I>), "\n"; # dovrebbe scrivere 0xc1
close I;

oppure potete usare anche lo strato :encoding(...)

open(my $epic,'<:encoding(iso-8859-7)','iliad.greek');
my $linea_in_unicode = <$epic>;

Questi metodi installano un filtro trasparente sui canali di I/O che converte i dati dalla codifica specificata quando vengono letti dal canale. Il risultato è sempre in Unicode.

La direttiva open influisce su tutte le chiamate a open() dopo la direttiva, impostando gli strati di default. Se volete influenzare solo certi canali, usate gli strati esplicitamente nella chiamata a open().

Potete cambiare la codifica di un canale già aperto usando binmode; leggete "binmode" in perlfunc.

Lo strato :locale al momento (Perl 5.8.0) non fusnziona con open() e binmode(), solo con la direttiva open. Gli strati :utf8 e :encoding(...) funzionano con tutte, open(), binmode() e la direttiva open.

In modo analogo, potete usare questi strati di I/O sui canali di uscita per convertire automaticamente Unicode nelle codifiche specificate quando i dati vengono scritti sul canale. Ad esempio, il frammento seguente copia il contenuto del file "testo.jis" (codificato secondo ISO 2022-JP, noto anche come JIS) nel file "testo.utf8", codificato in UTF-8:

open(my $nihongo, '<:encoding(iso2022-jp)', 'testo.jis');
open(my $unicode, '>:utf8',                 'testo.utf8');
while (<$nihongo>) { print $unicode }

La denominazione delle codifiche, sia per open() che per la direttiva open, è analoga a quella della direttiva encoding in quanto permette di usare sinonimi: koi8-r e KOI8R verranno riconosciuti entrambi.

Vengono riconosciute molte codifiche comuni definite da ISO, MIME, IANA e svariate altre organizzazioni di standard; per un'elenco più dettagliato leggere Encode::Supported.

read() legge caratteri e restituisce il numero di caratteri. seek() e tell() lavorano contando i byte, così pure sysread() e sysseek().

Fate attenzione che, a causa del fatto che non viene effettuata alcuna conversione in lettura se non c'è nessuno strato di default, è facile sbagliarsi e scrivere codice che continua ad allungare un file codificando ripetutamente i dati:

# ATTENZIONE CODICE SBAGLIATO
open F, "file";
local $/; ## legge l'intero file come caratteri a 8 bit
$t = <F>;
close F;
open F, ">:utf8", "file";
print F $t; ## scrive convertendo in UTF-8
close F;

Se eseguite questo codice due volte, il contenuto del file verrà codificato in UTF-8 due volte. Si può evitare il problema scrivendo use open ':utf8', oppure aprendo esplicitamente il file in lettura in UTF-8.

NOTA: :utf8 e :encoding funzionano solo se il vostro interprete Perl è stato compilato con le nuove funzionalità PerlIO.

Mostrare Unicode Come Testo

Certe volte potreste voler mostrare scalari Perl contenenti Unicode come semplice testo ASCII (o EBCDIC). La subroutine seguente converte i suoi argomenti in modo che i caratteri Unicode con code point maggiore di 255 vengano mostrati come \x{...}, i caratteri di controllo (come \n) vengano mostrati come \x.., e gli altri caratteri non subiscano trasformazioni:

sub nice_string {
    join("",
      map { $_ > 255 ?                  # se carattere esteso...
            sprintf("\\x{%04X}", $_) :  # \x{...}
            chr($_) =~ /[[:cntrl:]]/ ?  # altrimenti, se controllo...
            sprintf("\\x%02X", $_) :    # \x..
            chr($_)                     # altrimenti identici
      } unpack("U*", $_[0]));           # unpack caratteri Unicode
}

Ad esempio,

nice_string("foo\x{100}bar\n")

restituisce:

'foo\x{0100}bar\x0A'

Casi Particolari

  • Operatori di complemento di bit ~ e vec()

    L'opertatore di complemento di bit ~ può produrre risultati inattesi se usato su stringhe contenenti caratteri con valori ordinali superiore a 255. In questi casi, i risultati sono consistenti con la codifica interna dei caratteri, ma non con molto altro. Per cui non fatelo. In maniera simile, con vec() stareste lavorando con le sequenze di bit della rappresentazione interna dei caratteri Unicode, non sui valori dei code point, e molto probabilmente non è quello che volete.

  • Sbirciare nella codifica interna di Perl

    I normali utenti di Perl non dovrebbero mai preoccuparsi di come Perl codifichi internamente le stringhe Unicode (perché i metodi normali di accedere a tali stringhe -- tramite input e output -- dovrebbero avvenire sempre attraverso strati di I/O definiti esplicitamente). Ma se proprio volete, ci sono due modi di guardare dietro le quinte.

    Un modo consiste nell'usare unpack("C*", ...) per ottenere i byte, o unpack("H*", ...) per mostrare i byte:

    # stampa  c4 80  dati i byte UTF-8 0xc4 0x80
    print join(" ", unpack("H*", pack("U", 0x100))), "\n";

    L'altro modo consiste nell'usare il modulo Devel::Peek:

    perl -MDevel::Peek -e 'Dump(chr(0x100))'

    Questo mostra in FLAGS il flag UTF8 e in PV sia i byte UTF-8 sia i caratteri Unicode. Leggete anche più avanti in questo documento la descrizione della funzione is_utf8 del modulo Encode.

Argomenti avanzati

  • Equivalenza di stringhe

    La definizione di equivalenza tra stringhe diventa piuttosto complessa in Unicode: cosa si intende per "uguali"?

    (LATIN CAPITAL LETTER A WITH ACUTE è uguale a LATIN CAPITAL LETTER A?)

    La risposta semplice è che per default Perl decide l'equivalenza (eq, ne) basandosi solo sui code point dei caratteri. Nel caso di cui sopra, la risposta è no (poiché 0x00C1 != 0x0041). Ma certe volte, tutte le CAPITAL LETTER A dovrebbero essere considerate uguali, o forse anche le A minuscole.

    La risposta completa è che dovete considerare i problemi di normalizzazione e conversione maiuscole/minuscole: leggete Unicode::Normalize, Unicode Technical Reports ("Rapporti Tecnici" NdT) numero 15 e 21, Unicode Normalization Forms ("Forme di normalizzazione Unicode" NdT) e Case Mappings ("Corrispondenze maiuscole/minuscole" NdT), http://www.unicode.org/unicode/reports/tr15/ e http://www.unicode.org/unicode/reports/tr21/

    Da Perl 5.8.0, viene implementato il case-folding "Full" definito in Case Mappings/SpecialCasing.

  • Ordinamento di stringhe

    Molti vorranno vedere le loro stringhe belle ordinate -- o, in terminologia Unicode, "collazionate" ("collated" NdT). Ma di nuovo, cosa si intende per "ordinare"?

    (LATIN CAPITAL LETTER A WITH ACUTE viene prima o dopo LATIN CAPITAL LETTER A WITH GRAVE?)

    La risposta semplice è che per default Perl confronta le stringhe (lt, le, cmp, ge, gt) basandosi solo sui code point dei caratteri. Nel caso di cui sopra, la risposta è "dopo", poiché 0x00C1 > 0x00C0.

    La risposta completa è "dipende", e una buona definizione non può essere fornita senza conoscere (quanto meno) la lingua cui ci si riferisce. Leggete Unicode::Collate, e Unicode Collation Algorithm ("Algoritmi di collazione Unicode" NdT) http://www.unicode.org/unicode/reports/tr10/

Varie

  • Intervalli e classi di caratteri

    Gli intervalli di caratteri nelle classi di caratteri delle espressioni regolari (/[a-z]/) e nell'operatore tr/// (noto anche come y///) non sono magicamente dipendenti da Unicode. Ciò significa che [A-Za-z] non indicherà magicamente "tutti i caratteri alfabetici"; in effetti non lo indica neppure per i caratteri a 8 bit: dovreste usare [[:alpha:]] in quel caso.

    Per specificare classi di caratteri come queste nelle espressioni regolari, potete usare le varie proprietà Unicode -- \pL, o forse \p{Alphabetic}, in questo caso. Potete usare code point Unicode come estremi degli intervalli, ma non c'è nessuna magia particolare associata alla specifica di un certo intervallo. Per maggiori informazioni -- esistono dozzine di classi di caratteri Unicode -- leggete perlunicode.

  • Conversioni da stringa a numero

    Unicode definisce svariati altri caratteri decimali -- e numerici -- in aggiunta alle familiari cifre da 0 a 9, come ad esempio le cifre arabe e indiane. Perl non supporta convesioni da stringa a numero per cifre diverse dai caratteri ASCII da 0 a 9 (e da 'a' a 'f' per l'esadecimale).

Domande e risposte

  • I miei vecchi programmi continueranno a funzionare?

    Molto probabilmente sì. Tranne nel caso che stiate generando in qualche modo caratteri Unicode, tutte le vecchie funzionalità dovrebbero essere conservate. Probabilmente l'unica che è cambiata e che potrebbe cominciare a generare Unicode è il fatto che chr() quando riceveva un argomento maggiore di 255 restituiva il carattere modulo 256. chr(300), ad esempio, era uguale a chr(45), o "-" (in ASCII); ore è LATIN CAPITAL LETTER I WITH BREVE.

  • Come faccio a far funzionare i miei programmi con Unicode?

    Dovrebbe essere necessario ben poco lavoro, poiché non cambia nulla finché non generate dati Unicode. La cosa più importante è ottenere l'input in Unicode; per far ciò, leggete la precedente discussione sull'I/O.

  • Come faccio a sapere se la mia stringa è in Unicode?

    Non dovreste preoccuparvene. No, davvero: lasciate stare. Davvero. Se dovete -- a parte i casi visti prima -- vuol dire che non abbiamo reso il supporto Unicode abbastanza trasparente.

    Va bene, se proprio insistete:

    use Encode 'is_utf8';
    print is_utf8($string) ? 1 : 0, "\n";

    Ma notate che questo non significa necessariamente che i caratteri nella stringa siano codificati in UTF-8, o che i caratteri abbiano code point maggiori di 0xFF (255) e neppure 0x80 (128), o che la stringa contenga alcun carattere. Tutto quello che fa la funzione is_utf8() è di restituire il valore del flag interno di "utf8sità" associato a $string. Se il flag è a zero, i byte nella stringa vengono interpretati secondo una qualche codifica a singolo byte. Se il flag è a uno, i byte vengono interpretati come la codifica (a byte multipli, a lunghezza variabile) in UTF-8 dei code point dei caratteri. I byte aggiunti a una stringa codificata in UTF-8 sono automaticamente convertiti in UTF-8. Se vengono mescolati scalari UTF-8 e non (interpolazione dentro vigolette doppie, concatenazione esplicita, e sostituzione di parametri in printf/sprintf), il risultato sarà codificato in UTF-8 come se le copie delle stringhe non in UTF-8 fossero state convertite: ad esempio, in

    $a = "ab\x80c";
    $b = "\x{100}";
    print "$a = $b\n";

    la stringa stampata sarà ab\x80c\x{100}\n codificata in UTF-8, ma notate che $a continuerà ad essere interpretata come stringa di byte.

    Qualche volta potreste davvero voler conoscere la lunghezza in byte di una stringa, anziché la sua lunghezza in caratteri. Per questo potete usare la funzione Encode::encode_utf8() o la direttiva bytes e la sua unica funzione definita length():

    my $unicode = chr(0x100);
    print length($unicode), "\n"; # stampa 1
    require Encode;
    print length(Encode::encode_utf8($unicode)), "\n"; # stampa 2
    use bytes;
    print length($unicode), "\n"; # stampa di nuovo 2
                                  # (i 0xC4 0x80 dell'UTF-8)
  • Come rilevo dati non validi in una particolare codifica?

    Usate il modulo Encode per provare a convertirli. Ad esempio,

    use Encode 'encode_utf8';
    if (encode_utf8($stringa_di_byte_che_penso_sia_utf8)) {
        # valido
    } else {
        # non valido
    }

    Solo nel caso di UTF-8, potete usare:

    use warnings;
    @chars = unpack("U0U*", $stringa_di_byte_che_penso_sia_utf8);

    Se i dati non sono validi, verrà prodotto un avvertimento Malformed UTF-8 character (byte 0x##) in unpack ("carattere UTF-8 malformato (byte 0x##) in unpack" NdT) Quel "U0" significa "aspettati Unicode codificato esattamente secondo UTF-8". Senza, unpack("U*", ...) accetterebbe anche cose come chr(0xFF), come il pack che abbiamo visto prima.

  • Come faccio a convertire dati binari in una codifica particolare, o vice versa?

    Probabilmente non è così utile come pensate. Normalmente, non dovreste averne bisogno.

    In un certo senso, la domanda non ha molto senso: le codifiche sono per i caratteri, e i dati binari non sono "caratteri", per cui convertire "dati" in qualche codifica non ha senso, tranne nel caso in cui sappiate che i "dati" siano in una certa codifica per un certo insieme di caratteri, nel qual caso però non sarebbero soltanto dati binari, vero?

    Se avete una sequenza di byte che volete sia interpretata secondo una certa codifica, potete usare Encode:

    use Encode 'from_to';
    from_to($data, "iso-8859-1", "utf-8"); # da latin-1 a utf-8

    La chiamata a from_to() cambia i byte in $data, ma niente di rilevante è cambiato riguardo alla natura della stringa dal punto di vista di Perl. Sia prima che dopo la chiamata, la stringa $data contiene soltanto una sfilza di byte. Per quanto riguarda Perl, la codifica della stringa resta "sequenza di byte".

    Potete correlare questo fatto al funzionamento di un ipotetico modulo 'Traduci':

    use Traduci;
    my $frase = "Si`";
    Traduci::from_to($frase, 'italiano', 'english');
    ## $frase ora contiene "Yes"

    Il contenuto della stringa cambia, ma non la natura della stringa. Perl, sia prima che dopo la chiamata, non sa che il contenuto della stringa indica un'affermazione.

    Torniamo alle conversioni di dati. Se avete (o volete) dati nella codifica 8 bit nativa del vostro sistema (es. Latin-1, EBCDIC, etc.) potete usare pack/unpack per convertire da/verso Unicode.

    $stringa_nativa  = pack("C*", unpack("U*", $stringa_Unicode));
    $stringa_Unicode = pack("U*", unpack("C*", $stringa_nativa));

    Se avete una sequenza di byte che sapete essere UTF-8 valido, ma Perl non lo sa ancora, potete convincerlo:

    use Encode 'decode_utf8';
    $Unicode = decode_utf8($bytes);

    Potete convertire UTF-8 ben formato in una sequenza di byte, ma se volete convertire dati binari a caso in UTF-8, non potete. Non tutte le sequenze casuali di byte sono UTF-8 ben formato. Potete usare unpack("C*", $stringa) per la prima operazione, e potete creare dati Unicode ben formati con pack("U*", 0xff, ...).

  • Come mostro Unicode? Come inserisco Unicode?

    Leggete http://www.alanwood.net/unicode/ e http://www.cl.cam.ac.uk/~mgk25/unicode.html

  • Come si comporta Unicode con i "locale"?

    In Perl, non molto bene. Evitate di usare i "locale" tramite la direttiva locale. Usate solo uno dei due: o Unicode, o i "locale".

Notazione esadecimale

Lo standard Unicode preferisce usare la notazione esadecimale perché mostra più chiaramente la divisione dei code point in blocchi da 256. L'esadecimale è anche più breve del decimale. Potete anche usare la notazione decimale, ma imparando a usare l'esadecimale farete molta meno fatica con lo standard Unicode. La notazione U+HHHH, ad esempio, è in esadecimale.

Il prefisso 0x indica un numero esadecimale, le cifre sono 0-9 e a-f (o A-F, non fa differenza). Ciascuna cifra rappresenta quattro bit, ovvero mezzo byte. print 0x..., "\n" mostra numeri esadecimali in decimale, e printf "%x\n",$decimale fa l'inverso. Se avete solo le "cifre esadecimali" di un numero, potete usare la funzione hex().

print 0x0009, "\n";    # 9
print 0x000a, "\n";    # 10
print 0x000f, "\n";    # 15
print 0x0010, "\n";    # 16
print 0x0011, "\n";    # 17
print 0x0100, "\n";    # 256

print 0x0041, "\n";    # 65

printf "%x\n",  65;    # 41
printf "%#x\n", 65;    # 0x41

print hex("41"), "\n"; # 65

Ulteriori risorse

  • Consorzio Unicode

    http://www.unicode.org/
  • Domande comuni su Unicode

    http://www.unicode.org/unicode/faq/
  • Glossario Unicode

    http://www.unicode.org/glossary/
  • Risorse utili per Unicode

    http://www.unicode.org/unicode/onlinedat/resources.html
  • Supporto Unicode e multi-lingua in HTML, font, browser web e altre applicazioni

    http://www.alanwood.net/unicode/
  • Domande comuni su UTF-8 e Unicode per Unix/Linux

    http://www.cl.cam.ac.uk/~mgk25/unicode.html
  • Insiemi di caratteri precedenti a Unicode

    http://www.czyborra.com/
    http://www.eki.ee/letter/
  • I file di supporto a Unicode si trovano all'interno dell'installazione Perl nella directory

    $Config{installprivlib}/unicore

    in Perl 5.8.0 o successivi, e

    $Config{installprivlib}/unicode

    in Perl 5.6. (Il cambio di nome in lib/unicore è stato fatto per evitare conflitti con lib/Unicode in file system che non distinguono tra maiuscole e minuscole.) Il file di dati Unicode principale è UnicodeData.txt (o Unicode.301 in Perl 5.6.1.) Potete trovare la directory $Config{installprivlib} eseguendo

    perl "-V:installprivlib"

    Potete esplorare le varie informazioni provenienti dai file di dati Unicode usando il modulo Unicode::UCD.

UNICODE IN PERL PRECEDENTI

Se non potete aggiornare a Perl 5.8.0 o successivi, potete comunque fare un po' di elaborazione Unicode usando i moduli Unicode::String, Unicode::Map8, e Unicode::Map, disponibili da CPAN. Se avete installato il programma GNU recode, potete anche usare il modulo Convert::Recode per le conversioni tra codifiche.

Queste sono rapide conversioni da byte ISO 8859-1 (Latin-1) a byte UTF-8. Il codice funziona anche con versioni precedenti di Perl 5.

# da ISO 8859-1 a UTF-8
s/([\x80-\xFF])/chr(0xC0|ord($1)>>6).chr(0x80|ord($1)&0x3F)/eg;

# da UTF-8 a ISO 8859-1
s/([\xC2\xC3])([\x80-\xBF])/chr(ord($1)<<6&0xC0|ord($2)&0x3F)/eg;

VEDI ANCHE

perlunicode, Encode, encoding, open, utf8, bytes, perlretut, Unicode::Collate, Unicode::Normalize, Unicode::UCD

RINGRAZIAMENTI

Grazie ai gentili lettori delle liste perl5-porters@perl.org, perl-unicode@perl.org, linux-utf8@nl.linux.org, e unicore@unicode.org per i loro preziosi commenti.

AUTORE, COPYRIGHT, E LICENZA

Copyright 2001-2002 Jarkko Hietaniemi <jhi@iki.fi>

Questo documento può essere distribuito secondo gli stessi termini del Perl.

TRADUZIONE

Versione

La versione su cui si basa questa traduzione è ottenibile con:

perl -MPOD2::IT -e print_pod perlfaq7

Per maggiori informazioni sul progetto di traduzione in italiano si veda http://pod2it.sourceforge.net/ .

Traduttore

Traduzione a cura di Gianni Ceccarelli.

Revisore

Revisione a cura di Michele Beltrame.

1 POD Error

The following errors were encountered while parsing the POD:

Around line 936:

Non-ASCII character seen before =encoding in 'è'. Assuming CP1252