Le origini dell'informatica Parte 2

Ciao a tutti.
Eccoci con la seconda parte sulle origini dell'informatica.
Oggi ci occupiamo delle codifiche dei caratteri che vengono utilizzate.
La prima codifica riconosciuta è la codifica ASCII (American Standard Code Information Interchange. ovvero codifica americana standard per lo scambio di informazioni).
Questa codifica nasce nel 1968, a quei tempi inizia con uno standard di 7 bit, ma poi ben presto ci si accorge che non è sufficiente quindi si passa a quella 8 bit, come detto nello scorso articolo 8 bit equivalgono nell'informatica ad un byte cioè un carattere.
I problemi comunque alla fine si presentano lo stesso, soprattutto con lingue complesse come il cinese, il coreano ecc., e quindi ci si accorge che 8 bit per queste lingue non sono in grado di rappresentare tutti i vari simboli.
Così alla fine si decide per una nuova codifica che tra l'altro è la codifica che sta rimpiazzando l'ASCII e si tratta cioè della codifica UTF-8 (Unicode Transformation 8 bit, ovvero trasformazione unicode a 8 bit).
Questa nuova codifica è in grado di supportare addiritura per una lettera fino a 4 bytes, anche di più in realtà, ma è stata ufficialmente bloccata sullo standard a 4 bytes che riesce a rappresentare tutte le lingue più complesse in un'unica codificaa. Ovviamente questa codifica non comprende solo le lingue più complesse, ma anche gli alfabeti più comuni, tra i quali c'è il nostro alfabeto.
Questa codifica con l'andare del tempo si sta trasformando, e a volte nascono delle codifiche diverse da quella ufficiale, ciò nonostante l'UTF-8 riconosciuto realmente è quello definito nello standard RFC 3629.
LUTF-8 è particolarmente usato e richiesto dallo standard IETF (Internet Engineering Task Force) su internet proprio per evitare una cattiva rappresentazione delle diverse lingue.
Per domande scrivetemi qui.

A presto.

0 commenti:

Posta un commento

I commenti sono moderati e gestiti dall'amministratore del blog.

Cerca nel blog

Popular Posts

Followers

Recent Comments