Le origini dell'informatica, ma non solo.

Ciao a tutti.
Eccomi a proporvi un articolo sulle origini dell'informatica, ma non solo.
Questo articolo sarà suddiviso in varie parti.
Le origini dell'informatica.
L'uomo si è posto nell'andare del tempo di costruire uno strumento che era in grado di soddisfare alcune operazioni a lui noiose e complesse, soprattutto la cosa è nata dainumerosi calcoli matematici che ci si ritrovava a fare.
Da qui nascono i primi calcolatori, che non possiamo giudicare veri e propri computer, anche se essi sono sicuramente la base, questi calcolatori infatti non sanno fare altro che calcoli matematici.
Dopo unpo' di tempo si inizia a fare dei macchinari per i disegni su tela e questi macchinari hanno la caratteristica di funzionare con delle schede forate, in base a dove c'è il foro o meno la macchina traccia quel disegno.
Da qui prende lo spunto per la progettazione dei computer, che sono tutt'oggi in continua evoluzione.
Ma cosa si nascondeva dietro a queste schede forate che è ancora presente nei nostri pc?
Semplice si nascondeva il linguaggio binario, che sta alla base di tutto, un linguaggio basato solo su 2 valori 0 e 1 che mischiati in miliardi di combinazioni possono comporre tutto ciò che vediamo. Ma non solo dal linguaggio binario in particolare dai 2 numeri 0 e 1 prende il nome della unità principale che sta alla base di tutte che è il bit, che sta ad indicare appunto questi 2 valori, un insieme di bit che si è definito 8 bits forma il byte che è il vero e proprio carattere, al dilà di cosa esso sia, se è una lettera, numero, simbolo, o carattere speciale (alcunelingue richiedono il famoso dobluebyte poi che 8bits non sono a sufficienza per rappresentare i diversi caratteri).
Dal byte, nascono le diverse misure, che servono a determinare la capacità di archiviazione o di trasferimento, o a volte anche per altre molteplici misure, che sono più o meno conosciute. Abbiamo i kilo bytes  detti anche KB che sono esattamente 1024 bits per arrivare a questo numero dobbiamo prendere il numero 2 he è appunto un bits e elevarlo alla 10^, quindi per ottenere un kb bisogna fare 2^10. Poi abbiamo un mega bytes (1MB) che è 2^20 1 gigabytes (1GB) 2^30,  1 therabytes (1TB) che equivale a 2^40.
Cisono ancoraltre misure ma non andiamo ad identificarle tutte.
Dal fatto che per scrivere dei testi in diverse lingue servivano delle diverse codifiche, si è dovuto ricorrere a delle codifiche standard che racchiudessero un po' tutti i simboli in generali, la prima codifica che forse è anche la  più famosa che ancora oggi è un po' usata è la codifica ASCII. Che andremo a vedere nei dettagli successivamente.
Ricordo che un insieme di bytes elaborati e messi in modo ordinato e archiviati viene definito file, e un insieme di file cartelle, e un insieme di cartelle con la loro radice si definisce unità di archiviazione.
Per oggi è tutto, come vedete molta carne al fuoco, ma ci tengo davvero a sapere quanto vi sia interessato questo articolo e cosa vorreste approfondire.
Ciao.

0 commenti:

Posta un commento

I commenti sono moderati e gestiti dall'amministratore del blog.

Cerca nel blog

Popular Posts

Followers

Recent Comments