Don't take life too seriously: it's just a temporary situation

Rappresentazione dei numeri

Rappresentazione dei numeri  Vari 

Indice

  1. 1. Pagina principale
  2. 2. Rappresentazione degli interi
  3. 3. Rappresentazione in basi naturali differenti da 10
  4. 4. Rappresentazione in base 2
  5. 5. Rappresentazione in base 12
  6. 6. Rappresentazione in basi diverse dai numeri naturali
  7. 7. Rappresentazione dei numeri razionali
  8. 8. Rappresentazione dei numeri reali

Due è la base della notazione binaria, che molti ritengono legata allo sviluppo dei calcolatori, a torto, perché se è vero che i calcolatori ne fanno uso, è anche vero che l’idea è molto più antica.

 

Nel tredicesimo secolo in Inghilterra era in uso un sistema di misure per liquidi composto da ben 13 unità: tun, pipe, hogshead, barrel, kilderkin, firkin o bushel, demi-bushel, peck, gallon, pottle, quart, pint, chopin, gill. Ciascuna (tranne la minima) era pari al doppio di quella inferiore e alcune sopravvivono ancora oggi.

 

Non si trattava però di una vera notazione binaria, per la quale si dovette aspettare il 1605, quando Thomas Harriot (Oxford, 1560 – Londra, 2/7/1621) la trattò. Harriot inventò anche i simboli oggi comunemente utilizzati per indicare “maggiore” e “minore” (v. notazione matematica), ma per motivi ignoti non pubblicò mai i suoi lavori.

 

Nello stesso periodo Francis Bacon (Londra, 22/1/1561 – Highgate, Inghilterra, 9/4/1626) utilizzò la notazione binaria in un metodo di cifratura dei testi. Non si trattava però di una notazione per usi aritmetici, bensì di una rappresentazione di numeri, che a loro volta codificavano lettere.

 

La prima trattazione della rappresentazione binaria pubblicata risale al 1670 e si deve al vescovo spagnolo Juan Caramuel Lobkowitz (Madrid, 23/5/1606 — Vigevano 8/9/1682), che trattò la rappresentazioni di interi in varie basi, incluse 2, 3 e 7, senza però fornire esempi di come svolgere le operazioni e senza suscitare grande interesse.

 

Leibniz lavorò sull’aritmetica binaria sin dal 1679 e nel 1703 presentò all’Accademia francese un articolo, intitolato Explication de l'Arithmétique Binaire, che molti considerano la vera introduzione dell’aritmetica binaria, completo di regole per l’esecuzione di tutte le operazioni.

Leibniz fece notare come usando un sistema di misure binario si possano pesare oggetti col minimo numero di pesi di riferimento (usando una bilancia a due piatti) e come sia possibile pagare ogni somma col minimo numero di monete, se è disponibile una scala di monete, ciascuna di valore doppio della precedente. Le tabelline di moltiplicazione diventano inoltre ridicolmente semplici e la divisione si riduce a una successione di passi elementari semplicissimi. Questo per il grande filosofo compensava abbondantemente lo svantaggio di dover maneggiare molte più cifre (un numero in notazione binaria richiede generalmente oltre il triplo di cifre dello stesso numero rappresentato in notazione decimale).

 

Gli appunti di Charles Babbage (Londra, 26/12/1791 – Londra, 18/10/ 1871) nel 1838 mostrano che considerò seriamente la base 2 per il suo “motore analitico”, precursore meccanico dei moderni calcolatori.

 

Alla fine degli anni ’30 in Francia, Germania e Stati Uniti furono sviluppati circuiti elettronici per l’aritmetica binaria, ma i primi calcolatori programmabili, realizzati nella seconda metà degli anni ’40, utilizzavano ancora l’aritmetica decimale.

 

Nella seconda metà del XX secolo l’introduzione dei calcolatori elettronici rese comune (almeno per gli specialisti del settore) l’uso della base 2 e delle sue potenze, in particolare 8 e 16.

 

All’interno dei calcolatori elettronici rappresentazione e aritmetica binarie sono molto più convenienti di quelle decimali, anche se poi è necessario convertire i risultati in base 10 per poterli scrivere. Uno dei primi linguaggi per calcolatori, il COBOL, nato negli anni ’60 e (purtroppo) mai abbandonato, prevedeva tuttavia vari tipi di rappresentazioni interne decimali, per semplificare, o almeno così si pensava, il lavoro dei programmatori, creando un’orribile confusione tra rappresentazione interna ed esterna dei dati.

Le resistenze psicologiche all’abbandono della rappresentazione decimale erano evidentemente fortissime e il successo (assolutamente immeritato) del COBOL (è tuttora il linguaggio di programmazione più usato al mondo!) ebbe un notevole influsso sul progetto dei circuiti, tanto che per oltre mezzo secolo moltissimi calcolatori hanno incluso operazioni decimali nella loro architettura. Persino la fortunata famiglia di processori Intel, seppur basata su una rappresentazione interna binaria come tutti i processori moderni, contiene istruzioni per eseguire le quattro operazioni in rappresentazione decimale.

Bibliografia

  • Bellos, Axel;  Il meraviglioso mondo dei numeri, Torino, Einaudi, 2011 -

    Trad. di Alex’s Adventures in Numberland. Dispatches from the Wonderful World of Mathematics, 2010.

  • Pickover, Clifford A.;  Il liβro della mαtematica, Modena, Logos, 2012 -

    Trad. di The Math Book, Sterling Publishing Co., Inc., 2009

  • Winkler, Peter;  Mathematical Puzzles, Wellesley, A.K. Peters Ltd., 2004.

Contattami

Potete contattarmi al seguente indirizzo bitman[at]bitman.name per suggerimenti o segnalazioni d'errori relativi a questo articolo.