E FU IL SISTEMA BINARIO _ Da Meccanica ad Elettromeccanica ad Elettronica

 

 

Passati più di 50 anni dalle invenzioni di Babbage, nel 1889 Herman Hollerith creò una macchina per statistica a schede perforate elettromeccanica, utilizzata in occasione del censimento degli Stati Uniti, un lavoro di portata notevole dato che si trattava di un periodo di intense immigrazioni. Ad ogni domanda del censimento corrispondeva un contatore che registrava meccanicamente le risposte date da ogni individuo censito, facendo risparmiare addirittura anni di lavoro agli impiegati statali. La macchina leggeva le schede traforate fatte di carta, quindi non elettroconduttrici: erano grandi come un dollaro e venivano punzonate tramite l’uso di uno strumentino dedicato; venivano poi selezionate da spazzolini elettrici e lette da una batteria di contatori ad aghi retrattili che venivano immersi in una vaschetta di mercurio per chiudere o meno il circuito a seconda della presenza o meno del foro sulla scheda. L’impulso elettrico azionava un relé che faceva avanzare di uno scatto i contatori a lancette, che erano installati in una sorta di console. Si deve notare che in questa macchina le schede perforate però non sono ancora istruzioni programmanti un dispositivo, ma solo mezzi di input e output. Finito il lavoro di censimento durato sei anni, Hollerith fonda la Tabulating Machines Co. nel 1896, che unita poi a International Time Recording Company (fondata nel 1900) e Computing Scale Company of America (fondata a sua volta nel 1907) divenne la Computing Tabulating Recording Company che nel 1911 divenne la International Businness Machines con sede a Endicott, NY: era nata l’IBM, uno dei principali “nemici” degli hacker 50 anni dopo.

 

 

Il Sistema Binario

 

Il passo per arrivare ad un calcolatore come lo conosciamo oggi non sta solo nella tecnologia dei supporti, ma anche nel metodo di gestione ed elaborazione dei dati. Hollerith, ad esempio, aveva già utilizzato in un certo senso una forma di linguaggio binario applicato agli impulsi elettrici: infatti in base a I/O ovvero circuito aperto o chiuso, si aveva un determinato risultato, ma non si era ancora pensato al sistema binario come base per un linguaggio. Il sistema binario si basa su una convenzione secondo la quale una cifra scritta alla sinistra di un’altra acquista un valore due volte maggiore di quello della cifra precedente. Anche il sistema binario è un tipo di numerazione posizionale, dove la cifra più a destra rappresenta l’unità, seguita poi a sinistra dalla decina, centinaia, migliaia e via di seguito. Ogni posizione è una potenza di due. Il calcolo in base due, ovvero con le cifre da 0 a 1, è conosciuto da molti secoli ancora da prima dell’ipotesi delle macchine per calcoli. I primi esempi si trovano addirittura dal II secolo a.C. in India nel Chandassastra (o Chandassutra) di Pingala, antico matematico indiano, il quale in questa opera diede laprima descrizione conosciuta di sistema di calcolo binario. Pingala parlava di un sistema metrico composto da “sillabe” corte e lunghe, rappresentate come sequenze di 0 e 1; le sillabe lunghe avevano la lunghezza di due sillabe corte. Ad esempio:

  • 0 0 0 0 valore= 1
  • 1 0 0 0 valore= 2
  • 0 1 0 0 valore= 3
  • 1 1 0 0 valore= 4

È da notare però che per Pingala “0000” corrispondeva a quattro sillabe corte e non valeva 0 come si intende nel sistema binario moderno, ma 1. Nell’XI secolo il filosofo cinese Shao Yong determinò un metodo di divinazione chiamato I Ching. I simboli dell’I Ching consistevano in una serie di otto trigrammi, delle figure composte da tre linee orizzontali intere o divise in due segmenti le quali combinate a due a due davano degli esagrammi. Le linee intere erano gli Yang, corrispondenti ad 1, mentre quelle segmentate Yin corrispondevano a 0 che combinate assieme davano dei valori da 1 a 64. Si può considerare questo metodo come una forma di calcolo in base binaria, anche se probabilmente non era questo il fine di Shao. Anche nell’Africa sub-sahariana alcune pratiche sacre funzionavano basandosi su sistema binario, ma anche in questo caso era un approccio diverso da quello moderno. Nel 1605 il filosofo e politico inglese Francis Bacon Visconte di St. Albans avviò una discussione su un metodo che permettesse di ricondurre le lettere dell’alfabeto in cifre binarie, codificabili senza particolari variazioni nel font di un qualsiasi testo. Inoltre Bacon definì la seguente metodica applicabile ad ogni tipo di soggetto:

 

“Provided those objects be capable of a twofold difference only;

as by Bells, by Trumpets, by Lights and Torches, by the report of Muskets,

and any instruments of like nature.”

“Si afferma che questi oggetti siano capaci di una sola duplice differenza*;

come Campane, Trombe,Luci e Torce, la detonazione dei Moschetti,

e qualsiasi strumento di natura simile.”(*intesa come valore)

 

Anche il vescovo matematico spagnolo Juan Caramuel y Lobkowitz in uno scritto del 1670 espose i principi generali della rappresentazione dei numeri usando una base diversa da 10. Circa 70 anni dopo Gottfried Leibniz studiò il sistema binario così come lo si conosce oggi, constatò inoltre con un certa soddisfazione come gli esagrammi I Ching corrispondessero ai numeri binari da 0 a 111111. Leibniz definì la convenzione della base due; altri, quasi duecento anni dopo, applicando queste basi diedero il via definitivo alla rivoluzione. Oggi per dare alla macchina istruzioni più complesse con meno stringhe di testo, oltre al binario si sono cominciati ad utilizzare anche il sitema ottale (in base 8 ) e quello esadecimale (in base 16), facilmente traducibili in binario dalla macchina in quanto potenze di due.

George Boole, squattrinato matematico autodidatta, interessato anche in filosofia, latino e altre materie umanistiche, grazie ai suoi scritti ricevette riconoscimenti e premi durante l’arco della sua breve vita, morì a soli 49 anni nel 1854 per polmonite e forse la scelta poco felice del trattamento medico scelto dalla moglie Mary, anch’ella insegnate e matematica, potrebbe averne affrettato il verificarsi. Sembra infatti che dopo aver preso un raffreddore sotto la pioggia, Boole fu messo a letto dalla moglie, la quale buttò secchi di acqua sul suo corpo, convinta della teoria che qualsiasi cosa avesse causato la malattia avrebbe anche fornito la cura (e qui si parla di logica). Ad ogni modo Boole con lo scritto del 1847 “The Mathematical Analysis of Logic” (L’analisi matematica della logica) e il suo proseguimento del 1854, “An Investigation of the Laws of Thought” (Un esame sulle leggi logiche del pensiero), dimostrò come il pensiero logico, privato ovviamente delle sue parti emotive, possa essere letto come una serie di scelte, quindi una sequenza di eventi elementari, come VERO/FALSO, ON/OFF, I/O, che assieme diventano un algoritmo. Rilevò le analogie tra oggetti della logica con oggetti dell’algebra definendo una nuova disciplina matematica: l’”algebra Booleana”, la quale darà le fondamenta ai linguaggi di programmazione ed elaborazione di tutti computer, creando le basi per strumenti che lui forse nemmeno immaginava.

Nel 1938 Claude Shannon, all’epoca ventiduenne dalla mente brillante presentò, presso il Massachusetts Institute of Technology, la tesi “A Symbolic Analysis of Relay and Switching Circuits” (Un’analisi simbolica dei relè e dei circuiti), con la quale dimostrò che il fluire di un segnale elettrico attraverso una rete di interruttori, che possono essere “accesi/spenti”, segue esattamente le regole dell’algebra di Boole (corrisponde cioè con i due valori VERO/FALSO della logica simbolica ). In particolare quest’ultima, unita alle regole della matematica binaria, può essere utilizzata per semplificare i procedimenti elettromeccanici e di conseguenza dei sistemi di relè elettrici organizzati secondo la logica dei due valori, possono essere utilizzati per risolvere molti tipi di operazioni, anche di tipo logico. Sostanzialmente diede una dimostrazione pratica della MdT, il cui creatore ebbe l’occasione di incontrare per un thè cinque anni dopo. Il lavoro di Shannon sta alla base delle moderne teorie dell’informazione, delle telecomunicazioni e del funzionamento dei computer. Nel 1948 egli pubblicò anche un trattato intitolato “A Mathematical Theory of Communication” (Una teoria matematica della comunicazione), dove illustrò la “Teoria dell’informazione” che affrontava il problema di ricostruire, con il maggior grado di certezza possibile, delle informazioni trasmesse da un mittente. Sta in questo scritto sostanzialmente la base dell’informatica1 e fu qui inoltre che coniò il termine “bit” cioè unità elementare d’informazione. Seguì poi un altro notevole saggio l’anno successivo, “Communication Theory of Secrecy Systems” (Teoria della comunicazione dei sistemi crittografici), nel quale oltre a definire una teoria matematica per la crittografia, definì il “teorema del campionamento” che studiava la rappresentazione di un segnale continuo tramite un insieme discreto di campioni di segnale ad intervalli regolari, ovvero il passaggio da analogico a digitale. Digitalizzare, infatti, non vuol dire altro che rendere misurabile, numerabile (dall’inglese digit = cifra) e quindi ripetibile un segnale che di fatto non lo è (analogico). Il teorema comparso in questo articolo del 1949 inoltre dichiara precisamente che per evitare ambiguità nel passaggio, la minima frequenza di campionamento necessaria nella ricostruzione del segnale analogico originario (ovvero nella riconversione da digitale ad analogico) con larghezza di banda finita e nota è pari al doppio della sua frequenza massima. Un altro merito di Shannon furono la creazione e sperimentazione di intelligenze artificiali “imparanti”. Nel 1956 fu nominato professore di scienze presso l’MIT, pur continuando le proprie ricerche nei laboratori Bell fino al 1972. Le possibilità di realizzare concretamente i sogni di Babbage, Ada Lovelace, Menabrea e altri sognatori sconosciuti, arriveranno però, con un po’ di amaro in bocca, durante la II Guerra Mondiale, durante la quale si resero disponibili i finanziament necessari. E si cominciò a volare.

 

 

[1]  _ Quando Philip Dreyfus nel 1962 coniò questo termine (dal francese “information electronique ou automatique”), sicuramente intendeva il trattamento automatico dell’informazione mediante calcolatore.

 

 

 

Enigma, ENIAC & Co raccontano >>

 

 

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

*

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>