Computer quantistici, la sfida dei nipotini dell’abaco

Computer quantistici, a 56 qubit dal futuro. Ecco la sfida dei nipotini dell’abaco.

Il futuro dell’informatica passa dagli atomi e il bit cede il passo al qubit con una potenza di calcolo per queste macchine mai vista prima nella storia. Il Quantum Computing apre a nuove possibilità e prevede applicazioni nel mondo della farmaceutica, ma anche nuovi materiali hi-tech e l’analisi di ingenti quantità di dati, permettendo lo sviluppo di fini intelligenze artificiali o l’implemento della cybersicurezza.

Veronica Nicosia ci racconta tutto nel numero otto di ‘O Magazine.

“Computer quantistici con informazioni che viaggiano attraverso i fotoni. Il futuro dell’informatica passa dagli atomi e dal “Quantum computing”, la computazione quantistica. Supercomputer con potenze di calcolo sempre superiori aprono gli orizzonti a intelligenze artificiali e applicazioni inimmaginabili solo fino a qualche anno fa. Il bit cede il passo al qubit, ma la strada per arrivare a questo risultato è lunga.

In principio fu l’abaco. Uno strumento per la computazione in uso tra i babilonesi, i romani e i cinesi. Una tavoletta con scanalature numerate e pietre mobili disposte in modo da poter eseguire calcoli. Poi la macchina di Anticitera, datata tra il 150 e il 100 a.C., un planetario sofisticato, mosso da ruote dentate e in grado di calcolare il sorgere del sole, le fasi lunari, equinozi e date dei giochi olimpici. Una macchina considerata il vero primo computer della storia. Calcoli sempre più difficili richiedevano però l’esigenza di essere eseguiti e strumenti più potenti erano necessari.

Ecco allora comparire l’astrolabio nel Medioevo, fino alla prima vera svolta verso i computer moderni: Giovanni Nepero nel XVII secolo introdusse i logaritmi, operatori numerici in grado di semplificare calcoli anche molto complessi. Da allora l’evoluzione dei calcolatori ha subìto un’accelerazione esponenziale. Dalla Pascalina del matematico francese Blaise Pascal del 1642, considerata l’antenata della odierna calcolatrice, alla Stepped Reckoner di Gottfried Willhelm Leibniz del 1694, dove per la prima volta fu usato un codice basato su “vero” e “falso”, un codice binario che per semplicità definì le due opzioni “zero” e “uno”.

A sfruttare le potenzialità del codice binario fu George Boole, teorico dell’algebra booleana, che nel 1854 creò un sistema in cui ogni relazione logica, e dunque le operazioni, potevano trovare risposta attraverso l’1 e lo 0. Un’algebra alla base delle macchine sviluppate da Charles Babbage e la sua assistente Ada Lovelace Byron, considerata la prima programmatrice della storia. Macchine in grado di eseguire i calcoli necessari alla compilazione di tavole matematiche.

La necessità di eseguire calcoli, elaborare informazioni e immagazzinare dati però non poteva esaurirsi, anzi cresceva ancora. Così mentre Alan Turing durante la Seconda Guerra Mondiale gettava le basi per la creazione delle moderne intelligenze artificiali, partendo dalla sua “macchina di Turing”, altri si chiedevano quale “lingua” i computer dovessero parlare. Il codice binario dell’algebra booleana a due valori, questa sembrava la risposta…”.

Per tutte le risposte basta sfogliare il numero otto di ‘O Magazine.

Abbonati subito!

2018-11-28T12:08:31+00:00

Redazione

Via Aldo Moro 481 - 03100 Frosinone

Editore: Fondazione 262

Via Aldo Moro 481 - 03100 Frosinone