Quantum revolution

Ho sempre pensato che ci sia una stretta relazione tra la nostra visione del mondo e gli strumenti, le macchine e le tecnologie con le quali ci interfacciamo. Un esempio lampante sono le nuove generazioni: i nativi digitali, per loro natura, sono abituati a essere interconnessi, ad adottare il multitasking, a reagire con velocità (anche se con meno profondità).

Alla luce di questo, appare naturale chiedersi come sarà la generazione successiva, anche quella dei nuovi manager.

Penso di essermi dato una prima risposta dopo aver visto lavorare un computer quantistico e averne compreso la stretta correlazione con l’intelligenza artificiale.

Andiamo con ordine.

Un computer classico lavora su un elemento di base (bit) che può assumere un solo valore (0 o 1).

L’elemento di base di un computer quantistico invece è il Qbit, che risponde alle regole della meccanica quantistica. Le proprietà fisiche di un Qbit sono difficili da spiegare in poche righe, diciamo che una di queste, ovvero la sovrapponibilità degli stati, gli permette di assumere contemporaneamente (con una certa probabilità) entrambi i valori (quindi 0,1 o una combinazione dei due).

Volendo fare un paragone (forse un po’ ardito) possiamo pensare a un sentiero. Il bit, di fronte a un bivio, ha una sola scelta, destra o sinistra. Il qbit può farle entrambi.

Due bit possono assumere solo due stati diversi, mentre due qbit invece possono assumerne quattro. E ancora, tre bit possono assumere solo tre stati diversi, tre qbit invece otto. E’ cosi via. Va da sé che aumentando la potenza del computer e quindi il numero di qbit, la differenza rispetto al computer tradizionale diventa abissale.

C’è però un piccolo problema: Il risultato del computer quantistico non è deterministico come quello dei computer classici, ma è probabilistico. La sfida degli scienziati è quella di ridurre il margine di incertezza.

Se ci pensiamo bene anche l’altra grande innovazione, l’intelligenza artificiale generativa, non restituisce una verità assoluta, ma una interpretazione dei parametri di ingresso, con una risposta tanto più vera a seconda di quanto è migliore il prompt (il testo attraverso il quale avanziamo una richiesta al modello AI) e l’addestramento del LLM. Peraltro, la risposta ha bisogno di una potenza elaborativa che la aiuti a simulare gli scenari, potenza che difficilmente si rintraccia nei computer attuali se non ricorrendo a GPU di fascia high-end.

Nei prossimi anni ci aspettano quindi due grandi rivoluzioni: una hardware (computer quantistico) e una software (intelligenza artificiale), fortemente correlate tra loro e che inevitabilmente trasformeranno il mondo.

La conseguenza che mi sembra di percepire è che la più grande rivoluzione, soprattutto per chi come me ha una formazione in ingegneria, sarà abbandonare la visione deterministica del mondo con cui siamo vissuti fino ad oggi. Siamo stati abituati a cercare la verità, il punto fermo a cui aggrapparci nel momento della tempesta.  

Nel mondo che ci aspetta la verità assoluta non esiste, sarà una realtà costituita da scenari probabilistici, dove le turbolenze saranno all’ordine del giorno, dove bisognerà abbandonare le proprie certezze, affidarsi al proprio equipaggio e saper navigare l’incerto, calcolando continuamente i parametri e correggendo la rotta, senza sapere mai se è quella giusta.

Parliamo di una nuova filosofia di pensiero e un nuovo modello manageriale: la leadership generativa.

Continueremo a riflettere ancora su questa tematica nelle prossime puntate!

Maurizio Petronzi