- Dal principio di minimo cambiamento nasce una versione quantistica della regola di Bayes, collegata alla mappa di Petz e alla fidelità.
- Il Settecento consolida analisi e calcolo con Euler, Lagrange, Laplace, tra rivoluzione scientifica e applicazioni fisiche.
- La regola del tre è utile solo in proporzionalità lineare: esempi mostrano quando fallisce e perché serve pensiero critico.
- Applicazioni previste: correzione d’errore quantistica, machine learning quantistico, reti bayesiane, teoremi di fluttuazione.
Le convinzioni non restano mai scolpite nella pietra: si adattano quando arriva un dato nuovo, proprio come quando un test medico viene interpretato in modo diverso da chi già si sente malato rispetto a chi si percepisce in piena forma. In statistica questo aggiornamento disciplinato ha un nome e una storia lunga oltre due secoli e mezzo: la regola di Bayes, uno strumento che permette di ricalibrare le probabilità in presenza di informazioni fresche.
Un gruppo internazionale di ricercatori ha fatto un passo audace: trasferire l’intuizione bayesiana nel dominio della fisica quantistica seguendo un principio guida semplice e profondo, quello di minimo cambiamento. La loro proposta, pubblicata su Physical Review Letters, fornisce una formulazione quantistica coerente con le peculiarità del mondo microscopico, dove superposizione, non commutatività e misura ribaltano spesso la logica classica.
Dalla probabilità classica alla versione quantistica
La regola di Bayes risale al 1763 e consente di aggiornare la probabilità di un evento tenendo conto della conoscenza pregressa; è onnipresente in medicina, meteorologia, finanza e intelligenza artificiale. Nella vita reale, per esempio, stimare la probabilità di avere l’influenza dopo un test positivo richiede di incorporare sia il risultato sia eventuali sintomi preesistenti, cosa che Bayes formalizza con eleganza.
Gli autori partono da un’idea potente: la regola classica emerge dal principio secondo cui, ricevuta una nuova informazione, dovremmo modificare il meno possibile le credenze compatibili con il dato aggiornato. Questo è il cosiddetto principio di minimo cambiamento, un invito a rimanere coerenti evitando aggiustamenti eccessivi e opportunistici.
Il salto al quantistico complica il quadro: nella teoria dei quanti non trattiamo certezze puntuali, ma stati che rappresentano distribuzioni di probabilità sovrapposte. Una particella non possiede posizione determinata finché non viene misurata; prima della misura esiste soltanto una nube di possibilità. In tale contesto, l’aggiornamento bayesiano richiede strumenti geometrici e informazionali specifici.
In alcuni passaggi è stato persino evocato, come curiosità, che molte leggi naturali mostrano una semplicità sorprendente; basti pensare alle regolarità osservate in biologia, come quando si suggerisce che anche i grandi predatori marini seguano schemi matematici essenziali per crescere e organizzarsi. Non è il punto centrale dello studio, ma rende l’idea di quanto siano diffuse le regole quantitative in natura.
Fidelità quantistica e metodo di ottimizzazione
Per adattare Bayes al mondo dei quanti, i ricercatori adottano un concetto chiave: la fidelità. La fidelità misura quanto due stati quantistici si assomigliano; se è alta, l’aggiornamento introdotto ha alterato poco lo stato di partenza. Questo criterio diventa l’ago della bilancia per una procedura di ottimizzazione che cerca di massimizzare la somiglianza tra il processo diretto (pre-aggiornamento) e quello inverso (post-aggiornamento).
La ricetta operativa è chiara: ricevuta la nuova informazione, si identifica il canale quantistico inverso che produce il cambiamento minimo pur restando compatibile con il dato. In questo modo il cuore della regola classica – aggiorna sì, ma il minimo necessario – viene tradotto in termini di geometria degli stati e dei canali quantistici.
Una delle sorprese più interessanti è che, in molti casi concreti, la soluzione ottimale coincide con il noto mappa di Petz, un oggetto già utilizzato per il recupero d’informazione e la correzione d’errore in informazione quantistica. Tuttavia, qui la coincidenza non è posticcia: scaturisce da un principio generale e non da ipotesi ad hoc.
Quando gli stati di ingresso e uscita risultano compatibili (per esempio, in scenari commutativi), la soluzione che massimizza la fidelità si allinea esattamente al mappa di Petz relativo a quel canale e a quello stato iniziale. Questo rafforza la legittimità del mappa come candidato naturale della regola di Bayes quantistica in condizioni ideali.
Mappa di Petz e generalizzazioni
Il mappa di Petz è celebre per recuperare l’informazione perduta attraversando canali rumorosi, e da tempo si sospettava che potesse incarnare l’aggiornamento bayesiano nel regime quantistico. Il nuovo risultato propone una derivazione di principio basata sul cambiamento minimo, fornendo un fondamento concettuale che mancava.
Ancora meglio, gli autori non si fermano ai casi compatibili: presentano una formula esplicita per scenari generali in cui gli stati non commutano e la compatibilità non è garantita. Ciò amplia il raggio di azione dello schema e lo rende più flessibile per applicazioni realistiche, dove le grandezze raramente si allineano in modo perfetto.
In termini pratici, questa estensione consente di trattare non solo osservazioni puntuali, ma anche vincoli espressi come distribuzioni, vincoli parziali o conoscenze rumorose. La massimizzazione della fidelità funge da bussola per navigare fra tali evidenze.
È interessante notare come questo approccio si colleghi all’idea di retrodizione, cioè la stima dello stato passato a partire dai dati presenti: in contesti quantistici, dove il tempo può avere ruoli non classici, ragionare all’indietro con aggiornamenti minimi è particolarmente fruttuoso.
Cosa cambia nel processo di aggiornamento quantistico
Nella versione quantistica della regola, il flusso è più articolato rispetto al caso classico: si parte da uno stato iniziale, spesso rappresentato da una matrice gamma, lo si fa evolvere attraverso un canale (cioè una trasformazione fisicamente ammessa) e, alla luce di nuove evidenze, si cerca un canale inverso che riporti lo stato il più vicino possibile a quello originario.
Il canale inverso viene determinato massimizzando la fidelità tra processo diretto e processo inverso. Un dettaglio affascinante è che il metodo funziona anche se il nuovo dato non è un risultato di misura secco, ma una distribuzione di probabilità o un vincolo informazionale. Questo lo rende uno strumento robusto per scenari sperimentali reali.
Così facendo, il ponte concettuale tra la tradizione bayesiana e la fisica dei quanti si irrobustisce. Il principio di minimo cambiamento offre un criterio variazionale ben definito, che in molti casi ricuce la distanza fra mondo classico e mondo quantistico.
Nei casi compatibili la procedura recupera la costruzione di Petz, mentre nei casi non compatibili fornisce un aggiornamento ottimale nuovo, aggiungendo tasselli matematici utili anche per comprendere la struttura dei canali e le condizioni in cui l’informazione può essere efficientemente restituita.
Applicazioni possibili
La prima area che beneficia di una regola di aggiornamento più fine è la correzione d’errore nella computazione quantistica, dove rumore e decoerenza corrodono continuamente l’informazione. Aggiornare con parsimonia, ma in modo coerente con i dati, aiuta a preservare meglio gli stati codificati.
Un secondo fronte è il machine learning quantistico: adattare modelli in ambienti ad alta incertezza richiede regole di aggiornamento stabili e robuste. Una versione quantistica di Bayes basata sulla fidelità può fornire basi più solide per l’addestramento di modelli parametrizzati.
Infine, si aprono piste di ricerca in contesti avanzati come reti bayesiane quantistiche, supermappe (trasformazioni di canali) e teoremi di fluttuazione in termodinamica quantistica. Estendere il principio di minimo cambiamento a queste strutture promette risultati sia teorici sia tecnologici.
In controluce, questo programma di ricerca rafforza l’idea che molte procedure classiche, se reinterpretate con cura, possono sopravvivere nel regno quantistico senza perdere eleganza né potenza predittiva.
Il Settecento: luci, idee e rivoluzioni
Il XVIII secolo è spesso ricordato come il Secolo dei Lumi, quando si affermò l’Illuminismo e si gettarono le basi della scienza moderna. Le trasformazioni sociali, industriali e culturali di quel periodo spinsero le matematiche a diventare il linguaggio della natura.
- Rivoluzione industriale e nascita delle prime scuole di ingegneria.
- Produzione del ferro fuso su scala senza precedenti.
- Prima vaccinazione contro il vaiolo.
- Sviluppo della meccanica dei fluidi, con contributi di Bernoulli.
- Prime esperienze sull’elettricità.
- Le prime teorie sull’origine delle specie.
- Miglioramento di telescopi e strumenti d’osservazione.
Nello stesso secolo, i seguaci di Newton e Leibniz utilizzarono i loro metodi per risolvere problemi di fisica, astronomia e ingegneria, generando nuovi campi matematici. Si lavorò per arricchire l’analisi con algoritmi, risultati espliciti in geometria e meccanica, e per chiarire i legami tra funzioni esponenziali e logaritmiche.
I protagonisti e i loro contributi
Joseph-Louis Lagrange, figura chiave, offrì una trattazione completamente analitica della meccanica nella sua Meccanica analitica, raccogliendo le celebri equazioni di Lagrange per sistemi dinamici. Contribuì alle equazioni differenziali, alla teoria dei numeri e sviluppò idee embrionali di teoria dei gruppi, fondando tutto su un approccio algebrico e l’uso di serie infinite.
Gaspard Monge formalizzò e diffuse la geometria descrittiva, mentre Leonhard Euler – il gigante del secolo – portò contributi fondamentali al calcolo, alla meccanica, all’algebra e a molte applicazioni scientifiche, scrivendo testi che divennero modelli per generazioni.
Contributi di Euler che hanno lasciato un’impronta profonda:
- Allineamento di baricentro, ortocentro e circocentro nei triangoli: la retta di Euler.
- Definizione sistematica di funzioni logaritmiche ed esponenziali.
- Sviluppo del calcolo con i numeri complessi.
- Introduzione dei simboli e, f(x), del segno di sommatoria Σ e dell’uso di π.
- Classificazione delle funzioni e criteri per le loro proprietà.
- Elaborazione dell’integrazione doppia.
- Teorema sulla composizione delle integrali ellittiche.
- Equazione differenziale delle geodetiche su una superficie.
- Equazione dell’espansione volumetrica dei liquidi.
- Fondazione della teoria dei grafi.
- Ampliamento della geometria piana e solida.
- Prima trattazione di seno e coseno come funzioni autonome.
- Fattori integranti per equazioni differenziali.
- Generalizzazione della congruenza di Fermat con l’indicatore poi usato da Gauss.
- Precedenza su Legendre nella legge di reciprocità dei residui quadratici.
- Introduzione del quadrato latino nei problemi combinatori.
- Metodi di sviluppo in serie per radici.
- Studio delle funzioni simmetriche delle radici.
- Procedure di eliminazione e scomposizione in frazioni semplici.
- Convenzioni notazionali per lati e vertici dei triangoli.
Nel fronte della probabilità, tra il 1702 e il 1761 si consolidano temi che confluiranno nel teorema di Bayes, dedicato al calcolo della probabilità condizionata. In parallelo, Brook Taylor sviluppa le differenze finite e formula il celebre teorema di Taylor, la cui importanza fu valorizzata da Lagrange con stime dell’errore d’approssimazione.
Colin Maclaurin estende l’idea con la serie che porta il suo nome; Johann Lambert dimostra l’irrazionalità di π e lavora sulla geometria iperbolica e sull’astronomia, introducendo metodi per le orbite dei comete e un teorema a lui intestato.
Con Pierre-Simon Laplace l’astronomia matematica decolla: stabilità del sistema solare, moto dei centri di massa, perturbazioni dovute ai satelliti, invarianze nelle eccentricità e inclinazioni orbitali, sino a risultati sull’immutabilità dei principali movimenti planetari.
Nella probabilità Laplace offre una definizione operativa, approfondisce metodi per eventi composti e applica il calcolo probabilistico a demografia, giurisprudenza, errori d’osservazione, determinazione delle masse dei pianeti e problemi di geodesia e triangolazione.
Tra le altre eredità laplaciane: l’equazione di Laplace nelle potenziali, la trasformata di Laplace per le equazioni differenziali, metodi per equazioni e determinanti, e l’uso di funzioni potenziali e armoniche sferiche, anche in relazione ai lavori di Legendre.
Completa il quadro Gabriel Cramer, che approfondisce i determinanti e formula la celebre regola di Cramer per risolvere sistemi lineari tramite rapporti di determinanti, pubblicata nel suo trattato del 1750, in dialogo con lavori di Maclaurin.
Geometria, analisi e il linguaggio della scienza
Prima del XVI secolo le matematiche ebbero un ruolo limitato nelle scienze fisiche; con la nascita della scienza moderna diventano il loro lessico. Tra XVII e XVIII secolo la geometria euclidea cede centralità a nuove discipline: geometria analitica, calcolo infinitesimale, serie e metodi algebrici invadono fisica e ingegneria.
Al tempo, il termine geometra designava spesso lo scienziato che applicava l’analisi ai fenomeni naturali; Arago, nell’Ottocento, celebrò figure come Clairaut, Euler, d’Alembert, Lagrange e Laplace come coloro che, partendo da Newton, unificarono i moti celesti sotto principi comuni. Dietro quell’epopea c’era la fusione tra rigore geometrico e potenza dell’analisi.
Si distinguono tre tappe: la stagione di Leibniz, che formalizza il calcolo differenziale e intuisce la dualità tra differenziazione e integrazione; quindi Euler, che esprime la meccanica newtoniana in linguaggio analitico, seguita dai contributi di Daniel e Johann Bernoulli in idrodinamica e idraulica; infine Lagrange con la Meccanica analitica e Laplace con la Meccanica celeste, che fissano principi di conservazione e di minimo come fondamenta della fisica classica.
Non mancavano perplessità sui fondamenti: Berkeley criticò gli infinitesimi, mentre il concetto di funzione era fluido; Newton trattava funzioni come serie infinite e associava continuità al moto di particelle, assumendo proprietà delle somme finite anche per le infinite. Questa libertà concettuale generò paradossi e richieste di maggiore rigore.
È celebre una lettera in cui Lagrange confessa a d’Alembert un senso di esaurimento della miniera matematica, temendo che altre scienze avrebbero attirato le menti più brillanti. Anche d’Alembert denunciava lo squilibrio tra espansione e solidità dei fondamenti, invitando a irrobustire le basi quanto le vette.
Di fronte a incertezze e lacune, spesso il significato fisico guidò i matematici: l’aderenza ai dati e alle previsioni corrette fornì l’orientamento quando le dimostrazioni formali non bastavano, alimentando quella fiducia pratica che d’Alembert riassumeva nell’invito a perseverare.
Napier, logaritmi e la regola del tre
Molto prima del Settecento, John Napier rese celebri i logaritmi e ideò un abaco noto come bacchette di Napier, un dispositivo meccanico per moltiplicare e dividere. In un vecchio testo isabelino si tramandano versi ironici in cui si scherza sul fastidio di moltiplicazioni, divisioni e regola del tre, segno che quei calcoli erano pane quotidiano ma tutt’altro che amati.
La regola del tre – che Abraham Lincoln diceva di padroneggiare nei suoi anni giovanili – è un metodo proporzionale: dati tre numeri in rapporto, si calcola il quarto sconosciuto tramite proporzioni e prodotti incrociati. È una scorciatoia utile, ma da usare solo quando la relazione tra grandezze è davvero lineare.
Le radici della regola del tre affondano nei testi arabi: al-Khwarizmi la annovera nel suo Algebra, al-Biruni le dedica un trattato e in India Aryabhata la descrive con versi evocativi – moltiplicare il frutto per il desiderio e dividere per la misura – una metafora poetica della proporzionalità.
La cultura pop non è rimasta indifferente: Lewis Carroll la cita con ironia in una filastrocca e Rudyard Kipling richiama il confronto tra metodi diversi, suggerendo che strade differenti possono portare a soluzioni distinte. Sono spunti letterari che ricordano come la matematica sia anche immaginazione e linguaggio.
Curiosità biografiche su Napier aggiungono colore: il suo nome latino, Ioannes Neper, ha dato origine ai logaritmi neperiani, e il soprannome di meraviglioso di Merchiston richiama la sua origine scozzese e la fama guadagnata.
La regola d’oro in Francia e le critiche moderne
In Francia la regola del tre si usa almeno dal Cinquecento: Estienne de La Roche le dedica un intero capitolo definendola la più elegante delle regole. Nel Settecento, François Barrême la popolarizza con manuali pratici e tavole – i celebri baremi – che diventano strumenti di riferimento per mercanti e contabili.
Nella grande Enciclopedia di Diderot e d’Alembert la regola del tre viene elevata a regola d’oro, anche se gli autori ne sottolineano la base vera: la proporzionalità. Decenni dopo, con l’avvento delle cosiddette matematiche moderne, si insiste sul concetto che giustifica la ricetta, non sull’automatismo meccanico.
Nel 1963 Gilbert Walusinski critica l’uso cieco della regola del tre, invitando a problemi che sollecitino lo spirito critico. E in effetti bastano esempi semplici per smascherare applicazioni improprie: l’area di un cerchio dipende dal quadrato del raggio, non cresce in modo lineare; raddoppiando il raggio da 2 a 4 metri l’area passa da 4π a 16π, non a 8π.
Un altro esempio riguarda la crescita: se un bimbo alto 1,25 metri a 5 anni crescesse per regola del tre, a 10 anni arriverebbe a 2,50 metri, una stima assurda. Moralità: la regola del tre funziona solo quando le grandezze si muovono in proporzionalità diretta e va abbandonata altrove.
Nella didattica contemporanea, anche in Spagna, si è spesso dibattuto se privilegiare esercizi ripetitivi o comprensione: tanti richiami contemporanei sottolineano che senza analisi del contesto e delle ipotesi, ogni ricetta rischia di diventare un’abitudine vuota.
Didattica e metodo: riflessione prima delle scorciatoie
Non si tratta di ripristinare integralmente le matematiche moderne, ma di raccoglierne l’eredità positiva: gruppi come Bourbaki puntavano a una migliore fondazione delle strutture e hanno inciso in modo duraturo. Il punto è evitare che gli studenti applichino regole senza sapere quando e perché dovrebbero farlo.
Capire come le quantità si relazionano davvero – lineare, quadratico, esponenziale – vale più di cento schemi meccanici. Questo spirito è affine tanto alla regola di Bayes quanto alla sua incarnazione quantistica: aggiornare in modo informato, coerente e parsimonioso, rispettando la struttura del problema.
Vale la pena ricordare che talvolta capita di imbattersi in frammenti tecnici di piattaforme web che segnalano JavaScript disattivato o richieste di browser supportati: piccoli incidenti di percorso che non tolgono nulla al messaggio centrale, ossia che la matematica è uno strumento vivo se accompagnato da senso critico.
Una parte di queste riflessioni è stata diffusa in sedi divulgative: una versione di alcuni passaggi è apparsa anche in un blog di frontiera matematica, a testimonianza di come temi classici e sfide moderne possano dialogare con il grande pubblico.
Sovrapponendo i fili della storia e della ricerca attuale, si vede che una regola nata per pesare la plausibilità nel mondo classico può essere riformulata per i quanti, mentre nel Settecento l’analisi conquistava il posto della geometria; la regola del tre avvisava già allora che le scorciatoie vanno maneggiate con cura, e i grandi del secolo – da Euler a Lagrange, da Laplace a Monge – dimostravano che si avanza quando i principi vengono messi al servizio dei problemi reali con intelligenza e misura.
Una versione di questo materiale è apparsa originariamente in uno spazio divulgativo dedicato alla matematica e ai suoi confini.