- La computazione ottica usa fotoni per calcolo e interconnessioni: velocità, parallelismo e minori consumi rispetto all’elettronica pura.
- Applicazioni già concrete: telecom e data center (CPO), accelerazione IA, visione, crittografia ottica e sensori avanzati.
- Ostacoli da superare: miniaturizzazione, conversioni O/E, costi e standard software; intanto avanzano architetture ibride.
- Mercato in forte crescita con investimenti e player chiave (Lightmatter, Intel, Nvidia, IBM) e spinta verso il quantistico fotonico.
La richiesta di calcolo esplode con IA, cloud, big data e simulazioni: i chip elettronici, spinti ai limiti termici e fisici, arrancano. In questo scenario, la computazione ottica entra in campo come alternativa concreta, usando fotoni al posto di elettroni per rappresentare, trasmettere e manipolare l’informazione tramite proprietà come intensità, fase, polarizzazione e lunghezza d’onda.
Non è solo un cambio di mezzo fisico: pensare con la luce apre ad architetture nuove, enormi larghezze di banda, latenza bassissima e consumi ridotti. Dai chip fotonici per IA alle reti con logica direttamente nel dominio ottico, dalle memorie quantistiche a protocolli di sicurezza fisica, l’ecosistema si sta componendo più rapidamente di quanto si creda.
Che cos’è la computazione ottica
La computazione ottica (o fotonica) mira a sostituire o affiancare i segnali elettrici con la luce per eseguire operazioni logiche e matematiche. Invece di tensioni e correnti, si lavora con fotoni e con le loro caratteristiche: intensità per codificare 0/1, fase per interferenza, polarizzazione e frequenza per multiplexing e parallelismo.
Il termine “computazione fotonica” spesso indica anche l’integrazione di componenti ottici su silicio (fotonic integrated circuits), inclusi sistemi ibridi dove alcune fasi restano elettroniche. Il vantaggio di principio: i fotoni non hanno massa né carica, non subiscono resistenza come gli elettroni nei metalli e possono viaggiare a velocità altissime con perdite minori.
Storia ed evoluzione
Dalle idee degli anni ’60–’70 si è passati, tra anni ’80–’90, ai primi prototipi in logica ottica (Caltech, MIT, Bell Labs). Per anni la tecnologia è rimasta confinata a applicazioni di nicchia (correlazione di immagini, sistemi ottici analogici), frenata da limiti di materiali e scarsa integrazione con CMOS. La comprensione dei principi attinge ai rami della fisica.
Oggi investono attivamente aziende come Lightmatter, Lightelligence, e big player quali Intel, IBM, Nvidia, mentre in accademia MIT, Stanford, Caltech, EPFL, University of Southampton e altri centri guidano dimostrazioni e prototipi, inclusi transistor ottici plasmonici su silicio (es. lavori Stanford) e architetture programmabili per accelerare IA e simulazioni.
Come funziona (a grandi linee)
Alla base c’è l’uso dei fotoni come portatori d’informazione. La codifica del bit può avvenire con presenza/assenza di luce, con stati di polarizzazione, oppure via fase e frequenza. La luce viaggia in guide d’onda e fibre, incontra modulatori che ne alterano parametri, e infine viene rilevata da fotodetettori che, se serve, riconvertono in elettrico.
La logica non è più basata su transistor che aprono/chiudono correnti, bensì su interferenza e non linearità ottiche. Gli interferometri (come il Mach–Zehnder) combinano due percorsi ottici: cambiando la fase in uno dei due bracci, si controlla la luce in uscita, realizzando comportamenti analoghi a porte AND, OR, NOT.
Componenti fondamentali
- Guide d’onda ottiche: canali in silicio o nitruro di silicio che instradano la luce come i “fili” ottici del circuito.
- Modulatori: dispositivi che variano intensità o fase per scrivere i dati o attuare operazioni.
- Fotodetettori: convertono segnali ottici in elettrici quando richiesto (lettura/IO).
- Fibre ottiche: collegamenti a bassissima attenuazione e altissima banda tra componenti o nodi.
Questi elementi abilitano l’aritmetica con la luce, dove 0/1 non sono più tensioni ma “luce/no luce” o stati ottici distinti. La sfida è la miniaturizzazione di “transistor ottici” affidabili, stabili e scalabili.
Logica fotonica in pratica
Un interferometro di Mach–Zehnder (MZI) sdoppia un fascio in due percorsi, poi li ricombina: regolando la fase su un braccio con un modulatore, si ottiene interferenza costruttiva o distruttiva all’uscita. È il mattone base per reti di matrici ottiche e porte logiche programmabili.
Altra via: materiali non lineari in cui l’indice di rifrazione cambia con l’intensità luminosa. Un fascio di controllo può aprire/chiudere il passaggio di un fascio dati, emulando un interruttore. Università di Toronto, Caltech e IBM Zurich hanno mostrato prototipi di porte ottiche ultraveloci.
Per immaginare una porta AND con la luce: due fasci (A e B) convergono; se entrambi sono “in fase” si sommano e la luce in uscita è forte (1). Se ne arriva uno solo, l’uscita resta debole/nulla (0). Un fotodiodo può convertire questa intensità in un bit elettrico, integrando poi con elettronica classica.
Architetture e interconnessioni
Le architetture si dividono in tre famiglie: ottico–analogiche (oggi meno comuni), ibride ottico–elettroniche (le più praticabili al momento) e totalmente ottiche (ancora sperimentali), collegandosi ai diversi tipi di hardware di un sistema. L’obiettivo è ridurre conversioni O/E, perché ogni passaggio introduce latenza e consumo.
In parallelo cresce l’uso di optical interconnects su fibra e su chip per togliere il collo di bottiglia tra CPU, GPU e acceleratori. L’adozione di collegamenti interni ottici è considerata un passo chiave verso l’exascale e data center più efficienti.
Applicazioni chiave
Telecomunicazioni: le fibre trasportano già oggi la maggioranza del traffico globale. La novità è portare filtri, routing e decisioni logiche direttamente nella fisica di rete, riducendo latenza e consumi (lavori da MIT e University of Southampton).
Elaborazione immagini: correlatori ottici e banchi interferometrici consentono massivo parallelismo per visione aerea, satellitare, radar e strumenti medici. DARPA e Fraunhofer testano processori ottici per accelerare pipeline di visione su droni e veicoli autonomi.
Intelligenza Artificiale: Lightmatter (chip Envise) e Lightelligence accelerano moltiplicazioni matriciali in ottico, il cuore delle reti neurali. I prototipi mostrano latenze bassissime ed efficienza energetica fino a 10x migliore rispetto a GPU tradizionali in alcuni scenari di inferenza.
Criptografia ottica e sicurezza: schemi basati su diffrazione, interferenza e randomizzazione ottica generano “impronte di luce” non clonabili. EPFL ha mostrato sistemi di autenticazione fisica con pattern ottici unici per supply chain critiche, difesa e finanza.
Sistemi autonomi e sensori: combinare sensori ottici intelligenti (cattura + pre–processing con luce) e trasmissione su fibra riduce latenza a bordo (robotica, rover, satelliti). Iniziative in collaborazione con NASA esplorano questi percorsi.
Vantaggi e svantaggi
Velocità: i fotoni possono essere manipolati in tempi picosecondi. Caltech e MIT hanno riportato accelerazioni fino a 10x in operazioni di algebra lineare rispetto a equivalenti elettronici in test mirati.
Efficienza energetica: meno calore e resistenze parassite; secondo Lightmatter, i loro acceleratori di inferenza possono tagliare i consumi fino al 90% in certi workload. Nei data center, meno energia spesa in raffreddamento è un game–changer.
Parallelismo intrinseco: diverse lunghezze d’onda, polarizzazioni e percorsi coesistono senza interferire (WDM), abilitando lavorazioni in parallelo su scala elevatissima con larghezze di banda irraggiungibili dall’elettronica pura.
Immunità ai disturbi: i segnali ottici sono insensibili al rumore elettromagnetico, vantaggio fondamentale in ambienti industriali, militari o spaziali.
Miniaturizzazione (svantaggio attuale): i componenti ottici restano tipicamente su scala micrometrica, mentre l’elettronica è sotto i 5 nm. Ridurre modulatori e guide d’onda preservando prestazioni e stabilità è duro.
Integrazione ibrida: le conversioni ottico/elettrico introducono overhead di energia e tempo. Finché l’architettura è ibrida, servono accorgimenti per tenere bassa la latenza di andata/ritorno.
Costo e produzione: fabbricare circuiti fotonici richiede linee e materiali specializzati (SiN, GaAs, LiNbO3). L’ecosistema non è ancora scalato come il CMOS, e gli accoppiamenti ottici devono essere molto precisi.
Tool e standard software: mancano framework, SDK e compilatori standardizzati come nell’elettronica. Oggi molti progetti usano flussi personalizzati, frenando la scalabilità del software.
Mercato e investimenti
Le analisi su computazione fotonica integrata stimano oltre 3 miliardi di dollari entro il 2034 con CAGR >30%. All’interno, tra il 15–20% dei capitali converge su architetture computazionali ottiche “pure” per IA, pari a 450–600 milioni nei prossimi anni (USA, Europa, Cina molto attive).
Tra i player: Lightmatter (oltre 270M$ raccolti entro il 2024), Lightelligence, Intel (fotonic di silicio e CPO), Nvidia (ricerca su fotonica integrata per interconnessioni), IBM Research. Startup come Ayar Labs (interconnessioni ottiche su chip) e PsiQuantum (quantum fotonico) spingono sui limiti.
Tendenze: adozione progressiva di interconnessioni ottiche nei data center; crescita di chip ottici specializzati per IA ed edge; convergenza con computazione quantistica ottica; normalizzazione di API/SDK e piattaforme di design fotonico.
Computazione quantistica ottica e IA fotonica
Nella computazione quantistica ottica, i fotoni fungono da qubit. Grazie a superposizione ed entanglement, anche processori piccoli già mostrano vantaggi in task specifici di classificazione rispetto ad algoritmi classici (lavori su Nature Photonics, gruppo di Philip Walther).
Elementi lineari come specchi, beam splitter, phase shifter, waveplate realizzano trasformazioni unitarie; i rivelatori di singolo fotone includono SPAD/APD e SNSPD (superconduttivi, altissima efficienza/ basso rumore). Servono memorie quantistiche (insiemi atomici, dispositivi allo stato solido, cavità ottiche) per trattenere stati per tempi utili.
Una sfida cruciale è l’interazione fotone–fotone, naturale assente: si ricorre a schemi a risorsa (ancilla), non linearità, misure condizionali. In parallelo avanza l’approccio a variabile continua (CV), che usa ampiezze/quadrature e luce “squeezed”: promettente ma richiede porte non lineari di ordine superiore molto pulite.
Rispetto ad altre piattaforme quantistiche (ioni, superconduttori), i sistemi fotonici possono lavorare più facilmente a temperatura ambiente e si integrano nativamente con la fibra per reti quantistiche distribuite. Centri come il Center for Quantum Nanoscience e aziende come PsiQuantum corrono per l’hardware; si vedono anche sforzi congiunti (es. Quantinuum con partner software) su algoritmi su misura.
Il colpo di scena: Liuxing‑I e la “QOPS”
Nel 2025, team tra Singapore e Cina hanno annunciato Liuxing‑I, un processore fotonico capace, secondo i ricercatori, di 2,5 quadrilioni di operazioni al secondo (QOPS), introducendo una nuova metrica per valutare il calcolo ottico. Il salto sarebbe ~1600× rispetto a tecnologie ottiche precedenti.
L’architettura integra un pettine di frequenza a microcavità per generare 100 canali WDM paralleli, un processore ottico riconfigurabile ad alte prestazioni e un sistema di pilotaggio scalabile a 50 GHz. L’efficienza dichiarata supera 3,2 TOPS/W (vs 0,87 TOPS/W di baseline ottiche precedenti), unendo velocità estrema e risparmio energetico.
Il responsabile, Peng Xie, paragona l’approccio a una “superstrada a cento corsie” che moltiplica la produttività senza cambiare il chip fisico. Se confermato su scala industriale, sarebbe un punto di svolta sia per IA che per data center.
Fondamenti di fibra ottica (per capire l’ecosistema)
La fibra ottica è un fascio di fili trasparenti (vetro/plastica) che guida la luce sfruttando la riflessione interna totale. Con una differenza di indice tra nucleo e mantello e angolo critico appropriato, la luce rimbalza lungo il nucleo con perdite minime. La progettazione coinvolge le scienze ausiliarie della fisica.
Vantaggi chiave: altissime velocità (tipicamente 10–40 Gbps per link standard; ordini di grandezza in più rispetto a rame), resistenza a interferenze elettromagnetiche, sicurezza fisica (intercettare la luce è difficile), lunga distanza senza rigeneratori frequenti. Svantaggi: posa spesso sotterranea/submarina, fragilità meccanica, necessità di giunzioni accurate.
Materiali: silice pura o drogata per telecom; per tratti brevi/illuminazione si usano anche polimeri o vetri compositi. In medicina, le fibre alimentano strumenti come l’endoscopio; in industria sono impiegate in strumentazione e controllo.
Fibra ottica a casa e in ufficio
Nell’uso quotidiano, la fibra porta internet fino a 1 Gbps e oltre. Rispetto al rame, i dati viaggiano come impulsi di luce, quindi più rapidi e stabili sulle lunghe distanze. La latenza si abbassa e la banda simultanea aumenta.
I vantaggi principali: velocità (streaming 4K/8K, backup cloud, gaming), stabilità (immunità EMI), larghezza di banda (più dispositivi senza saturazioni), affidabilità e sicurezza (difficile da intercettare, pochi disturbi), oltre a essere una scelta “future‑proof” per VR/AR e carichi sempre più densi.
Data center, CPO e sostenibilità
Nei data center, l’integrazione di transceiver ottici co‑packaged (CPO) vicino ai processori riduce perdite su piste elettriche e alza la densità di banda. Meno conversioni e meno calore significano OPEX inferiori e un profilo ambientale migliore.
Su scala macro, la computazione ottica può abbattere il contributo energetico dell’IT globale (i data center consumano già ~1–2% dell’elettricità mondiale). Per chi punta a ESG e neutralità carbonica, è una leva strategica.
Dove sono gli ostacoli tecnici
Miniaturizzazione e packaging: comprimere componenti ottici mantenendo coerenza di fase e controllo termico non è banale. Ricerca attiva su plasmottronica e metamateriali per superare limiti dimensionali.
Interfacce O/E: finché il sistema resta ibrido, servono conversioni efficienti e protocolli a bassa latenza. La spinta è ridurre al minimo i passaggi O↔E nel percorso critico.
Toolchain e standard: servono SDK, compilatori e piattaforme aperte. EPFL e University of Oxford lavorano su toolkit open‑source; Lightmatter offre API per programmare i propri chip. La normalizzazione accelererà l’adozione.
Materiali e processi: oltre al silicio, avanzano nitruro di silicio, niobato di litio e semiconduttori III–V, ognuno con vantaggi su non linearità, perdite, integrazione. La nanofabbricazione ottica deve diventare più accessibile e ripetibile.
Capitale umano e norme: servono profili interdisciplinari (fisica, materiali, elettronica, informatica) e diverse attività professionali correlate. Sul fronte regolatorio, vanno definiti standard di sicurezza, privacy e supply chain per dispositivi fotonici.
Ricerca, trend e ibridi in arrivo
Nel breve/medio termine prevarranno i computer ibridi ottico–elettronici: Intel e Ayar Labs spingono per interconnessioni ottiche tra chip; gli acceleratori fotonici IA affiancheranno CPU/GPU come co–processor per workload specifici.
Si vedono passi avanti verso neuromorfico ottico (reti fotoniche ispirate al cervello, utili per classificazione/sensing) e verso sensor fusion dove ottica e LiDAR condividono pipeline di pre‑processing. Nvidia indaga la fotonica integrata per scalare le interconnessioni.
A livello software, compaiono i primi compilatori per array di MZI e librerie per mappare problemi di algebra lineare su matrici ottiche. Più questi strumenti maturano, più cresce l’adozione fuori dai laboratori.
In ambito quantistico, oltre alla piattaforma a qubit discreti, la variabile continua resta un fronte caldo: misure di quadratura, luce squeezed e porte non lineari più robuste sono priorità di roadmap. Processori fotonici multi‑core e codifica ad alta frequenza integrata con la rete sono nel mirino.
Si aggiunge il fattore economico: chi investe presto in fotonica potrebbe ottenere vantaggi competitivi, con impatti anche occupazionali nella manifattura avanzata di componenti ottici e pacchetti co‑integrati.
Guardando l’insieme, la computazione ottica sta costruendo un ponte tra elettronica tradizionale e paradigmi futuri (quantistico, neuromorfico). Con strumenti migliori, standard condivisi e casi d’uso verticali (IA, rete, visione, sicurezza), la luce passa da veicolo di trasmissione a motore di calcolo vero e proprio, con ricadute su prestazioni, consumi e sostenibilità che rendono credibile la sua diffusione ben oltre i laboratori.
