Intervista con Laura Bonolis

GIORGIO PARISI

Giorgio Parisi è nato a Roma il 4 agosto 1948, da una famiglia benestante. Fin dall’infanzia manifesta un precoce interesse per l’aritmetica, che si sviluppa in tutto il periodo scolastico con lo studio del calcolo. Lettore di fantascienza e di divulgazione scientifica  è attratto dal carattere avventuroso della ricerca e vede nella fisica il terreno su cui giocare al livello più alto la sua sfida intellettuale.

Nel 1966 si iscrive a Fisica nell’Università di Roma e si laurea con Nicola Cabibbo sul problema del bosone di Higgs. Dopo la laurea, entra a Frascati con una borsa ed è subito coinvolto nei problemi della fisica con elettroni e positroni e del deep inelastic scattering; ma conserva l’interesse per le interazioni deboli e per la teoria dei campi. Dopo essersi occupato di tecniche gruppali nella fisica delle altissime energie, riprende l’attività nel campo della meccanica statistica e con Raoul Gatto lavora alle applicazioni del gruppo conforme.

Intorno al 1973 Parisi si lega a numerosi personaggi della fisica teorica delle particelle elementari, particolarmente  a Kurt Symanzik, Gerardus ‘t Hooft e Murray Gell-Mann. Dopo essere stato per qualche tempo al CERN, a Ginevra, nel 1973-1974 va alla Columbia University, dove stringe rapporti con Tsung Dao Lee.

Nel 1981, a 33 anni, diventa professore di Fisica Teorica a Roma, nell’Università di Tor Vergata e si sposta a La Sapienza nel 1992.

Nel corso degli anni ‘80, nell’utilizzare i maggiori computer disponibili in Europa, tra cui il CRAY di Parigi, Parisi matura un forte interesse per gli strumenti avanzati di calcolo. Insieme a Nicola Cabibbo, che ha la passione per i calcolatori e che si era costruito per diletto una semplice macchina per il gioco di “life”, Parisi ed altri promuovono la costruzione di strumenti di calcolo parallelo per le teorie di gauge. In circa due anni viene realizzato APE, abbreviazione di Array Processor Expansible, cui fanno seguito altre macchine più veloci: APE 100 e APE 1000.

Parisi è  uno degli esponenti più brillanti della fisica italiana contemporanea. Di lui spicca la varietà di interessi: nelle sue oscillazioni tra la teoria dei campi e la meccanica statistica, si è occupato anche di reti neuronali, spingendosi nel campo dei modelli biologici.

Il campo di ricerca per cui, forse, è più noto è quello dei cosiddetti “vetri di spin”, il cui studio Parisi ha condotto sia con simulazioni su grande scala, sia con mezzi teorici astratti. Questo lavoro, oltre ad avere grandissima risonanza, ha dato vita a un vasto filone di ricerche in settori confinanti.

 

 Lei è nato a Roma, il 4 agosto 1948. Mi vuole raccontare qualcosa della sua famiglia?

Mia madre aveva un lavoro impiegatizio, da cui diede le dimissioni dopo il matrimonio con mio padre. Loro si sono sposati nel ‘42, durante la guerra. Mio nonno paterno era venuto dalla Sicilia circa un secolo fa, e aveva messo su un’industria edile a Roma. Mio padre voleva laurearsi in ingegneria per aiutare la ditta ad essere autonoma dal punto di vista ingegneristico, ma poi ha lasciato perdere e si è laureato in economia e commercio. Mio nonno è morto in età relativamente giovane e l’impresa è stata chiusa, ma mio padre  ha ereditato una condizione abbastanza agiata, tanto che fino alla mia nascita faceva dei lavori saltuari: due volte è stato commissario liquidatore di un ente e in ogni caso ogni tanto faceva lavori come commercialista; nel frattempo aveva degli introiti dalle case affittate. Una volta nato io e poi mio fratello, ha deciso di prendere un impiego fisso statale per aumentare gli introiti. I miei genitori sono entrambi nati a Roma e così io e mio fratello, di sei anni più piccolo, che successivamente si è anche lui laureato in fisica. Mio padre aveva un rimpianto, dovuto al fatto di non essersi laureato in ingegneria, e mia madre ci teneva molto che andassi bene a scuola, che fossi il primo della classe. Fin da piccolo io avevo una forte predisposizione per la matematica. A quanto pare ho imparato a leggere molto presto i numeri, per esempio quelli degli autobus, e verso i quattro o cinque anni ho imparato a fare il gioco del quindici, quel gioco in cui ci sono quindici numeri in un quadrato e bisogna metterli in ordine. A parte la matematica mi piaceva un gioco di costruzione con dei mattoncini, tipo Lego, ma più elaborato a livello strutturale. Mi piaceva anche il piccolo chimico e verso i dieci-undici anni mi piacevano molto i romanzi di fantascienza. Ricordo che il primo che lessi era il numero 128 di Urania. Fra i tredici e i diciotto anni c’è stato un periodo in cui ho giocato molto a scacchi, poi ho smesso all’università.

 

Nell’ambito scolastico come si sono evidenziati i suoi interessi?

 A scuola andavo decisamente bene in tutte le materie scientifiche, avevo qualche piccola difficoltà nei temi di italiano, ma alla fine ero sempre fra i primi due o tre. Fin da piccolo leggevo libri divulgativi di astronomia. Poi avevo letto una storia della matematica e mi ero fatto una cultura su enciclopedie e guardando di libri in biblioteca. Verso i tredici-quattordici anni avevo imparato i rudimenti del calcolo – derivate e integrali -, ma non ero andato avanti sistematicamente. Tutto questo era prima del liceo scientifico. Dai miei professori non ho avuto nessuno stimolo. Dopo il primo liceo stavo uno o due anni avanti rispetto al programma, almeno per una serie di cose. Poi c’è stato il problema della scelta dell’università. Mio padre voleva che facessi ingegneria, era una cosa data per scontata in famiglia fin da piccolo. Invece ingegneria non mi attraeva, e in ogni caso, volevo fare qualcosa che coinvolgesse la ricerca e sono stato molto indeciso tra la fisica e la matematica. Poi ho scelto Fisica, per motivi non del tutto chiari. Gli scritti di divulgazione di fisica sono maggiori di quelli di matematica moderna. Se uno chiede in giro, a persone un po’ colte, quali sono i risultati della fisica la gente è in grado di dire qualcosa; mentre i risultati della matematica di questo secolo sono molto più difficilmente comunicabili.

 

I rapporti con la fisica a scuola come erano?

 Il professore non era un granché. Ricordo che ebbi una discussione con lui, perché sosteneva che nell’emisfero sud la bussola puntava verso Sud. Io argomentavo l’inverso perché sul libro c’era il disegno del campo magnetico, da cui si evinceva che il campo non si invertiva all’equatore e quindi la bussola doveva continuare a puntare verso Nord. Ricordo, poi, che riguardo al secondo principio della termodinamica avevo capito in modo completamente sbagliato la formula del rendimento, e quando andai all’università me ne resi conto.

 

Quindi la fisica l’ha un po’ rivissuta ex novo all’università?

 Esattamente. L’impressione che mi ero fatto – in maniera del tutto immotivata – era che la fisica fosse più difficile della matematica e quindi trovavo che fare fisica mi avrebbe messo più in discussione, sarebbe stata più una sfida. Quindi la mia decisione corrispondeva a questa considerazione. Anche se non ho rimpianti, mi sono spesso domandato se non sarei riuscito meglio come matematico, perché ho sempre avuto un certo interesse per lo studio della matematica. Infatti all’università ho approfondito argomenti sia di fisica che di matematica.

 

Che ricordi ha della sua vita universitaria?

 Il primo anno uno è abituato a studiare le cose che dicono di studiare e, quindi, mi sono limitato a fare una preparazione accurata degli esami standard del primo anno. Avevo anche seguito in parte il corso di Algebra tenuto da Lucio Lombardo Radice a Matematica. Verso la fine del primo anno, finiti gli esami principali, ho scoperto altri libri, come il famoso corso di fisica teorica di L.D. Landau e E.M. Lifshitz e così, durante l’estate, ho letto il primo libro di meccanica e al ritorno dalle vacanze il secondo e il terzo volume della serie, insieme al libro di P.A.M. Dirac sulla meccanica quantistica. A metà del secondo anno mi trovavo a maneggiare abbastanza bene metà del programma del terzo, almeno per la meccanica quantistica, e avevo letto il libro di E. Schrödinger di meccanica statistica, il libro di Fermi e anche dei libri di lezioni di W. Pauli.  Per me sono stati molto utili una serie di seminari fatti a Matematica da un docente straniero, un certo Israel Herstein, che faceva algebra su spazi di Hilbert. E’ stato un corso avanzato che si legava bene al livello in cui ero in matematica, al secondo anno. Per il resto, essendo io abbastanza più avanzato dei corsi, non li seguivo. Il mio secondo anno coincideva con il ‘68, quindi i corsi erano anche molto virtuali.

 

Quali sono stati i suoi rapporti con il ‘68?

 Il ‘68 è stato per me un’esperienza estremamente importante, perché io venivo da una famiglia di tradizione liberale però mio padre preferiva votare per la democrazia cristiana come baluardo più solido contro il pericolo dei comunisti. Quindi per me il ‘68 è stato tutto un periodo di cambiamento di prospettiva. Io avevo frequentato il San Gabriele, una scuola in cui molti erano monarchici o almeno di destra, ma che avevo il vantaggio di avere molto vicino casa, e poi i licei scientifici erano sovraffollati. In quell’ambiente, essendo liberale, avevo finito con l’essere uno di sinistra. Durante il ‘68 ero contrario all’occupazione, come attività illegale; ma, una volta fatta, ho partecipato a tutte le attività e piano piano questo ha provocato in me un forte spostamento a sinistra. Nel ‘69 ero ormai completamente d’accordo, dal punto di vista ideologico, con la posizione marxista.

 

Quali altri aspetti del ‘68 hanno cambiato la sua visione delle cose?

 Una delle cose che mi colpirono allora, fu che lo Stato stesso non si comportava come uno Stato di diritto; ero completamente indignato per le cariche della polizia. Se si sostiene che non bisogna agire illegalmente, allora la polizia non può caricare in quel modo. La coscienza della non coerenza dell’assetto sociale rispetto alle sue stesse leggi e alle sue dichiarazioni ufficiali mi aveva molto colpito, all’epoca. Per me l’occupazione è stata anche un modo di conoscere molte persone. Mentre prima all’università eravamo molto organizzati per annate, al momento dell’occupazione entrammo in contatto con gli studenti più grandi. Ho fatto amicizia con tutta una serie sia di studenti che di non studenti che avevano qualche anno di più e che erano molto attivi. Questa forte socializzazione è stata una conseguenza importante di quel periodo, che mi ha dato un’apertura notevole.

 

Che indirizzo hanno preso i suoi studi dopo i primi anni?

 Io ero un anno avanti a scuola e quindi mi sono iscritto nel ‘66. Al terzo anno ho cominciato a interessarmi alla ricerca. A quel tempo la tendenza era di considerare come campo di ricerca principale la fisica delle alte energie. Nicola Cabibbo era appena venuto a Roma ed era il fisico teorico delle alte energie, che in qualche modo, era più prominente in quel momento. Ero molto amico di Massimo Testa, di un anno più grande di me, che aveva cominciato a lavorare con Cabibbo. Abbiamo iniziato a fare qualcosa insieme e, infatti, i miei primi lavori sono firmati in comune. Questa collaborazione con Massimo sulla fisica delle alte energie è andata avanti per un anno e mezzo. C’erano altri due miei carissimi amici: Luca Peliti e Marco D’Eramo. Marco poi ha smesso di fare il fisico ed è andato al “Manifesto”, dove è ancora redattore; (continuo a vederlo spesso e apprezzo moltissimo quello che scrive, che è in genere estremamente intelligente e profondo). Loro facevano la tesi di meccanica statistica con Carlo Di Castro e con loro ho cominciato a interessarmi di quegli argomenti. Una gran parte della mia carriera ha avuto, poi, delle oscillazioni fra la meccanica statistica e la fisica delle alte energie.

 

Come è andata per la scelta della tesi di laurea?

 La tesi di laurea l’ho fatta con Cabibbo; la scelta dell’argomento fu un po’ difficoltosa e ci fu una certa indecisione. Gli articoli di Higgs sulla rottura spontanea delle simmetrie nelle teorie di gauge e  sul bosone di Higgs erano usciti da qualche anno e questa problematica era abbastanza nuova all’epoca. La gente non era del tutto convinta che tutto il formalismo fosse consistente, che  i risultati fossero invarianti di gauge e che non ci fosse un qualche cosa di nascosto, per cui le cose sembravano in un modo ma in realtà erano differenti. Cabibbo mi ha detto di riguardare il tutto e studiare la letteratura. Quello che abbiamo fatto fu di riguardare tutte le identità di Ward per  quanto riguardava le funzioni a due punti e a tre punti per queste teorie, e di verificare che le particelle a massa nulla erano andate via. Il problema era che, mentre in un gauge non c’erano esplicitamente particelle a massa nulla in un altro gauge rimanevano particelle a massa nulla, e questo insospettiva. Un calcolo esplicito faceva vedere, invece, che si cancellavano. Questo fu l’argomento della tesi. Mi sono laureato nel più breve tempo possibile, nella prima sessione in cui era legalmente possibile laurearsi, nel luglio del quarto anno, che era il 1970.

 

Che cosa ha fatto dopo la laurea?

 Nel gennaio del 1971 sono entrato a Frascati come borsista. Quello è stato un momento d’oro per Frascati, perché si stavano facendo le esperienze di annichilazione di elettroni e positroni con l’unica macchina esistente al mondo nella zona interessante  di energia. Una parte dell’attività teorica era rivolta alla comprensione dei problemi di annichilazione e+e-, e dei problemi correlati al deep inelastic scattering, tutte problematiche che erano in qualche modo collegate alla teoria dei campi. Quindi la fisica teorica che facevo era collegata non soltanto alla fisica fenomenologica, così come veniva fatta in altri posti, ma, continuando una tradizione che era un po’ quella di Cabibbo, anche alle interazioni deboli, allo studio della teoria dei campi. Entrai in contatto con Sergio Ferrara e Aurelio Grillo, che erano più anziani di me di due-tre anni, i quali avevano anche loro una attività di teoria dei campi più di tipo gruppale, teorie conformi e attraverso di loro con Raul Gatto. Lasciai perdere parte del filone cominciato con Testa, riguardante problemi di bassa energia connessi agli effetti della rottura della simmetria chirale, e incominciai a interessarmi a problemi di altissima energia, che poi erano connessi con problemi generali di teoria di campo e gruppo conforme. Nello stesso tempo stavano emergendo le somiglianze fra il problema del gruppo conforme nel campo delle transizioni di fase e quello nel campo della fisica delle alte energie, ed entrambi erano connessi in qualche modo con la problematica dell’invarianza di scala, del gruppo di rinormalizzazione e cosi via. All’epoca avevo anche firmato un lavoro sperimentale in cui avevamo studiato il processo e+e- � e+e- + gamma: bisognava utilizzare le formule che avevamo derivato con Francesco Zirilli per  confrontare la previsione teorica con i dati sperimentali. Nel campo della meccanica statistica il problema all’ordine del giorno era il calcolo degli esponenti critici delle transizioni di fase del secondo ordine. Sembrava assodato, dai lavori di Leo Kadanoff e altri, che per le transizioni di fase del secondo ordine, gli esponenti fossero gli stessi per una larga classe di sistemi (universalità). C’era il problema di trovare un meccanismo possibile per effettuare il calcolo degli esponenti e decidemmo, con Peliti e D’Eramo, di usare delle tecniche che venivano dal gruppo conforme. A parte il fatto che il lavoro era tecnicamente sbagliato, la nostra non fu una scelta del tutto felice, perché il metodo non era il più efficace. Il problema fu risolto da Kenneth Wilson con delle tecniche del tutto diverse e a quel punto la situazione fu chiara.

 

Quali erano in questo periodo le persone con cui lavorava a più stretto contatto?

 All’inizio avevo, appunto, cominciato a lavorare con Peliti e D’Eramo sul gruppo conforme in meccanica statistica; mentre sullo stesso argomento, ma da un punto di vista più gruppale, lavoravo con Sergio Ferrara, Aurelio Grillo e Raoul Gatto. Gatto era a Padova, ma dopo un po’ si era trasferito a Roma e aveva spinto Ferrara e Grillo a lavorare sul gruppo conforme. Contemporaneamente esisteva anche un interesse per le problematiche di teoria di campo, per il deep inelastic scattering e così via. I lavori più originali di quel periodo forse li ho firmati da solo. Quelli con Ferrara-Gatto-Grillo erano una lunga serie di bei lavori, che dal punto di vista della fisica non hanno portato a grandi risultati. Là abbiamo fatto un errore fondamentale: abbiamo trascurato di guardare in dettaglio quello che succedeva con il gruppo conforme in due dimensioni. Il gruppo conforme in dimensione diversa da due è un gruppo finito-dimensionale, mentre in due dimensioni diventa infinito-dimensionale e, quindi, dal suo studio si possono derivare una quantità enorme di conseguenze, cosa che è stata iniziata da Alexander Poliakov  nell‘83 e che è stata probabilmente una delle scoperte più interessanti della fisica teorica degli anni ‘80. Noi avevamo tutta la “tecnologia” per fare il lavoro di Poliakov dieci anni prima: c’erano già degli accenni, nei nostri lavori, al fatto che il gruppo fosse infinito-dimensionale in due dimensioni; sapevamo che, in generale, l’esistenza di un gruppo permetteva di porre dei vincoli su altre cose ecc. I motivi per cui questa opportunità ci è sfuggita completamente sono due: all’epoca sembrava che i problemi in due dimensioni fossero facili da capire, poiché c’era una serie di modelli che si risolvevano esattamente; quindi la mia sensazione era che lo studio del gruppo conforme permettesse di ottenere in modo differente risultati esatti già noti. Invece era difficile capire cosa succedeva in tre dimensioni dove non c’erano risultati noti. Questo non era vero perché non tutti i modelli erano risolubili e successivamente c’è stata tutta una serie di risultati su esponenti critici non banali in due dimensioni. L’altro motivo, probabilmente un mio limite personale, è che una struttura gruppale con gruppi troppo grossi mi è antipatica. Insomma, è stata una svista colossale: avevamo tutta la tecnica, e io avevo la capacità di capire che il problema era interessantissimo per le transizioni di fase. Su questo non posso rimproverare gli altri perché ero io l’esperto di transizioni di fase, invece tutta una serie di stime sbagliate mi ha fatto trascurare questo aspetto.

L’altro episodio interessante è collegato con la libertà asintotica. Uno dei risultati più notevoli del periodo fra il ‘72 e il ‘74 fu la costruzione di un modello di interazioni forti consistente e che fosse in grado di produrre delle predizioni precise nella regione di grandi momenti trasferiti.

A Frascati veniva studiata la produzione di adroni nelle collisioni elettrone positrone e a SLAC il deep inelastic scattering di elettrone in protone. Entrambi i processi coinvolgevano fotoni virtuali di altissima energia e il quadro naturale per interpretarli era la teoria dei campi. Sfortunatamente si si usavano tecniche di calcolo perturbativo e nelle teorie allora note si trovava una serie, i cui termini successivi diventavano sempre più grandi all’aumentare dell’energia e quindi i risultati erano del tutto inaffidabili. Si sperava che si potessero usare metodi non perturbativi, in particolare il gruppo conforme, che poteva essere una maniglia per afferrare il comportamento in una regione che era al di là di quello che si poteva toccare perturbativamente. I due temi che studiavo in quel momento – le transizioni di fase del secondo ordine e le proprietà di fotoni altamente virtuali – pur così lontani dal punto di vista sperimentale, avevano in realtà moltissimi tratti in comune ed erano due realizzazioni diverse della stessa problematica: entrambi si studiavano mediante il gruppo di normalizzazione. Nella fisica delle altissime energie si ritrovava la stessa invarianza di scala che c’era nella fisica della transizione di fase. Nella fisica della transizione di fase del secondo ordine, se si calcolavano le proprietà a grandi distanze, ci si trovava di fronte alle stesse difficoltà presenti nelle teorie di campo a corte distanze, alle cui proprietà era infatti connesso  il comportamento dei fotoni virtuali. Il problema, che era presente nella fisica delle alte energie a corte distanze e nelle transizioni di fasi a grandi distanze era quindi quello di sviluppare tecniche non perturbative che permettessero di controllare la teoria dei campi in una regione estesa di distanze, piccole o grandi che fossero. Un successo in questa direzione avrebbe avuto risvolti diretti sui risultati ottenuti nel deep inelastic scattering che era l’esperimento all’epoca più citato nel mondo. Nella fisica delle alte energie era stato una rivoluzione: i risultati erano completamente inattesi per la maggior parte dei fisici e incomprensibili usando gli schemi teorici più alla moda. Anche gli stessi esperimenti di Frascati davano una produzione molto più copiosa delle aspettative teoriche. Quegli esperimenti potevano essere interpretati solo mediante la teoria dei campi ed il problema di riuscire a essere in grado di controllare la teoria dei campi era all’ordine del giorno. Sui modelli noti a alte energie la costante di accoppiamento diventava sempre più grande e quindi non si potevano fare calcoli perturbativi. La soluzione del problema non venne dall’uso del gruppo conforme, utile nella zona non perturbativa, ma venne da una direzione completamente diversa. Varie persone proposero un modello di interazione forte, quello che va sotto il nome di cromodinamica quantistica. Vari ingredienti erano necessari: il primo ingrediente era l’introduzione di quark colorati i quali reagivano mediante scambio di gluoni che portavano colore e, inizialmente, questo era stato fatto da varie persone fra cui Yoichiro Nambu e poi successivamente da Murray Gell-Mann. Ma all’inizio non era affatto chiaro che quel modello potesse essere in qualche modo utile per lo studio del comportamento asintotico ad alte energie. A livello tecnico, quando si usava la teoria perturbativa ad alte energie, le difficoltà erano collegate all’apparizione del cosiddetto Landau ghost, un polo nella regione dove non ci dovrebbero essere poli che dimostrava l’inconsistenza completa dei conti effettuati. Nel ‘71 Kurt Symanzik si rese conto che in un modellino teorico che non aveva niente a che fare con il mondo reale il Landau ghost spariva e rimaneva una teoria che si poteva controllare. Il risultato era che per avere la coerenza della teoria serviva che un certo coefficiente di una certa quantità avesse un dato segno. Per tutti i modelli noti, tranne il modellino di Symanzik che non era assolutamente realistico (erano solo particelle di spin zero, quindi non si poteva immaginare di fare molto senza fermioni), i coefficienti erano tutti positivi e quindi non c’era niente da fare. Successivamente, nel ‘72, Gerardus ‘t Hooft fece una conferenza durante un convegno a Marsiglia, in cui annunciava che nel caso delle teorie di gauge lui aveva calcolato il coefficiente ed era venuto negativo. Quasi nessuno fece una grande attenzione a quel risultato, mentre Symanzik ne capì l’importanza e cercò di spingere ‘t Hooft a pubblicare il lavoro. ‘t Hooft, invece, si mise a lavorare sulla gravità quantistica e tralasciò di pubblicare quel risultato. Io ero molto amico di Symanzik ed avvenne una cosa molto curiosa, quando andai a trovarlo ad Amburgo nel novembre del ‘72. Lui non mi parlò affatto di questa faccenda; non disse una parola perché fece il ragionamento che, se me ne avesse parlato, io avrei scritto qualcosa sull’argomento citando certamente ‘t Hooft; ma, se la prima cosa scritta fosse apparsa citando ‘t Hooft unpublished di fronte all’opinione pubblica il risultato di ‘t Hooft sarebbe stato sminuito e i lavori successivi avrebbero citato me e non ‘t Hooft. Dopo un po’ di tempo, nel gennaio ‘73, Symanzik mi disse qualcosa e poco dopo apparvero alcuni lavori americani, mentre contemporanteamente erano apparsi i lavori di David Jonathan Gross e Frank Anthony Wilczek e quello di Hugh David Politzer sul calcolo del segno. In seguito si scoprì che quel calcolo era già stato fatto nel ‘67, sei anni prima, da alcuni russi, ma tutti lo avevano dimenticato; il metodo dei russi non era completamente convincente, però il risultato era giusto. Ricordo una discussione che ebbi con ‘t Hooft al CERN, nel febbraio ‘73, poco prima dei lavori americani. Io speravo che a partire da quel risultato si sarebbe potuta fare una teoria consistente delle interazioni forti. Non ci riuscimmo. Per farlo era necessario usare un modello con gluoni colorati per il quale, mio errore gravissimo, avevo una profonda antipatia; l’introduzione dei tre colori mi pareva un artificio, un’ “americanata”. Le sezioni d’urto di Frascati erano tre volte più grandi di quelle del modello a quark e allora Gell-Mann se la cavava dicendo: “Ci mettiamo un fattore tre introducendo tre colori”. A me pareva un artificio per far tornare qualcosa che, in realtà, era diverso dalla predizione teorica per altri motivi, ben più profondi. Nella discussione con ‘t Hooft non avevo nemmeno pensato al modello con i gluoni colorati. I gluoni li volevo mettere, ma non colorati; volevo che portassero sapore, che avessero numeri quantici differenti. Fortunatamente, in quel modo, la teoria delle interazioni forti diventava consistente; ma si rovinava la consistenza della teoria debole-elettromagnetica, che era stata appena dimostrata da ‘t Hooft. I gluoni, in quello che adesso si chiama il modello standard, non hanno carica; mentre avevamo discusso con ‘t Hooft di mettere dei gluoni con carica e a quel punto non si riusciva più a fare un’interazione consistente con il fotone e con le altre particelle. Quindi, alla fine di una piccola discussione, arrivammo alla conclusione: “Pazienza, l’idea è bella; però non c’è nessun modello realistico con cui si possa fare una teoria delle interazioni forti”. Il modello realistico venne pubblicato qualche mese dopo su “Physical Review Letters” da Gross, Wilczek e Politzer.

Questo  è avvenuto per la seconda grande scoperta a cui ero passato vicino e che mi ero perso per errori di valutazione. I lavori di Gell-Mann li conoscevo e avevo parlato con lui in occasione dei suoi seminari a Roma. Sarebbe bastato che avessi una minore antipatia per un certo stile di Gell-Mann di fare fisica e la relazione mi sarebbe stata immediatamente chiara. Invece non avevo nemmeno preso in considerazione questa possibilità, se lo avessi fatto avrei capito nello spazio di un minuto che era il modo di farlo. In un famoso lavoro Gel-Mann aveva enunciato il principio secondo il quale la fisica teorica doveva procedere come nella preparazione di non so quale raffinata ricetta culinaria: si prende una fetta di fagiano e la si cuoce tra due fette di vitello; successivamente si butta il fagiano e si mangia il vitello. Fuori dalla metafora: si fanno delle ipotesi, si derivano i risultati, i risultati si conservano e le ipotesi si buttano. Nonostante che Gell-Mann avesse un ruolo dominante e moltissime delle idee nuove e accettate avessero la sua paternità, io ero convinto che le ipotesi dovevano essere prese sul serio e non solo avere un ruolo ancillare per dedurre i risultati. Ovviamente distinguere le ipotesi ragionevoli da quelle introdotte ad hoc è il compito del bravo fisico, che in questo caso ha solo l’aiuto della sua intuizione. In quel caso mi sbagliai.

Il terzo problema, alla cui soluzione ero passato vicino senza trovarla, era il calcolo approssimato degli esponenti critici utilizzando il gruppo di rinormalizzazione, risolto invece da Wilson. In quel caso il mancato successo non fu causato da idiosincrasie, ma probabilmente da una mancanza di fantasia e di tempo dedicato ad approfondire il problema.

Successivamente cominciai a lavorare sui problemi connessi al deep inelastic scattering nella nuova prospettiva aperta dal lavoro degli americani. Ho fatto tutta una serie di lavori in quella direzione fra il ‘73 e il ‘77 e, contemporaneamente, avevo ripreso le cose fatte da Wilson sul gruppo di rinormalizzazione in una serie di variazioni sul tema. C’è stata una più forte attività sul problema delle transizioni di fase limitata nel tempo, nel ‘73-‘74, e poi mi sono interessato al comportamento asintotico della cromodinamica quantistica, al controllo del comportamento ad alta energia del deep inelastic scattering ecc., che è durato fino al 1980. Nell’occuparmi di questo ero favorito, perché erano problemi su cui avevo riflettuto a partire dal 1971 nell’ambito del gruppo conforme, quindi la problematica generale e cosa bisognasse fare dal punto di vista teorico mi era abbastanza chiaro. Ricordo che nel 1971 tutti erano contenti del fatto che ci fosse quello che veniva chiamato Bjorken-scaling nel deep inelastic scattering . Io, allora, basandomi su argomenti generali del gruppo conforme ero arrivato alla conclusione che i dati suggerivano invece delle violazioni alle leggi di scala nel deep inelastic scattering. Queste violazioni erano previsioni generali della teoria dei campi e quindi, il fatto che i dati scalassero bene era limitato a una certa finestra di energia. Questo, però, era fatto su un modello generale di teoria dei campi e non si poteva poi far vedere con certezza che fosse così. Ricordo che, all’epoca, gli sperimentali mi avevano completamente ignorato. Successivamente mi fu immediatamente chiaro che lo stesso tipo di comportamento veniva anche predetto dalle libertà asintotiche e a quel punto fu facile applicare le tecniche delle libertà asintotiche a un problema che avevo già sviscerato indipendentemente.

 

Nel ‘73-‘74 lei è stato alla Columbia University, quali furono le circostanze che determinarono questo soggiorno negli Stati Uniti?

 E’ stato un soggiorno utile dal punto di vista generale, per conoscere gente. A dicembre del ‘72 mi finiva la borsa di studio a Frascati iniziata nel gennaio ‘71 e, quindi, rimanevo libero da impegni in Italia. Ero diventato molto amico di Richard Brant che stava alla New York University, e mi sembrava del tutto naturale passare un anno negli Stati Uniti per rendermi conto di come veniva fatta la fisica là. Avevo già fatto un soggiorno di un mese nel ‘72, girando fra New York e la California. Il tutto era nato dall’amicizia con Brant e, quindi, avevo fatto una domanda per un posto di post-doctor alla New York University; poi a novembre-dicembre Richard mi scrisse che non c’erano più fondi e allora decisi di rimanere in Italia. Ero formalmente disoccupato, ma non me ne preoccupavo affatto poiché non avevo problemi economici a casa. Avevo ricevuto l’offerta di una borsa di studio al CERN (dove sarei andato per due mesi nel ‘73), ero uno degli speaker principali alla scuola di fisica di Cargese dell’estate del ‘73 ed ero assolutamente sicuro di me stesso. Dopo un paio di mesi mi arrivò una lettera molto gentile di Tsung Dao Lee – il fisico cinese che ha avuto il Nobel per la non conservazione della parità all’età di 31 anni -, il quale mi diceva che era contentissimo che io andassi alla Columbia University. In seguito ho ricostruito che Lee si era lamentato un giorno a tavola che non avevano buoni candidati come post-doctor e Brant gli aveva subito parlato di me. Lee si era informato con Sydney David Drell, che io conoscevo bene perché era stato due mesi a Roma. In quel periodo, a Roma, c’era un certo flusso di fisici americani connesso specialmente con l’attività di Adone, che era l’anello di collisione di energia massima funzionante all’epoca. Drell fece una lettera di referenze ottime e quindi la cosa andò avanti molto rapidamente. A parte la fisica, mi interessava andare in una grande città come New York. Princeton è ottima per la fisica, però sta a 70 chilometri da New York e certamente non ci sarei mai andato. Alla Columbia ho fatto amicizia con varie persone, ma dal punto di vista scientifico non mi è stato estremamente utile: ho continuato a lavorare da solo sulle cose che facevo già prima e non ho scritto nessun articolo in collaborazione. Era, tuttavia, stimolante: a New York c’erano una grande quantità di seminari e, quindi, era un miglior osservatorio rispetto a Roma.

 

Qual è stata la sua impressione a livello di ambiente scientifico e umano?

 La Columbia era un posto abbastanza rilassato, ma si sentiva certamente che c’era in giro un modo più competitivo,  più duro, di affrontare i problemi. C’erano spesso situazioni, in cui la gente era un po’ troppo disinvolta con i lavori altrui e si sapeva che bisognava stare in guardia. Era appena avvenuta la storia famosa sull’asymptotic freedom in cui erano usciti due lavori contemporanei uno di Politzer e l’altro di Gross e Wilczek. I lavori che non erano del tutto indipendenti, nel senso che Wilczek era uno studente Ph. D. di Gross e doveva fare un conto per la tesi. Si trattava di calcolare un numero e la cosa che importava era il segno e Gross lo seguiva da vicino. Politzer, a Boston,  stava facendo lo stesso conto per la tesi di Ph. D. Varie persone si erano rese conto che quel numero era importante e avevano dato come tesi il calcolo del numero. Parlando tra loro Gross disse che il numero veniva positivo, mentre Politzer disse che lui lo aveva calcolato e gli veniva negativo. Gross tornò a Princeton e, rifacendo i conti, scoprì che effettivamente il numero veniva negativo. Il risultato fu che Politzer  si trovò un sabato mattina un preprint di Gross e Wilczek in cui affermavano che il segno era negativo e lo ringraziavano per discussioni. Dal sabato al lunedì Politzer scrisse l’articolo e lo mandò per la pubblicazione; i due articoli uscirono uno a fianco all’altro su “Physical Review Letters”. Di questa scorrettezza si parlava molto. Io scherzavo dicendo che bisognava trovare un argomento sottilmente sbagliato, parlarne a Gross e aspettare che lo pubblicasse, tenendo pronto l’articolo in cui si mostrava che aveva fatto un errore: non sarebbe stato facile, Gross aveva un notevole fiuto. Alla Columbia l’ambiente era anche molto tranquillo e non si lavorava sotto pressione. Loro mi offrirono di rimanere, ma io dovevo tornare in Italia per problemi di militare. Avrei dovuto fare l’ufficiale nell’aeronautica, ma durante la visita medica si accorsero che ci sentivo abbastanza male da un orecchio e riuscii a sfruttare il fatto per ottenere l’esonero. L’invito alla Columbia ebbe l’effetto collaterale di trovarmi un posto in Italia. Subito dopo la scadenza del contratto con Frascati incontrai Giorgio Salvini, che conoscevo bene e che era vicepresidente dell’INFN, e gli feci vedere la lettera di T.D. Lee in cui addirittura si diceva qualcosa del genere: “I would be delighted if you would come”. Lee era una persona di gentilezza squisita. Il risultato fu che Salvini mi fece avere, a Frascati, un posto provvisorio INFN per due anni, di cui seppi solo a cose fatte. Naturalmente, nel periodo durante il quale andai negli Stati Uniti fui in congedo. Tornando, ripresi quel posto provvisorio a Frascati che poi divenne permanente con la legge sul parastato del ‘76, che trasformava tutti i posti provvisori, indipendentemente dalla loro durata, in posti permanenti allo scopo di eliminare il precariato.

 

Negli anni ‘80 lei ha pubblicato una serie di lavori nel campo della fisica delle particelle, lavori basati su simulazioni su larga scala per mezzo di computer. Quando è iniziato l’uso massiccio di questo tipo di strumento, che concretizza lo stadio della ricerca intermedio fra teoria ed esperimento, e soprattutto quando ha cominciato a diffondersi, la prassi di non fare più approssimazioni, ma di utilizzare i calcolatori?

 L’uso dei calcolatori nel campo della fisica teorica per problemi di meccanica statistica è molto vecchio, i primi lavori furono fatti da Enrico Fermi, John Pasta e Stanislaw Ulam nel ‘52-‘53. Negli anni ‘60 le simulazioni al calcolatore si erano cominciate a diffondere per i problemi di dinamica molecolare, e per problemi di meccanica statistica con il metodo Monte Carlo; erano abbastanza note in questo ambiente, mentre erano di assoluta novità per il campo della fisica delle alte energie. Varie cose sono avvenute all’inizio dell’utilizzo massiccio dei calcolatori nella fisica delle alte energie. Una è stata una rivoluzione concettuale fatta da varie persone, fra cui Symanzik, che aveva giocato un ruolo molto importante. Symanzik era un fisico tedesco – nato nel 1923 e morto nel 1983 – il quale aveva molto insistito sul fatto che la teoria dei campi relativistica e la meccanica statistica erano due aspetti diversi dello stesso problema; la differenza stava nel fatto che una aveva come terreno d’azione lo spazio di Minkowski, la teoria dei campi, e l’altra lo spazio euclideo. Ma le proprietà della meccanica statistica potevano essere messe in connessione diretta con quelle della teoria dei campi. Il secondo passo avanti, fatto essenzialmente da Wilson nel ‘73, faceva vedere che si poteva scrivere un modello di meccanica statistica il quale, entro certi limiti, descriveva le teorie di gauge. Le teorie di gauge erano diventate importanti, nello stesso anno, per quanto riguardava la fisica delle interazioni forti perché si pensava che il modello delle teorie di gauge fosse alla base della fisica delle interazioni forti (i lavori di cui avevo parlato prima sull’asymtotic freedom). Il comportamento alle alte energie si poteva in maniera perturbativa, mentre era al di là di ogni calcolo perturbativo il comportamento a grande distanza che, invece, era estremamente interessante perché si ipotizzava un fenomeno del tutto peculiare del comportamento dei quark, e cioè che i quark esistessero come entità della teoria ma non potessero essere osservati uno separato dall’altro. Questa proprietà, detta confinamento, era qualcosa di completamente nuovo ed estraneo, apparentemente, alla struttura della teoria dei campi: il cui formalismo serviva in maniera essenziale per spiegare i dati ad alta energia. Era, quindi, cruciale trovare un modo consistente per spiegare il fatto che la teoria sembrava prevedere l’esistenza dei quark e gli esperimenti non li osservavano. Nel ‘73-‘74 Wilson aveva fatto vedere che si poteva formulare una teoria di gauge su reticolo. Veniva infatti introdotta una distanza minima e si supponeva che lo spazio continuo fosse sostituito da un insieme numerabile di punti: si sostituiva lo spazio continuo con un reticolo. In presenza di questo reticolo e in un certo limite appariva il confinamento, che ovviamente poteva essere un artefatto del reticolo. Infatti si sapeva che ,in altri casi, artefatti del genere erano presenti. Dal ‘75 al ‘79 ci furono tentativi di studiare analiticamente quella teoria su reticolo, ma andavano molto a rilento perché non era affatto facile arrivare a una qualunque conclusione. Anche adesso, a quindici anni di distanza, le cose che si possono capire analiticamente su quella teoria sono relativamente poche. Inaspettatamente avvenne che Claudio Rebbi,  Kreutz e Maurice Jacob fecero vedere che, utilizzando i metodi di simulazione numerica che erano ben noti nella meccanica statistica, ma di cui avevamo sentito parlare e conoscevamo poco, si potevano ottenere informazioni molto dettagliate sulle proprietà delle teorie di gauge, informazioni che era del tutto impensabile di poter ottenere con metodi analitici. Questo risultato suscitò un enorme interesse: si trattava di un filone del tutto insospettato in cui per la prima volta, nel caso della teoria dei campi, si aveva a disposizione un metodo numerico per poter fare delle previsioni nel caso delle interazioni forti. Prima c’erano solo tecniche essenzialmente perturbative e certamente non utilizzabili nel caso in cui le interazioni erano forti. Da allora è nata una enorme attività per capire i limiti di quel metodo, quali fossero le tecniche più adatte per fare i calcoli, come si potessero introdurre oggetti che erano meno naturali per la meccanica statistica, per esempio i fermioni. All’inizio si erano studiate le proprietà dei soli gluoni, ma i fermioni giocavano un ruolo importante in questa teoria. Io ho cominciato a interessarmi di tutto ciò fra il 1980 e il 1981, perché mi pareva che per la teoria dei campi fosse importante arrivare a fare delle previsioni quantitative e che quel metodo fosse estremamente utile. Riuscimmo a individuare due tecniche possibili per lo studio dei fermioni. Una fu lo studio dei fermioni in assenza di loop fermionici, che passò con il nome di approssimazione quenched. Poi feci dei lavori con Rebbi e Enzo Marinari e un lavoro con Herbert Hamber, in cui introducemmo il metodo degli pseudofermioni per andare al di là dell’approssimazione quenched. La tecnica che viene utilizzata ora è diversa ma quella è stata importante come punto di partenza. Il termine quenched necessita di una spiegazione. In italiano vuol dire temprato, come nel caso dell’acciaio che viene rapidamente raffreddato. Se l’acciaio viene lasciato a temperature alte, quando esce dall’altoforno viene chiamato annihiled  (credo che il termine italiano sia ricotto, ma non ne sono sicuro), con riferimento all’importanza di queste procedure per i difetti di cristallizzazione. L’acciaio che cala di temperatura più velocemente ha molti più difetti. Il termine quenched veniva utilizzato nel caso dei vetri di spin o dei sistemi disordinati per dire che c’è del disordine quenched, ovvero  c’erano delle variabili che erano congelate. Tecnicamente il metodo utilizzato per le teorie di gauge senza loop coincideva con quello dei sistemi disordinati, nel senso che i campi di gauge erano congelati e i fermioni si muovevano in un campo di gauge congelato; per questo motivo io ho proposto il termine quenched, che è rimasto nella letteratura. Nel 1981, con Marinari, che allora era mio studente, cominciammo a fare simulazioni su grande scala, per quello che era permesso dalle macchine che esistevano allora e continuammo con macchine un po’ più veloci, tipo CRAY. Ce n’era una a Parigi e una a Ginevra, ma l’uso era molto limitato. C’era una notevole fame di ore, anzi di anni, di calcolo! Se si voleva calcolare la massa del protone isolato dal resto del mondo eravamo costretti a metterlo in una scatola più piccola del diametro del protone stesso. Veniva un calcolo interessante, non banale, impensabile fino a qualche anno prima; ma non si poteva confrontarne i risultati direttamente con i dati sperimentali, in quanto gli effetti della scatola erano difficili da stimare. A quel punto c’erano due alternative: una era aspettare pazientemente lo sviluppo dei calcolatori e cercare di ottenere dei finanziamenti per comprare tempo macchina su calcolatori commerciali; l’altra possibilità era di costruire dei calcolatori che fossero in qualche modo adatti a fare conti di questo genere e che fossero decisamente più veloci dei calcolatori commerciali. Io non avevo nessuna esperienza di hardware, di microelettronica o cose del genere. Alla Columbia University c’era un gruppo formato da Norman Christ che nell‘82 aveva cominciato a lavorare alla costruzione di un calcolatore. A Roma una persona che si divertiva molto a costruire elettronica per la fisica teorica era Cabibbo, con cui mi ero laureato. A lui piace molto giocare e aveva fatto un sistema elettronico molto semplice: una “macchina”, come diceva lui stesso, per fare il gioco di “life”. Aveva impiegato uno o due mesi per realizzare questa macchina: era connessa con uno schermo e permetteva di fare i calcoli su un reticolo con 256�256  punti, con un aggiornamento di tutto lo schermo di 50 volte al secondo, il ritmo tipico del televisore. Questa  macchina non ha mai prodotto niente di fisica, anche se il problema della meccanica statistica di “life” è una cosa interessante sulla quale ci sono stati molti articoli importanti, ma rimangono alcune cose non del tutto chiare riguardo questo argomento. Cabibbo voleva fare un calcolatore da usare per le teorie di gauge; ma, mentre la macchina per “life” era stata fatta essenzialmente da tre persone – Cabibbo, un ricercatore più giovane e un tecnico di laboratorio -, per quella si stimava che l’impegno sarebbe stato di quindici persone per due o tre anni. Bisognava rimediare le persone e poi partire essendo sicuri di non dover cambiare idea, sia per i finanziamenti che sarebbero stati sprecati sia per il lavoro che sarebbe andato perso. Bisognava essere sicuri di arrivare in fondo anche a costo di impiegare il doppio del tempo previsto. Dalla fine del 1982 fino alla fine del 1984 si è discusso quanto sarebbe stato bello fare questo calcolatore, ma con molta perplessità e indecisione.

 

Da chi era formato il gruppo che discuteva la questione?

 C’erano Cabibbo, Ettore Remiddi di Bologna, Gianni Fiorentini e altri di Pisa, Roberto Petronzio al CERN e varie persone a Roma tra cui Franco Marzano. Nessuno aveva il coraggio di partire. Verso l’84 ci fu un miglioramento tecnico: uscirono dei chips Weitek per fare moltiplicazioni e addizioni che erano decisamente più compatti e più semplici di quelli precedenti e che, anche se non velocissimi, erano pur sempre in grado di fare 8 milioni di operazioni al secondo ciascuno (all’epoca il CRAY poteva fare 200 milioni di operazioni al secondo, ma un ora di CRAY costava quasi come un chip Weitek). Decidemmo di fare una riunione a Ginevra, mettendoci d’accordo con  un gruppo supplementare di Ginevra che aveva esperienza di microelettronica e aveva costruito un calcolatore non parallelo, che ci servì come punto di partenza. Durante la riunione decidemmo di partire con il progetto e di fare la macchina. Una prima bozza di architettura era già venuta fuori e, a quel punto, cominciammo a lavorare.

 

Come vi siete mossi da un punto di vista operativo e, soprattutto, finanziario?

I finanziamenti erano l’ultima delle preoccupazioni perché il progetto sarebbe costato qualche centinaio di milioni, che era una cifra relativamente grande, ma tenendo conto che Cabibbo era presidente dell’INFN era chiaro che le varie commissioni attraverso cui passavano le decisioni, non avrebbero fatto obiezioni, e d’altra parte il progetto era scientificamente molto valido.

 

Diciamo che le circostanze erano favorevoli per non creare complicazioni.

 Certo. Se si devono ottenere i soldi dal CNR e ci si domanda: “Chissà se me li dà, perché non sono amico di nessuno”. In questo caso il progetto era valido e il presidente stesso era tra i membri promotori, era chiaro che i finanziamenti non avrebbero creato problemi, che invece avrebbero potuto sorgere sul fronte delle risorse umane. In ogni caso l’INFN aveva sempre fatto al politica di appoggiare progetti validi dal punto scientifico. A Roma Marinari, che era appena tornato dalla Francia e aveva avuto un posto a Roma, si mise a lavorare in maniera dedicata a quel progetto. Una circostanza fortunata fu che trovammo due laureandi che erano degli ottimi programmatori e avevano già una notevole esperienza, Piero Paolucci e Simone Cabasino- ai quali piacque moltissimo il progetto APE. Avevamo deciso di chiamare così la macchina. La maggior parte di queste sigle, come esperimenti che si chiamano “Zeus” o “Icaro” non vengono ovviamente per caso. Io volevo qualcosa che avesse un significato sia in inglese che in italiano, e alla fine abbiamo scelto APE, che significa scimmia antropomorfa in inglese, come abbreviazione di Array Processor Expansible. Lo “scimmione” fu accettato. Cabasino e Paolucci presero in mano il problema del software. Fu una fortuna: il problema del software in generale era stato completamente sottovalutato dalle persone più anziane del gruppo e poi avevamo scoperto che eravamo completamente incapaci di gestire la parte del software che deve interpretare linguaggio. Quando si costruisce una macchina uno vuole che faccia i conti ma bisogna dirle che conti deve fare, bisogna scrivere un programma in linguaggio di programmazione possibilmente avanzato. Alla Columbia University perdevano una gran quantità di tempo a scrivere le cose in linguaggio macchina, noi avevamo deciso di non scrivere niente in linguaggio macchina. Bisognava scrivere un programma che passasse da qualcosa scritto in linguaggio umano avanzato a qualcosa in linguaggio macchina, ovvero un compilatore. Ci sono due livelli nella costruzione di un compilatore: una prima parte è quella che viene chiamata in inglese parser, che corrisponde a una interpretazione del testo. Un linguaggio è definito da una certa grammatica e la prima operazione è vedere se il programma è consistente con la grammatica del linguaggio. Una volta che il programma è stato interpretato nell’ambito del linguaggio scelto, bisogna passare alla generazione del codice macchina corrispondente a quelle istruzioni. Le fasi quindi sono due: una fase di interpretazione del programma dipendente dalla grammatica, in cui il programma viene riscritto in una specie di linguaggio astratto conveniente al calcolatore ma non all’essere umano, e una seconda fase dove dal linguaggio astratto viene generato il programma eseguibile.

La generazione del codice per la macchina era relativamente facile e l’abbiamo fatta Marinari ed io (all’epoca venivo scherzosamente preso in giro per il mio uso disinvolto della parola facile: una volta mi chiesero la mia opinione su come risolvere un problema, ci pensai un attimo e dissi “E’ facile. Forse è anche possibile”). La parte precedente di interpretazione del linguaggio erano cose note più agli informatici, mentre non erano note nell’ambito di fisica. E’ stato un caso più unico che raro: abbiamo imparato dagli studenti che sapevano quello che dovevano fare e avevano la conoscenza necessaria di informatica  e quindi si occuparono loro della parte di parsing. Ci vollero due anni per costruire la macchina. Ci furono una serie di ingenuità hardware: nessuno di noi era espertissimo del campo e in ogni caso solo su scala abbastanza piccola; l’arrivo di uno studente esperto in hardware, Gaetano Salina, fu anche molto utile. Quello che ci fece impazzire furono problemi ingegneristici come l’alimentazione: mettere schede a massa facendo in modo che le tensioni non ballassero; situazioni in cui c’erano un kilowatt o un kilowatt e mezzo in un crate, potenze che erano molto maggiori di quelle che normalmente venivano usate. Scoprimmo che gli alimentatori che dovevano stabilizzare la tensione a 5 volt lo facevano, ma avevano un tempo di intervento di uno o due microsecondi, mentre certe istruzioni facevano partire il consumo della macchina in tempi molto più stretti; e, quindi, vedevamo la tensione della macchina che scendeva da 5 a 4 volt per mezzo microsecondo e poi risaliva, un fenomeno del tutto inaspettato. Il problema fu curato, aggiungendo condensatori da tutte le parti. Alla fine la macchina funzionò e funzionò bene.

 

Quando cominciaste ad avere dei risultati?

 Cominciammo a utilizzare la macchina dall’87 e la usammo fino al ‘91-‘92 ottenendo tutta una serie di risultati di fisica. C’è stato un momento in cui, forse, era la macchina più veloce del mondo, o forse c’è sempre stato un calcolatore commerciale lievemente più veloce. In ogni caso eravamo in una situazione  eccezionale, molto rara nella storia dei calcolatori: le stesse persone avevamo progettato l’hardware, avevano scritto sia  compilatore che i programmi applicativi.

Anche so non avevo mai fatto una saldatura, conoscevo bene l’hardware della macchina: dopo il debugging del prototipo della scheda che faceva i conti, arrivarono da Pisa delle nuove schede in cui dovevano essere eliminati i difetti del prototipo, tuttavia sbagliavano un’operazione. Guardai attentamente il progetto, capii che il problema derivava dal fatto che uno dei cento chip della scheda era troppo veloce, andai in magazzino, presi un chip dello stesso tipo, ma più lento, lo feci sostituire e tutto funzionò. Alla fine degli anni ’80 la tecnologia si era molto evoluta e si poteva fare qualcosa di molto più veloce: si decise di partire con un nuovo progetto che si chiamava APE 100, perché la macchina finale doveva essere cento volte più veloce della precedente. Questo progetto partì verso l’89-‘90; ma, a parte la fase iniziale di progettazione, io mi ero stancato. Il progetto era diventato molto più professionale: si trattava di rifare le stesse cose fatte prima, ma farle meglio; bisognava curare tutto in maniera molto più precisa; bisognava progettare con il CAD, con sistemi integrati di controllo. La macchina doveva essere simulata nella parte elettronica, prima di essere costruita: non era più possibile che le stesse persone avessero un controllo dettagliato di tutte le parti del sistema. Verso il ‘90, dopo aver contribuito definizione dell’architettura della macchina, quindi, ho lasciato il progetto. C’era anche una litigiosità interna che ha contribuito a spingermi a fare qualcosa che avrei fatto in ogni caso, perché parte dei miei interessi si era spostata di nuovo dalla fisica delle alte energie alla meccanica statistica. Quando fu finito APE 100 ci si rese conto che, invece di costruire una macchina cento volte più veloce di APE, era meglio costruire quattro APE 25, ciascuna per dei progetti diversi di fisica, e così fu fatto. Se si volevano portare avanti più programmi – dato che non c’era mai stato un progetto, per cui più utenti utilizzavano una macchina, piuttosto che utilizzare la macchina in momenti diversi e poi per le prove bloccare tutto insieme, era risultato più conveniente dividere la macchina in quattro pezzi per vari utenti  potenziali. Questo semplificava notevolmente le cose e quindi furono costruiti quattro APE 25 invece di un APE 100, anche se per un giorno furono fatte funzionare insieme. La macchina sta continuando a lavorare egregiamente per quanto riguarda la fisica delle alte energie. In questi ultimi anni il coordinatore, per quanto riguarda le simulazioni per la fisica delle alte energie, è stato Guido Martinelli; mentre io e Enzo Marinari ci siamo occupati di utilizzare la macchina per problemi di meccanica statistica. Adesso il progetto che sta andando avanti e dovrebbe fra poco, anche se con qualche ritardo, finire è APE 1000, una macchina essenzialmente veloce 1000 volte il vecchio APE, con la struttura di APE 100 scalata in velocità di un fattore 16. Da un lato l’elettronica ha permesso, in un numero relativamente piccolo di anni, di guadagnare un fattore 16, dall’altro c’era il problema che, all’interno dell’INFN, c’erano un po’ di persone che avevano acquistato la competenza per produrre elettronica ad alto livello di sofisticazione che spingevano per utilizzare le loro competenze per fare qualcosa. Tutto ciò ha spinto verso la costruzione di una nuova macchina.

 

Qual è il bilancio complessivo di un progetto così innovativo? Inoltre c’è anche da notare che l’utilizzazione di queste macchine può andare al di là degli obiettivi iniziali.

 Infatti. Nella prima macchina eravamo arrivati proprio al limite, “tirando il collo” all’architettura in maniera tale da andare veloci al massimo per le teorie di gauge. L’altra macchina, APE 100, è stata fatta in maniera tale che potessero girare programmi più generali e sull’ultima versione, Su APE 1000, girano programmi ancora più generali, anche se non ancora tutti i programmi possibili. Le ricadute scientifiche sono state il guadagno di un certo numero di anni, nel senso che abbiamo avuto la possibilità di fare per primi delle cose, che avrebbero fatto altri o noi stessi qualche anno dopo. Adesso, per esempio, con quelle macchine stiamo facendo tutta una serie di simulazioni sui vetri di spin che non avremmo mai avuto la possibilità di fare altrimenti, perché su macchine convenzionali sarebbe stata necessaria una quantità di calcolo eccessiva. Da un lato la possibilità di fare calcoli e dall’altro l’ aver acquistato, in Italia, un certo numero di capacità di progettazione di microelettronica e di costruzione di macchine calcolatrici sono stati risultati molto utili. Le cose sono andate essenzialmente un po’ peggio per quanto riguardava la commercializzazione della macchina. Sono state fatte un certo numero di copie di APE 100, che sono state vendute per la ricerca. L’INFN ha ceduto i diritti all’ALENIA, che a sua volta dava all’INFN un 10%, credo, del fatturato, che sarebbe stato poi utilizzato per borse di studio. Tutto il lavoro era stato fatto da persone associate INFN, con finanziamenti INFN, nell’ambito di ricerche INFN; la proprietà intellettuale della macchina era quindi dell’INFN.

 

Quindi qual era l’interesse di coinvolgere l’industria?

 E’ stato Cabibbo a creare il collegamento con l’ALENIA. Secondo la mia opinione, il grosso dello sforzo della comunità scientifica, invece di esaurirsi nel fare un solo calcolatore, si traduce in una ricaduta scientifica circa dieci o cento volte più grande, se se ne fanno dieci o cento. Una volta fatto lo sforzo di fare un oggetto non troppo artigianale, riproducibile, il poterlo diffondere nell’ambito della comunità scientifica significa dotare anche gli altri dell’uso di quello strumento.

 

Quanto è stata soddisfacente la risposta?

 Dipende da quello a cui si aspira. C’è stata una piccola diffusione sia nella comunità scientifica italiana, sia presso laboratori francesi e tedeschi. Probabilmente sono stati fatti una ventina di esemplari; so con certezza che i tedeschi ne sono molto contenti e che vari laboratori italiani li usano. La risposta è stata nettamente al di sotto delle potenzialità dell’oggetto. L’ALENIA non è una ditta che commercializza normalmente calcolatori, quindi non ha la rete di distribuzione adeguata. In secondo luogo è mancata da parte dell’ALENIA la decisione di accollarsi il progetto in prima persona. Il problema è il seguente: questa macchina ha una architettura diversa dalle altre, quindi bisogna scrivere i programmi in maniera adattata all’architettura della macchina e tenendo conto del fatto che la macchina lavora in parallelo; bisogna fare un lavoro di riscrittura dei programmi, che può essere più o meno facile, più i programmi sono complicati più il lavoro diventa difficile e lungo; è quello che gli ingegneri chiamano la migrazione del software, il passaggio del software da un certo tipo di architettura, struttura, linguaggio, a un altro tipo. Questa operazione non si può fare ogni tre/cinque anni, ma è evidente che con il ritmo della microelettronica la macchina tipo APE 100, che era estremamente competitiva nel ‘92, lo è diventata sempre meno nel ‘98 e da allora tende a diventare obsoleta. Quando uno compra un calcolatore commerciale, c’è un’industria stabile che assicura l’evoluzione del prodotto. Se uno compra un calcolatore IBM, tra quattro anni comprerà un altro calcolatore IBM che sarà allo stato dell’arte e riutilizzerà i programmi, facendo una volta ogni tanto delle modifiche. Adesso, se si passa da APE 100 a APE 1000, è perché l’INFN ha deciso di finanziare quest’ultimo progetto. Questa è una decisione interna dell’INFN che non poteva essere garantita dall’ALENIA, né l’ALENIA poteva garantire che l’INFN passasse da APE 1000 a APE 10000. Non si è riusciti a passare dalla commercializzazione di un prodotto esistente al fatto che qualcuno prendesse l’impegno di produrre in maniera stabile una linea di macchine. Il progetto APE 1000 sta andando avanti ma ci sono forti perplessità da parte dell’INFN:  se far partire APE 10000 oppure decidere che l’esperienza è chiusa; la scelta dipende non solo da problemi di politica scientifica dell’INFN, ma anche dal fatto che certe persone sono annoiate dall’ aver fatto i tre calcolatori e non vogliono farne un quarto.

 

Al di là del discorso ALENIA, non ci potrebbero essere altre ditte a livello europeo interessate a investire nel settore?

 Il livello europeo non è chiaro, ma ho l’impressione che non ci sia interesse. Per una situazione di questo genere sarebbe servita la possibilità di avere un qualche tipo di capitalizzazione fresca, qualche ditta anche piccola che investisse dieci o cinquanta miliardi su questo e partisse in questa direzione. Io sono convinto che in una situazione strutturale tipo californiano non si sarebbero avuti problemi a far partire una cosa di questo genere. In questo momento l’impresa è a rischio: non è detto che, se uno parte in questo settore, riesce a sfondare sul mercato; o meglio, il problema è trovare una nicchia ecologica adatta al tipo di impresa. Il numero di persone che possono essere interessate a supercalcolatori di questo tipo è relativamente piccolo tra gli utenti di calcolatori, si tratterebbe forse di un 30% degli utenti di calcolatori per la fisica.  Se una frazione dell’ 1 per mille di tutti gli utenti di calcolatori fosse interessata, sarebbe sufficiente per giustificare l’investimento in questa classe di calcolatori, almeno da parte di una ditta piccola. Abbiamo parlato con quelli dell’IBM di questa possibilità, e mi sembra che ci avessero fatto capire che dare una possibilità in più al cliente lo avrebbe confuso.

 

Il passaggio al mercato appare quindi piuttosto problematico.

 Si, è stato decisamente difficile. Io ho l’impressione che sia mancata una ditta che si occupasse in maniera professionale e fosse disposta a rischiare dei capitali. L’ALENIA non ha rischiato: ha fatto l’investimento minimo, sapendo che un certo numero di vendite erano garantite. Bisognava fare un investimento a rischio, che avrebbe avuto un piccolo mercato di cento, duecento esemplari l’anno; ma l’industria doveva farlo in maniera professionale, assumendo in prima persona l’incarico di sviluppare il progetto, come, per esempio, partire con il progetto APE, 1000 assumendo persone dell’INFN e dando uno stipendio adeguato. All’atto della vendita di APE 100, avrebbe dovuto annunciare che era in preparazione la macchina successiva. La commercializzazione realizzata è stata meglio di niente, altre persone hanno usato la macchina, ma non sono state sfruttate le potenzialità del progetto. Abbiamo avuto l’impressione che le industrie italiane non fossero molto inclini a rischiare capitali. Una o due industrie che abbiamo contattato erano interessate, ma solo alla possibilità di ottenere dallo Stato un contributo – tramite la legge 52 – che fosse maggiore delle spese che dovevano affrontare.

 

Però era anche un’occasione a livello europeo per conquistare una certa indipendenza.

 Esattamente, ci sono uno o due costruttori al mondo di macchine parallele e nessuno in Europa; è una situazione molto spiacevole, tanto più che la CRAY si regge solo per le commesse del Governo americano e del Dipartimento della difesa. Se per qualche motivo il Dipartimento della difesa decidesse di non essere più interessato alle simulazioni che loro fanno, la CRAY chiuderebbe. Avere una seconda produzione in Europa sarebbe utile in questo senso.

 

Quali sono stati i suoi contatti successivi con questo tipo di oggetti?

 Personalmente ho imparato molto su come funzionavano i calcolatori. I calcolatori sono uno degli oggetti che stanno più diffondendosi e sono misteriosi per molti, conoscere nei minimi dettagli un calcolatore e saperlo progettare è un’ottima cosa da un punto di vista culturale. I calcolatori sono una delle cose più importanti del mondo moderno e capire esattamente come sono fatti permette di avere una comprensione generale di un certo numero di cose che accadono. Nell’utilizzo di APE abbiamo capito un certo numero di tecnologie e di metodologie pratiche per fare simulazioni su grande scala che poi abbiamo utilizzato su altre cose. La parte di costruzione di hardware non ha ricadute sulla fisica, ma è stata anche quella un’esperienza interessante per la quale si è capita la differenza tra il dire e il fare, fra il progettare e fare attività sperimentale.

 

All’interno del suo percorso come si colloca l’esperienza con il calcolatore?

 Quando ho cominciato a lavorare in teoria dei campi, non c’era nessun metodo che permettesse di capire quello che succedeva con la teoria nell’ambito delle interazioni forti.  Ci rendemmo conto che il problema si poteva risolvere. Dal punto di vista personale il lavoro di fare simulazioni al calcolatore è quasi un lavoro sperimentale. C’è a chi piace e a chi non piace.

 

E la sua tendenza all’interdisciplinarietà dove l’ha condotta dopo l’esperienza del calcolatore?

In realtà io ho cominciato a usare il calcolatore soltanto negli anni ‘80, però già mi ero occupato di uno spettro di problemi che andavano dalla fisica delle alte energie alla fisica dello stato solido. Negli anni ‘70 si è capito che studiare un certo tipo di problematica – gli effetti collettivi di tante particelle che interagiscono tra di loro, in particolare mediante il gruppo di normalizzazione – andava dalla fisica delle alte energie alla fisica dello stato solido. I problemi erano apparentemente diversi, ma c’era un forte filo conduttore. Le tecniche usate erano molto simili e proprio negli anni ‘70 c’è stato un travaso di tecniche dalla fisica delle particelle elementari – un processo già cominciato negli anni ’60 – alla fisica dello stato solido e subito dopo c’è stato il fenomeno inverso, un certo numero di idee – gruppo di normalizzazione, teoria dei campi euclidea, simulazione Monte Carlo – che erano nate nell’ambito della fisica della materia condensata e della meccanica statistica e che sono tornate indietro verso la teoria dei campi. Questo travaso di persone e di attività da un campo all’altro è stato una delle novità più interessanti di quel periodo. Meno frequente è stato il fenomeno di persone che ritornavano nell’altro campo, lìoscillare. Io mi sono spostato prima verso la meccanica statistica, poi sono tornato a problemi della teoria dei campi e così via. Questo credo che sia dovuto anche a una mia particolare curiosità. Agli inizi degli anni ‘80 alcune delle tecniche sviluppate in meccanica statistica per i vetri di spin sono state importanti nel campo delle reti neuronali e a questo punto un certo numero di persone si è spostato sulle reti neuronali. Io mi sono occupato per un breve tempo di reti neuronali e successivamente di problemi di immunologia, connessi alle reti idiotipiche; alla fine ho smesso questa attività di reti e sono ritornato a lavorare nel campo della meccanica statistica. La scoperta del calcolatore in fisica teorica è caratteristica del periodo degli anni ‘80, ma non è uno strumento necessario per l’interdisciplinarità; mentre sono importanti i legami concettuali e di tecniche, che servono più che altro come passaggio per porsi un certo tipo di problema. Una volta che si comincia a studiare il problema e lo si trova interessante in sé, il passaggio alla fine si dimentica e il problema si studia per quello che è, per il suo interesse intrinseco.

 

 

Quindi è stato l’interesse per le reti neuronali che alla fine l’ha portata a interessarsi di biologia?

Si. Un certo numero di persone aveva cominciato a lavorare sulle reti neuronali, e mi avevano parlato dei problemi delle reti idiotipiche del sistema immunitario su cui non era stato fatto molto lavoro. Mi sono occupato un po’ di questo e ho dovuto studiare una certa quantità di biologia.

 

Che cosa l’aveva incuriosita, in effetti? Non necessariamente lo stimolo iniziale poteva diventare così forte da indurla ad occuparsene tanto a fondo, da studiare biologia. Sembra esserci stata una chiara volontà di interessarsene.

 Si, certo, su questo sono d’accordo. Il passaggio da vetri di spin a reti neuronali è abbastanza diffuso e viene in modo naturale, il tipo di tecniche usate erano le stesse. Probabilmente a me questa problematica delle reti neuronali dava effettivamente l’impressione di essere un po’ affollata; e quindi mi sono incuriosito del problema del sistema immunitario. D’altra parte al liceo avevamo fatto pochissima biologia e questa poteva essere una buona occasione per studiare un campo che non conoscevo minimamente.

 

In verità molti fisici furono fortemente suggestionati dal famoso libro Che cos’è la vita, scritto da Erwin Schrödinger subito dopo la guerra. Max Delbrück si è convertito alla biologia molecolare e anche Arthur Gamow, si è fortemente interessato di queste tematiche. Per non parlare di Francis Crick, un fisico che insieme a James Watson, un biologo, ha scoperto la struttura a doppia elica del DNA. Nel tempo molti altri fisici sono stati catturati da queste tematiche.

Infatti, è effettivamente un campo molto affascinante. C’erano tutta una serie di problemi che non ho studiato e che sono connessi a quel tipo di ricerche: i problemi dell’evoluzione prebiotica o la struttura tridimensionale delle proteine, non sono cose estremamente lontane, come spirito, dalle cose che uno fa sui sistemi disordinati. Diciamo che da un lato c’è una curiosità per il problema biologico e dall’altro l’idea di provare a utilizzare in un altro settore una tecnica che si conosce e che si è imparato ad usare: per poterlo fare uno deve conoscere tutti e due i campi.

 

Sembrerebbe, come lei stesso diceva, che venga spontaneo passare da un campo all’altro perché si applicano per analogia certe tecniche, ecc.; però mi sembra anche che ci siano in lei una forte curiosità che la spinge ad esplorare campi nuovi, verso l’acquisizione di nuovi strumenti, e un certo spirito d’intraprendenza.

 Certamente è così, e c’è anche, probabilmente, il desiderio di avere un controllo sulla natura su varie scale: come con la fisica nucleare uno ha il controllo su distanze piccolissime, dell’ordine del nucleo atomico, con la materia condensata uno ha il controllo su una scala più grande, e con la biologia uno ha il controllo su scala ancora più grande, così nell’insieme si ha un’idea del mondo su vari livelli e non si conosce soltanto quello che succede su una zona piccola. Buona parte degli sviluppi che ci sono stati, anche se uno non se li aspettava, sui vetri di spin e sui sistemi disordinati possono avere in qualche modo un interesse per la biologia. Ci sono delle strutture in meccanica statistica che sono presenti anche nel campo evolutivo, cosa che uno non si aspettava minimamente. Nel caso dei vetri di spin si tratta di strutture ad albero, e un albero è fondamentale nella filogenesi, per la quale le specie sono organizzate ad albero secondo l’evoluzione. Quando ci si è accorti di questo fatto è nato un grande interesse a capire se queste relazioni siano completamente a caso o se ci siano, dei collegamenti inaspettati, un legame più profondo.

 

Che tipo di evoluzione hanno avuto i suoi interessi nel seguito?

 A parte due lavoretti che devo finire di scrivere, ho smesso di occuparmi di biologia verso l’88. Il motivo è stato che a un certo punto mi sono reso conto che le informazioni biologiche che c’erano sul sistema immunitario non erano abbastanza dettagliate per il tentativo di fare una teoria come quella che volevo. Il fenomeno stesso che io volevo cercare di spiegare non era chiaro biologicamente se esistesse o se fosse rilevante. Il rischio era di fare una teoria del niente, quindi ho lasciato perdere quell’ attività. Adesso volevo riprendere e studiare dei problemi di ripiegamento degli acidi nucleici perché abbiamo visto che ci sono tutta una serie di risultati in questo campo che io non conoscevo minimamente e che mi sembrano molto interessanti, quindi volevamo – insieme a un mio dottorando – riguardare queste cose. Per il momento non me ne sto occupando molto; ma questo dipende anche dal fatto che non ci si può occupare di cinque problemi contemporaneamente, perché non si riesce nemmeno a seguire la letteratura. Per un dato periodo di tempo bisogna fare delle scelte. Tra l’88 e il ‘91 ho lasciato il grosso delle simulazioni di fisica delle alte energie e ho abbandonato anche la biologia, che invece avevo portato abbastanza avanti fra l’83 e l’88, per riprendere tutta la problematica dei sistemi disordinati, che avevo portato avanti in quello stesso periodo ma meno intensamente. Ho cominciato a fare simulazioni su grande scala dei vetri di spin, passando anche dallo studio dei vetri di spin a quello dei vetri. Attualmente il grosso delle mie attività è concentrato sullo studio dei vetri e vetri di spin e poi ci sono delle piccole attività di altro tipo.

 

A questo punto vorrei farle una domanda in forma un po’ provocatoria. Riconsiderando la notevole diversificazione della sua attività di ricerca sembrerebbe di poter pensare che lei ritenga un po’ troppo ambiziosa e, comunque, riduttiva l’idea che la fisica delle particelle possa “spiegare tutto”, anche se risulta difficile non immaginare che all’origine ci sia qualcosa di fondamentale. Come si colloca, quindi, nel suo panorama personale questa idea, che ora comincia a essere un po’ superata, ma che continua in varie forme a serpeggiare, nonostante tutto?

 Certo, detta così è qualcosa di terribilmente riduzionistico! Per quello che intendo dire, è cruciale la parola “spiegare”. Per esempio consideriamo la famosa frase supercitata di Laplace, secondo la quale un matematico estremamente abile, conoscendo le condizioni iniziali dell’universo, potrebbe calcolare tutto il futuro dell’universo stesso. Usando la parola “spiegare”, potremmo ritradurla dicendo: “le condizioni iniziali dell’universo spiegano tutta la storia successiva dell’universo”. In qualche senso, dal punto di vista della meccanica classica, questo è vero; ma noi non siamo matematici infinitamente abili e in ogni caso è una spiegazione estremamente difficile, non è una spiegazione lineare. Se uno vuole sapere perché, quando l’onda del mare arriva sulla riva, si forma la schiuma, se uno vuole conoscere il meccanismo con cui questa si forma e le sue proprietà principali, il sapere se ci sono i quark o no è completamente irrilevante, qualunque cosa succeda anche in fisica nucleare, non solo per i quark, è irrilevante; basta conoscere le proprietà fondamentali di viscosità e di tensione superficiale dell’acqua per affrontare il problema. C’è una frase molto bella di Luciano Pietronero che illustra questo concetto: “Se si paragona il mondo naturale a un monumento, la fisica delle particelle elementari studia i mattoni del monumento e le altre fisiche studiano l’architettura”. Se si smantella un monumento mattone per mattone non si ha più il senso del monumento nel suo insieme. E’ anche vero che la conoscenza della materia a livello fondamentale implica in qualche modo la conoscenza a livello successivo: le leggi fisiche determinano le leggi chimiche, però questo fatto non semplifica per niente la soluzione di un problema di chimica, che va risolto usando una serie di concetti nell’ambito della chimica anche se la base è nella fisica, e così via con una regressione forse all’infinito o forse che si ferma ai quark. A livelli diversi ci sono in ogni caso  tipi di problematiche diverse. Per capire un dato tipo di fenomeno bisogna studiarlo in un ambito limitato: per la schiuma uno parte dalle proprietà dell’acqua, ma non si pone il problema di capire perché l’acqua a 20° è liquida. Questo è il punto di partenza della fisica da Galileo in poi: non cercare di affrontare l’universo nel suo insieme, ma osservare un fenomeno in una zona abbastanza ristretta. In ogni caso la fisica delle particelle elementari è estremamente interessante, ed è estremamente importante, a livello quasi filosofico, cercare di capire quali sono le leggi ultime della materia a livello più basso. Queste leggi contengono in potenza la spiegazione del resto, ma è chiaro che non è una spiegazione lineare. Se si prendono le persone e si mettono intorno a un tavolo, credo che siano più o meno tutti d’accordo su quello che ho detto adesso; ma non, se si parla di finanziamenti. Se si tratta di discutere se bisogna costruire un acceleratore o meno, è un’altra musica. Probabilmente certi libri, come quello scritto da Steven Weinberg o certe affermazioni su riviste circa il fatto che la fisica delle particelle spiega tutti i livelli superiori, sono anche fatte a livello pubblicitario. La fisica delle particelle ha e ha avuto dei problemi seri negli ultimi anni, negli Stati Uniti e un po’ meno anche da noi. Negli Stati Uniti era in qualche modo ,un po’ portata dalla guerra fredda, anche se poi l’applicazione militare non c’era.

Anche se i soldi sono un po’ venuti fuori facendo “credere che”.

 

Si, o non dicendo, essendo un po’ vaghi. Immagino che alla domanda di un senatore: “Lei pensa che da queste ricerche possano venire fuori delle armi?” Uno poteva rispondere: “No, ma non lo pensava nemmeno Fermi nel ‘34!” Una risposta di questo genere magari non c’è mai stata, ma è perfettamente plausibile.

Se vogliamo parlare di pubblicità, c’è anche chi si fa pubblicità nel campo della complessità. Il libro di Gell-Mann Il quark e il giaguaro è stata smaccatamente un’operazione di questo tipo.

 Esattamente! Infatti là si trattava di fare pubblicità all’istituto di Santa Fe e rimediare soldi. Secondo me, ci sono due punti di vista: uno può prendere il Il quark e il giaguaro di Gell-Mann come un manifesto ideologico, ma uno lo può anche vedere come un tentativo di influenzare il pubblico colto per creare l’atmosfera giusta. E’ chiaro che c’è un mélange di entrambe le cose. Uno non scrive delle cose in cui non crede, ma qualche punta di estremismo deriva da un certo tipo di competizione per i finanziamenti. Ricordo un articolo molto sui generis di Antonino Zichichi sul Tempo o qualche altro giornale, circa una ventina di anni fa, che cominciava in questo modo: “L’altezza dell’uomo dipende dagli elettroni, perché il 99,99% dello spazio dell’uomo è occupato dagli elettroni; se noi levassimo lo spazio non occupato dagli elettroni, l’uomo sarebbe più piccolo di un decimillesimo di millimetro; e così via: noi, a Frascati, studiamo le proprietà degli elettroni”. Nessuna di queste frasi è falsa: è vero che l’altezza dell’uomo dipende dagli elettroni, è vero che se l’elettrone avesse una massa doppia gli atomi sarebbero più piccoli e tutto sarebbe più piccolo, ecc.; ma è vero anche che i progressi tecnici fatti a Frascati sulle proprietà degli elettroni non aggiungono niente alla nostra comprensione sull’altezza dell’uomo.

 

In fondo i fisici non possono fare a meno di pensare che la fisica sia una scienza intrinsecamente più fondamentale rispetto alle altre. Lei che cosa ne pensa? In che cosa la fisica differisce dalle altre discipline?

A proposito di questo ricordo che c’era un mio amico, Sergio Ferrara che quando c’era un argomento di fisica che non gli piaceva diceva: “Ma che è chimica?”

 

 In fondo era quasi gentile; Ernest Rutherford considerava tutto il resto collezionismo di francobolli.

 Le cose sono un po’ cambiate. Devo dire che la chimica non suscita molto le mie simpatie, la trovo un po’ noiosa e, quando studio biologia, cerco di passare la parte chimica un po’ velocemente. La fisica è difficile da definire; ci sono varie definizioni possibili, ma quella che mi piace di più è una definizione ampia: “La fisica è quella scienza, in cui la matematica gioca un ruolo portante”, infatti si può pensare di fare della chimica senza usare la matematica e lo stesso vale per una quantità enorme di biologia e di ingegneria, mentre non si può immaginare la fisica senza un apparato matematico sofisticato. E’ essenziale, per fare fisica, che siamo in grado di tradurre il mondo in numeri e poi di fare una teoria di come questi numeri si evolvono con il tempo. La fisica è, quindi, una disciplina strettamente connessa con la matematica, mentre le altre discipline hanno una relazione di tipo diverso. Questa è una definizione abbastanza ampia che può quindi inglobare parti della biologia e della chimica fisica, come il calcolo di proprietà chimiche a partire dalla meccanica quantistica e così via. Con questo tipo di definizione è probabile che anche la statistica delle popolazioni vada a finire dentro la fisica.

 

D’altra parte è anche vero che le zone di confine tra le varie discipline si stanno allargando molto.

Assolutamente, ma d’altra parte quelli che fanno statistica delle popolazioni, se sapessero di essere classificati come fisici, finirebbero con l’essere molto stupiti!

 

Lei ha sperimentato moltissimo il tradizionale internazionalismo della fisica, che tipo di ruolo ha avuto questa esperienza nella sua formazione

 E’ stato molto positivo. L’ambiente italiano, il romano in particolare, è estremamente connesso con l’estero. Appena si entra è subito chiaro che il livello della discussione è mondiale e comprende tutti; non c’era praticamente una scuola nazionale. I russi erano un po’ a parte, nel senso che avevano un modo un po’ diverso di fare la fisica, non a livello delle equazioni, ma come comportamento sia nella scelta dei problemi, sia nel decidere che metodo usare. Complessivamente hanno uno stile, nel fare ricerca, un po’ diverso. Nessuno da noi ha mai fatto i tipici seminari russi, che a volte cominciavano alle tre e andavano avanti fino alle sette; si cominciava a parlare di un argomento, tutti intervenivano, e finché qualcuno aveva qualcosa da dire si andava avanti a oltranza. Dal punto di vista tecnico era una scuola eccezionale, peccato che adesso non sia rimasto quasi nessuno in Unione Sovietica. Un mio amico, che è uno dei pochi rimasti, e anche se passa metà del suo tempo fuori, dice che il Landau Institute gli sembra più che altro una stazione ferroviaria, perché ci sono studenti che arrivano e dopo due anni vanno all’estero, quindi ci sono arrivi e partenze di continuo.

 

Che cosa si può dire della fisica teorica in Italia nel dopoguerra?

 Al momento in cui ho studiato io, a Roma, la persona più rilevante era Cabibbo, che era stato vari anni all’estero e quindi era pienamente connesso con tutte le attività che si facevano all’estero. Cabibbo, insieme a Francesco Calogero, si era laureato nel 1958 con Bruno Touschek, che veniva dall’Austria. Cabibbo in qualche modo era connesso con Raoul Gatto, che credo sia stato allievo di Bruno Ferretti. Subito dopo la laurea Cabibbo aveva lavorato con lui, e probabilmente Gatto, che aveva qualche anno più di lui, deve averlo molto influenzato, specialmente all’inizio. Gatto e Cabibbo cercavano di capire, dal punto di vista teorico, che cosa ci si poteva aspettare dalle collisioni elettrone positrone. C’era Adone in costruzione, a Frascati, e l’incarico di vedere che cosa si poteva imparare e quali erano i processi possibili era stato assegnato a loro, che scrissero un poderoso articolo su “Physical Review” in cui si discutevano i processi dominanti. Nel ‘62 Cabibbo era andato al CERN e l’ aveva cominciato a occuparsi di interazioni deboli, poi era tornato a Roma nel ‘69. Gatto ha avuto anche un’ influenza su Roma tramite Cabibbo. Quando Gatto si trasferì a Firenze, con lui si laurearono Guido Altarelli, Luciano Maiani, Giuliano Preparata, Franco Buccella e Roberto Casalbuoni. Poi ci fu, per un anno, Giovanni Gallavotti il quale poi decise che la fisica delle particelle non era fatta per lui. A Firenze Gatto ha avuto un numero enorme di allievi di ottima qualità, ha contribuito a formare forse la metà dei fisici teorici di quella generazione, ha assorbito i più brillanti. Il gruppo di Firenze è stato molto importante. Gatto aveva messo, su negli anni ‘60, un gruppo di una decina di persone con tecniche quasi russe: ogni settimana si guardavano nuovi articoli che lui riteneva interessanti e qualcuno veniva incaricato di raccontare l’articolo in maniera comprensibile guardando la letteratura e questi seminari venivano pianificati. C’era un forte senso di comunità, in cui Gatto faceva da coordinatore.  La gente studiava, poi si arrivava alla conclusione che certe cose si potevano magari rifare in modo diverso e, quindi, venivano scritti una serie di articoli. Il centro di Firenze è stato importante per l’attività di Gatto; lui poi è tornato a Roma nel ‘73-74, ma aveva già smesso di organizzare le cose in maniera seminariale.

 

Quanto si dedica all’insegnamento?

Bisogna distinguere fra i corsi e le tesi di laurea e di dottorato. Le tesi di laurea devono essere firmate dal relatore, che ha una certa responsabilità, mentre per la tesi di dottorato non c’è una firma. Il grosso del lavoro viene dal seguire i dottorandi e i laureandi. Un corso bisogna prepararlo, ma se uno non lo cambia troppo spesso non porta via tanto tempo; mentre seguire le tesi prende molto più tempo. A “Tor Vergata” il numero di persone che si laureava era abbastanza piccolo, mentre a Roma 1 il numero di persone che si laurea è circa 150 e quindi la richiesta di tesi è abbastanza elevata. Un po’ devo anche dire di no. Al contrario seguire le tesi di dottorato è anche un lavoro di ricerca fatto in collaborazione con neolaureati; il problema è che, a volte, potrebbe non essere il lavoro che uno ha interesse a fare in quel momento. Quindi ci sono dei ritardi, perché si impostano i dottorati e le tesi pensando a delle cose accessibili, per cui non serve una grande esperienza, ma i temi possono diventare meno interessanti con il passare del tempo. E’ un tipo di lavoro che a me interessa molto, essere a contatto con i giovani e spiegare le cose; ma diventa un po’ pesante per la quantità di tempo che si deve dedicare. Capitano delle giornate in cui impiego l’intera mattinata ad incontrare gli studenti e, quindi, tutto il resto rimane indietro. Il peggio è stato l’anno scorso, in cui ho avuto sei dottorandi. In compenso i risultati sono stati molto belli e giustificavano la fatica fatta.

 

Cosa pensa del dottorato, un’istituzione che ormai è in crisi un po’ in tutto il mondo?

 Come momento di ricerca funziona, anche se ci sono dei problemi tecnici: lo studente impiega quattro o cinque anni per fare gli esami per la laurea, poi lavora un anno per la tesi e, se entra al dottorato, si potrebbe pensare che potrebbe continuare a lavorare sulla tesi o argomenti affini. Invece si deve preparare per l’esame di dottorato, che è pesantissimo. Quelli che sono meglio preparati si classificano, ma la selezione è molto forte. Occorrono vari mesi di preparazione, poi ci sono tre o quattro mesi di esami di ammissione sparsi per l’Italia, poi, se si entra, ci sono i corsi . Gli ultimi due anni si mettono a lavorare, ma per almeno un anno hanno fatto tutt’altre cose. Nel caso della fisica, il fatto che la laurea sia già un tema di ricerca comporta che la gente si trova costretta a interrompere e poi a riprendere. Se il livello della tesi di laurea fosse più basso l’organizzazione non porrebbe questo tipo di problema. Il numero dei dottori è troppo grande e si creano problemi di assorbimento se il dottorato deve preparare solo persone che devono andare in enti di ricerca e università; d’altro canto, se uno ritiene che il dottorato debba servire a formare persone che poi vanno a lavorare non necessariamente nella ricerca, allora il numero sarebbe troppo basso. Il Ministero della ricerca scientifica dovrebbe avere al suo interno, ai livelli elevati, persone che hanno il dottorato in scienze, perché è evidente che una persona che deve prendere delle decisioni sull’organizzazione della ricerca scientifica dovrebbe avere un’idea concreta di queste cose. Verrà fatta nel ministero una nuova segreteria tecnica per la programmazione scientifica, e spero che mettano dentro persone che hanno fatto un dottorato in scienze, che sanno cosa sia la ricerca, hanno un certo tipo di mentalità scientifica e possono, quindi, capire di che cosa si parla a livello di programmazione della ricerca o di sviluppo tecnologico della società. Il guaio è che, come la storia dell’uovo e della gallina, da un lato non ci sono sbocchi di questo genere – non ho mai sentito di nessuno, che dopo aver fatto il dottorato in fisica sia andato a finire nella dirigenza statale -, dall’altro il fatto che non ci siano sbocchi di questo genere fa in modo che il dottorato sia automaticamente finalizzato all’attività di ricerca. Il mio timore è che si stiano accumulando sempre di più dei neo-dottori: anche se si cercano tutti i canali possibili per sistemarli. La situazione è anche più complicata se la si guarda a livello generazionale. Ci si aspetta che verso il 2005 ci sia una grande quantità di pensionamenti nelle varie carriere e addirittura ci si preoccupa che allora non ci saranno persone da sostituire come ricercatori del CNR o professori. A questo punto sarebbe importante trovare un certo numero di posti, anche provvisori, per le persone che hanno fatto i dottorati adesso, in modo da avere persone attive nel campo scientifico al momento in cui si creeranno gli spazi. Non si può abbassare a livelli molto bassi il numero delle persone che entrano e poi farlo risalire; bisogna, quindi, fare in qualche modo un tipo di politica di questo tipo. In Francia era stata fatta nell’ultimo periodo del governo delle sinistre, poi era stata parzialmente abbandonata con il governo successivo, non so se sia stata ripresa con il nuovo governo. In un certo periodo i francesi avevano fatto un aumento temporaneo degli organici del CNRS, prevedendo che quei posti verranno riassorbiti dopo il 2005. Una programmazione è assolutamente necessaria ed è dovuta a una situazione anagrafica che corrisponde a un gran numero di persone assunte trent’anni fa all’età di trent’anni che provoca una specie di ondata di piena che da un lato ha bloccato le nuove assunzioni, ma che quando arriva al momento del pensionamento crea un vuoto. Una cosa abbastanza ridicola, che però adesso sta migliorando, è l’aver organizzato il dottorato con gli esami su scala nazionale. Se una singola commissione deve fare l’esame di dottorato a venti persone lo fa nel modo più veloce possibile.

 

Rimanendo in tema di riforme, lei che cosa ne pensa di quella che riguarda il CNR?

 Riguardo il CNR non è chiaro cosa stia succedendo. Bisogna distinguere fra la riforma del quadro generale della ricerca scientifica e la riforma dei singoli enti. La riforma dei singoli enti è un problema abbastanza delicato, sul quale ci sono delle filosofie del tutto diverse soprattutto in relazione al problema di come si interpreta l’autonomia degli istituti di ricerca.  Nel caso del CNR ci sono due possibilità: lo statuto del CNR è fissato per legge, ma d’altro canto gli enti di ricerca hanno una certa autonomia e, quindi, si può pensare che il nuovo statuto del CNR debba essere opera del CNR stesso e che il CNR debba proporre un nuovo statuto da trasformare in legge. L’altra possibilità è che il Ministero decida dall’alto un nuovo statuto, che, sia pure dopo una contrattazione, alla fine viene subìto. Quello che dovrà succedere, quindi, non è chiaro, perché esiste nella legge l’autonomia degli enti di ricerca alla quale non è stata data una versione operativa e non si capisce se questa autonomia debba essere anche statutaria. Non è chiaro, quindi, se il CNR si dovrà autoriformare o potrà essere riformato dall’alto. Anche io sono incerto, perché da un punto di vista democratico sarebbe più bello se si autoriformasse, ma è possibile che il CNR non si voglia autoriformare e quindi potrebbe essere necessario un intervento dall’alto. L’altro problema riguarda l’organizzazione centrale del ministero, in particolare come si debbano istituire i comitati di consulenza. Dopo un anno di travaglio è stato fatto un decreto legislativo, che ormai ha forza di legge. E che è il risultato di compromesso fra varie tendenze; ma, secondo me, non è finita nel migliore dei modi possibili, nel senso che certe versioni intermedie di quel documento erano migliori e più esplicite. Ho seguito la vicenda da vicino perché ho fatto parte di un gruppo di sette persone consultate dal ministro, principalmente nel periodo dal febbraio al luglio del ‘97, per dare dei suggerimenti su come procedere. Parte di questi suggerimenti sono stati accolti e parte no, inoltre su alcuni argomenti alcuni avevano opinioni differenti. Per esempio, io avevo suggerito come norma generale che il presidente degli enti dovesse essere proposto dall’ente stesso e poi successivamente scelto dal ministro, come avviene con l’INFN; ma questo non avviene nel CNR, il cui presidente viene deciso dal ministro. La procedura più trasparente sarebbe la seguente: il ministro nomina un comitato di persone, il comitato propone una rosa motivata di nomi e poi il ministro decide. La mia proposta non era condivisa da tutti perché alcuni dicevano che in questo modo si dà troppa autonomia agli enti e questo può andare bene per certi enti e non per altri. C’erano, quindi, idee diverse. L’altra cosa su cui c’è stato uno scontro era se avere dei comitati elettivi che decidono i finanziamenti. C’è l’esempio dei famosi comitati del CNR: comitati elettivi che decidono quanti soldi si danno ai vari gruppi. L’impressione che io ed altri avevamo era che avere dei comitati  elettivi fosse un pessimo modo di andare avanti, perché se le persone elette sono in qualche modo responsabili verso la base, i comitati diventano il luogo di uno scontro di potere in cui la gente cerca di entrare per farsi un potere e il dare i soldi, poi, può essere usato per aumentare la base elettorale. C’è stato un tentativo di trovare dei meccanismi alternativi a questa soluzione che non sembrava la migliore. E’ difficile dare un giudizio preciso sul decreto, perché su alcuni punti su cui c’erano stati degli scontri, c’è scritto che le cose verranno decise dal regolamento emanato in futuro dal Ministero, quindi bisognerà vedere quando le cose verranno fatte funzionare. Una delle assi portanti della nuova organizzazione è un comitato di nove persone, nominate dal presidente del Consiglio dei ministri su proposta del ministro della ricerca scientifica, che dovrebbe servire da consiglio scientifico del Ministero per il quale dovrebbero passare i piani della ricerca. Invece di farli passare per i consiglieri scientifici del ministro viene creato quest’organo, in cui le persone vengono nominate per cinque anni a coprire una posizione a tempo pieno incompatibile con altre posizioni. Una persona non può, quindi, essere presidente di un’ente o stare dentro un’industria e così via. Anche qui le norme di compatibilità saranno decise dal regolamento. In ogni caso il problema è di vedere se il ministro è capace di costituire un gruppo di nove persone, svincolate da ogni situazione di tipo elettorale ma di grande prestigio, e che si occupa di fare i piani della ricerca e della programmazione per la ricerca, programmazione che si dovrebbe appoggiare su una segreteria tecnica. Potrebbe funzionare se queste persone sono scelte in maniera oculata. Bisogna evitare di prendere persone a un livello di rispettabiltà scientifica troppo bassa, ottimi scienziati che però non hanno una certa statura; e dall’altro bisogna evitare di mettere dentro premi Nobel, che poi non fanno certamente il lavoro di guardare da vicino lo stato dell’arte, vedere i piani, vedere i bilanci degli enti e studiare cosa sta succedendo. Quindi tutto dipende dal riuscire a far funzionare bene questo meccanismo. C’era una opzione iniziale di quindici persone, e si era proposto che le persone venissero nominate dal ministro su una rosa proposta dalla comunità scientifica. La conferenza dei rettori, degli enti e poi la conferenza delle accademie italiane, ecc. faceva una rosa di 45 persone e il ministro avrebbe scelto fra queste. La versione successiva è stata che il ministro decide e quindi bisogna vedere se questo funziona o no. Al ministro non è piaciuto che i nomi fossero suggeriti da qualcun altro, perché avrà pensato che lo limitasse troppo. D’altro caso questi organi in forma di comitati non sarebbero decisionali in senso stretto, perché farebbero delle proposte al ministro; e allora, se il ministro non è stato coinvolto nella scelta, non si fida del comitato e quindi non ne tiene conto. In fondo la responsabilità politica delle decisioni sta al ministro e quindi lui ha il diritto di nominare della gente di cui si fida. E’ evidente che se poi il ministro non è capace di nominare delle persone ragionevoli a quel punto siamo nei guai. Se il nuovo sistema funzionerà o no dipenderà molto dalle scelte che verranno fatte a livello di persone. Nell’ambito del CNR una cosa che bisognerebbe proprio fare è quella di mettere gli incarichi a rotazione: nel CNR ci sono i laboratori scientifici, in cui cՏ lo stesso direttore da dieci-quindici anni. La regola è che la persona più potente e più prestigiosa ha la posizione apicale in un laboratorio e rimane là finché non va in pensione o finché non si è stancata. Questo tipo di gestione non va, bisognerebbe introdurre una rotazione ogni tre anni, al massimo sei, ma sembra molto difficile che il CNR metta in statuto che non si può fare il direttore di una unità per più di sei anni di seguito. Questa era una cosa che il Ministero doveva decidere per tutti gli enti di ricerca. Autonomi sì, ma con delle regole di base come questa, che vanno imposte dall’alto senza ledere l’autonomia dell’organizzazione in dettaglio. Su questo c’è una forte opposizione. E’ importante evitare che tutti questi comitati diventino dei centri di potere di persone che, una volta installate, usano la loro posizione in quel modo. Nell’INFN c’è una regola stretta: i direttori di sezione, tutti i direttori, non possono restare più di sei anni; al limite possono passare da un incarico all’altro, ma questa è una cosa diversa. Nell’INFN la direzione dell’unità di ricerca è un incarico che una persona assume temporaneamente per tre o sei anni ed è del tutto evidente che una volta finito ritorna nei ranghi, è più un servizio che altro; mentre al CNR c’è l’idea che il direttore del laboratorio è quello che ha il potere, il che in certi casi può essere un bene, ma crea all’interno del CNR una lotta per il potere che c’è molto meno in altre istituzioni, che non hanno una struttura così gerarchizzata.

 

Quindi sembra difficile trasferire un modello che funzione piuttosto bene, come quello dell’INFN; ma alcune regole sono sensate in sé e andrebbero applicate in ogni caso.

 Si, anche se non si può pensare di trasferire un modello da un ente all’altro, è irragionevole che dentro il CNR non si debba adottare il sistema di rotazione. A questo punto non so cosa succederà e sono curioso di vedere come va a finire. Su queste cose si incentrano tutta una serie di faccende politiche, del tutto assurde, nel senso che i singoli ministri, pur essendo pro tempore, si sono assunti immediatamente il problema della potenza del proprio ministero e, quindi, il Ministero dell’Industria difende a spada tratta le sue competenze sull’ENEA, quello della Sanità difende le sue competenze sull’Istituto superiore di Sanità. E’ chiaro, invece, che una cosa ragionevole sarebbe che tutti gli enti dipendessero dal Ministero della Ricerca. Questo sarebbe il tipo di ristrutturazione abbastanza naturale, ma non è affatto quello che i ministri vogliono. In fondo i ministri stanno per un po’ di tempo e poi se ne vanno e non si capisce che interesse debbano avere a difendere cose che hanno tutt’altra durata. Si dovrebbe cercare di avere strutture di controllo unificate, per discutere la ricerca pubblica italiana in un solo ambito e non separate ministero per ministero.

 

 

Che importanza ha per lei l’eleganza formale delle teorie? Oggi ha ancora senso parlare di quella che personaggi come Paul Dirac hanno definito “bellezza” di una teoria?

 Certamente la parola “bellezza” è un po’ fuori moda, nel senso che in effetti se ne parlava un po’ più all’inizio del secolo. Einstein per esempio ha detto sia “La bellezza lasciamola ai sarti”, sia “La teoria che avevo fatto della gravitazione era talmente coerente che ero assolutamente convinto che gli esperimenti avrebbero dato un risultato positivo”. D’altra parte la teoria ristretta e poi quella generale della relatività sono le teorie più belle da un certo punto di vista, perché da un numero estremamente piccolo di ipotesi, di principi, si ottengono un numero enorme di risultati. Una teoria estremamente sofisticata come la relatività generale, in cui entrava tutta la geometria riemanniana che poi era la cosa più moderna all’epoca, era certamente quella più bella, eppure Einstein ha fatto quelle affermazioni. Chissà cosa aveva in mente come criteri di bellezza. Più il numero di principi è relativamente piccolo rispetto alle cose che spiega, più la teoria è bella, ricca. Nel caso dei vetri di spin quello che per me è stato importante è l’esistenza di un formalismo, un linguaggio, uno schema di ragionamento in cui uno possa trasferire i fatti teorici. Il formalismo ha quasi una vita sua, ci si può affidare al formalismo e farsi guidare. Una volta sviluppato un formalismo uno non deve ogni volta ripensare a che cosa vogliano dire le formule. Nel caso più semplice: se uno ha un formalismo per fare le moltiplicazioni i numeri possono rappresentare un qualunque oggetto fisico e quindi uno lavora con i numeri dimenticando l’oggetto fisico e poi alla fine del formalismo trova un risultato attribuendo un significato ai numeri. In qualche modo il formalismo serve per estrarre gli elementi essenziali di un problema, inquadrarli in un certo modo e usare le regole del formalismo, che permettono di procedere e di arrivare a dei risultati. Alla fine uno si può chiedere quale sia l’interpretazione in termini fisici. Personalmente mi ha aiutato notevolmente l’idea che il formalismo fosse una cosa estremamente solida e che per lavorare nell’ambito dei vetri di spin uno si dovesse affidare al formalismo e procedere utilizzando degli argomenti euristici o solo formali e successivamente porsi il problema di vedere che cosa ne risultava. Nel caso dei vetri di spin è successa una cosa abbastanza anomala. Quando ho ottenuto i risultati principali, nel ‘79, c’era un certo tipo di formalismo, il formalismo delle “repliche”, e poi ho capito che cosa volessero dire fisicamente solo quattro anni dopo. Evidentemente avrei potuto procedere in senso inverso, ma era quasi impossibile, dato che non era facile capire quello che stava succedendo conoscendo già i risultati, interpretarli. Un fenomeno simile è successo con la meccanica quantistica: Schrödinger voleva scrivere una funzione di evoluzione di qualche tipo e aveva scritto la sua equazione basandola su analogie formali;  successivamente la funzione d’onda è stata interpretata come ampiezza di probabilità. E’ chiaro che sarebbe stato estremamente difficile porsi il problema dell’ampiezza di probabilità e di quale fosse l’equazione corrispondente. A nessuna persona sarebbe mai venuto in mente che le equazioni dell’universo fossero formulabili in termini di ampiezza di probabilità che succeda qualcosa. Anche con le relazioni di commutazione di Heisenberg ci si è in qualche modo fatti trascinare dal formalismo e poi si è cercato di capire. La via non è porsi il problema: “Faccio questo, ma cosa vuol dire?” Werner Heisenberg e Paul Dirac dicevano: “Gli oggetti fisici p e q invece di essere numeri sono matrici, operatori che soddisfano certe regole di commutazione”. Una volta fatto questo si sono domandati che cosa volesse dire, e qui nasce il problema dell’interpretazione. Lo stesso per l’equazione di Dirac: “Voglio – per motivi che non erano affatto stringenti – che le equazioni siano del primo ordine e non del secondo ordine”. Non c’era nessun motivo vero, perché anche le equazioni del secondo ordine sono consistenti; ma Dirac era convinto in qualche modo che per essere consistenti, le equazioni dovessero essere del primo ordine. L’argomento era sbagliato, ma ha costruito le equazioni del primo ordine e ha scoperto che contenevano automaticamente lo spin. A questo punto uno può anche dire: “La teoria deve essere bella, per essere bella deve avere un formalismo elegante e quindi mi affido al formalismo”. Se mi affido al formalismo viene una teoria bella altrimenti no, perché il fatto di avere una teoria affidandosi al formalismo permette di partire da una quantità molto piccola di quesiti iniziali e di andare avanti. Secondo me è importante affidarsi al formalismo, non tanto per avere delle teorie più o meno belle, quanto per costruirle, proprio perché in questo modo uno riesce a sfruttare al massimo le conseguenze e alleggerire i concetti su cui sta lavorando. Se uno sta lavorando su un qualche cosa in cui tiene conto di tutti gli addentellati possibili nel mondo reale, questo è un concetto pesante che si manovra in maniera complicata, se uno, invece, lo porta a una astrazione matematica, questo è un qualche cosa di più leggero su cui dopo si può manovrare facilmente. Tornando alla meccanica quantistica: X è la posizione, nel mondo reale la posizione è quello che viene misurato con un apparato di misura, c’è una persona che misura, c’è un oggetto esterno, al limite c’è anche la coscienza di quello che fa le misure e così via. Insomma, c’è per lo meno un oggetto misurato da un apparato sperimentale che dà un numero; quello è chiaramente il significato vero della posizione. Invece di portarmi dietro il concetto di posizione, con tutti gli addentellati del reale, io lo sostituisco con una matrice, con un operatore. Non si capisce cosa abbia a che fare un operatore con l’apparato sperimentale, ma se questo operatore diventa un oggetto astratto che entra nelle equazioni del moto, io ho l’equazione in cui X non è un numero ma è un operatore e uso la stessa equazione e le condizioni iniziali sono fatte di conseguenza. Dopo bisogna riagganciare al mondo reale l’X come operatore. Questo passaggio è facile quando c’è stato un certo sganciamento, un processo di astrazione per cui uno si trova in un contesto matematico di un certo tipo su cui può lavorare. Lavorare in questo modo tende automaticamente a generare delle teorie eleganti. In fondo alla fine tutte le teorie che abbiamo sono eleganti. La cosa più inelegante che c’è è la fisica nucleare o certe cose di chimica in cui uno deve ricostruire pazientemente le cose attraverso approssimazioni che però non sono completamente chiare. In certi casi le teorie che sono state fatte sono state subito eleganti, in altri casi sono ineleganti e nessuno riesce a sostituirle. Prendiamo la fisica delle interazioni forti: se uno suppone che ci siano i quark, i gluoni e tutto il resto e uno vuole calcolare le varie proprietà della materia, come il momento magnetico del protone, del neutrone, ecc., al momento attuale non esiste un modo preciso per fare queste cose. Esistono simulazioni numeriche molto pesanti, tipo quelle che facevamo noi con APE, che però sono tutto tranne la cosa più elegante possibile e d’altro canto uno fa cose di questo genere quando gli altri tentativi non hanno avuto successo. Ogni tanto uno ha la speranza che in certi limiti la teoria si possa risolvere esattamente e tutto si riesca a calcolare con formule semplici; tante volte si è tentato di farlo ma non si è riusciti. Se uno avesse questo tipo di teoria, non solo sarebbe più interessante ed elegante, ma anche più predittiva, perché permetterebbe poi di fare le cose non utilizzando grossi calcolatori, ma in maniera analitica, semplice.

 

In certi casi le cose storicamente hanno seguito un itinerario diverso: le stupende equazioni di Maxwell sono venute fuori a coronamento di una pluralità di esperimenti e formulazioni. Il tutto è poi confluito in quella forma finale.

 Infatti, Maxwell le ha fatte, non per farle eleganti, ma per farle consistenti. Alla fine, a forza di semplificare e di mettere insieme tutti i risultati, sono appunto venute eleganti.

 

Uno potrebbe, quindi, pensare che a volte l’ineleganza nasca dal fatto che la teoria non sia ancora completamente definita.

 Oltre a questa possibilità, possiamo considerare che l’eleganza sia connessa a una formulazione molto semplice, da cui i risultati si possono derivare mediante dei ragionamenti analitici sotto controllo. Non è detto che in tutti i casi sia possibile una tale formulazione. Se uno considera le valenze, che funzionano in un certo modo e così via, e poi come da tutte le valenze uno riesca a costruire tutta la chimica organica, questo ha una sua eleganza. Il passaggio dalla fisica alla chimica organica, in cui si prende il carbonio con sei elettroni attorno (di soluzioni analitiche con sei elettroni non se ne parla affatto) e si fanno approssimazioni più o meno complicate per trattarlo, è qualcosa di non elegante, ma la non eleganza è intrinseca al problema. Se voglio fare le tute da minatore eleganti non funzionano come tute da minatore. Uno può decidere di occuparsi di abiti da sera o di tute da minatori. L’eleganza è benvenuta ed è più piacevole lavorare con cose eleganti.

 

Il discorso che lei faceva prima sul farsi guidare dal formalismo riconduce all’inquietante rapporto tra la fisica e la matematica.

Infatti. E’ impressionante considerare tutta una serie di situazioni in cui è stato possibile fare teorie eleganti, come la meccanica quantistica, che dal punto di vista matematico differisce di un epsilon da quella classica. E’ estremamente sorprendente che, una volta messe le cose in una forma matematica di un certo tipo, sia possibile passare a descrivere fenomeni che sono intrinsecamente del tutto diversi da quelli classici, come quelli della meccanica quantistica, soltanto con una piccola variazione. E’ effettivamente inquietante come sia possibile che ci sia una descrizione semplice ed elegante delle leggi dell’universo a vari livelli e questa è una domanda quasi filosofica. Uno potrebbe dire: “Se non ci fosse o se fosse troppo complicata non l’avremmo trovata, e quindi noi abbiamo in qualche modo selezionato i problemi semplici”. Ma dall’altro lato uno può anche dire: “La fisica fondamentale delle particelle elementari, la descrizione al livello più basso, è una descrizione di un certo tipo e il fatto che le leggi di base dell’universo siano di questo tipo, permette a livelli successivi di avere delle formulazioni semplici”. Però è chiaro, a questo punto, che è difficile capire quanto quello che noi troviamo dipenda dalla nostra forma mentis o meno, che è quasi una domanda  del tutto senza risposta al momento attuale. Non possiamo metterci a discutere che cosa avremmo trovato se il nostro cervello funzionasse in maniera diversa. Se potessimo trovare un extraterrestre con il cervello organizzato in altro modo e discutere con lui allora uno potrebbe dire che queste cose della teoria sono dei passi obbligati e altre derivano da noi. Gli esperti di scienze cognitive dicono che noi abbiamo una memoria a corto termine estremamente ridotta. L’esperimento tipico è che vengono nominati sette oggetti di seguito e fino a un numero che va da 5 a 9, quindi dell’ordine di 7, le persone riescono a ripeterle, più di quel numero uno ne dimentica qualcuno. E’ impressionante che sono oggetti e quello che conta è il numero degli oggetti. Se io dico: 17, 41, 26, 38, 49 sono cinque oggetti; ma dieci numeri separati (1, 7, 4, 5, 2, 6, 3, 8, 4, 9) non li avrei assolutamente ricordati. Vuol dire che invece di lavorare con un numero grande di concetti piccoli, è più semplice lavorare con pochi oggetti più corposi possibile. La gente, infatti, tende a raggruppare i numeri telefonici in tre o quattro oggetti piuttosto che ricordarli separatamente. Siamo andati avanti costruendo oggetti sempre più corposi in maniera tale da lavorare con questi concetti, utilizzando frasi relativamente piccole. Se avessimo avuto un cervello differente, che avesse avuto difficoltà nei confronti di concetti corposi e gli fosse stato invece facile averne centomila contemporaneamente presenti, il nostro modo di pensare e di fare fisica sarebbe stato, forse, completamente differente. Se le cose siano dovute a un’eleganza intrinseca o a un nostro modo di procedere, questo resta misterioso.