Facciamo due conti. La lettera di intenti di ATLAS è del 1992, Il Detector and Physics Perfomance Technical Design Report (ovvero il librone con la summa degli studi di fisica che ATLAS pensa(va) di poter fare a LHC) è del 1999. Ovvero, la collaborazione esiste da circa 15 anni, e una buona frazione di essa lavora in modo esclusivo su ATLAS da una buona decina d'anni, se pensate che lui, ATLAS, il rivelatore vero e proprio, è appena finito, e non ha ancora preso nemmeno un dato. La lunghissima gestazione degli esperimenti di LHC ha una serie di effetti collaterali, potenzialmente piuttosto devastanti.
Per iniziare, esiste almeno una generazione di giovani fisici (gente più o meno della mia età, poco sopra o poco sotto la trentina, che ha finito il dottorato da qualche anno) che non ha mai visto un esperimento reale, e non ha mai (mai!) analizzato un dato vero. Ha passato il suo tempo a giocare con le simulazioni di ATLAS, raffinando i suoi studi su un detector fittizio, perfettamente simmetrico, privo di sorprese da capire e problemi da risolvere. Chiariamoci: la simulazione di un rivelatore è uno strumento cruciale in ogni studio di fisica dell particelle: l'aberrazione sta nel (potere, o volere) confrontarsi solo e soltanto con la simulazione, che, per definizione, è un'approssimazione (ottimista) della realtà. Nei pragmatici Stati Uniti è impossibile ottenere un PhD in ATLAS solo con con l'analisi dei dati simulati: senza dati reali (siano essi dati di test-beam o di commissioning con raggi cosmici) nessun istituto ti darà mai il titolo di dottore di ricerca. In Francia sono più flessibili, e in Italia conosco diversi posti dove è assolutamente normale fare prima la propria tesi di laurea e poi il dottorato confrontandosi solo con la simulazione. Il risultato è una banda di fisici che conoscono magari molto bene le teorie più esotiche e le tecniche statistiche più raffinate, ma che non sono per nulla allenati nell'arte di trattare i dati che escono da un rivelatore reale. E che quindi spesso si perdono in dettagli che nessuno sarà mai davvero in grado di risolvere (nel senso ottico del microscopio), temo senza comprendere appieno la complessità delle cose.
Un mio ex-collega amava chiamare l'attività a cui di dedicano questi loschi figuri la PAW-physics (PAW è stato lo strumento principale delle analisi dei dati degli esperimenti di fisica delle alte energie fino a qualche anno fa, oggi rimpiazzato - piaccia o meno - dal suo successore, ROOT): ci si concentra esclusivamente sull'ultimo passaggio dell'analisi, quello in cui i dati sono già ordinati, digeriti e etichettati (le quantità sono già definite come "energia del jet" o "momento trasverso mancante", o peggio, le particelle sono già "fotoni" o "elettroni"), scordando che un rivelatore misura quantità ben più grezze (correnti, tensioni, luce), e che in mezzo ci sono processi di ricostruzione e calibrazioni veramente complessi, che specialmente nel caso di un rivelatore reale hanno bisogno di comprensione e (lunga) messa a punto.
Oggi, con il primo fascio di LHC alle porte (e - per la prima volta in tanti anni - qui iniziamo a crederci per davvero), il brusio di quanti passano il tempo a discutere su che cosa potremmo scoprire e presentare alle conferenze di questo inverno inizia a diventare un po' fastidioso. Costoro sembrano ignorare che, una volta che avremo veramente visto qualche collisione, ci saranno mille cose del rivelatore che non capiremo: i livelli di rumore, il timing fuori posto, le celle che funzionano proprio male e che vanno mascherate, gli alimentatori che non funzionano come dovrebbero, il campo magnetico ben diverso dai valori nominali, le scale di energia fuori posto. Sarà bello se riusciremo a vedere qualche processo noto (chessò, il picco della Z che decade in due leptoni) senza troppo errore, e usarlo per mettere a posto i problemi principali (a meno che, ovviamente, la natura non ci riservi delle sorprese cosi eclatanti che, anche con il binocolo fuori fuoco, non avremo problemi a vedere. Ma questa è un'altra storia).
Il brusio è reso più fastidioso dall'altra categoria di fisici che ha sofferto i tempi lunghissimi di preparazione degli esperimenti di LHC. Sono quelli che oggi hanno piu o meno 60 anni, sono i professori dei pivelli della simulazione, e la loro colpa è di non aver partecipato né agli esperimenti di LEP, né a quelli di Tevatron. La loro ultima esperienza con dati veri risale all'SPS, ovvero a UA1 o, nel caso della popolazione media di ATLAS, a UA2. Ce n'è diversi, in Francia ed in Italia principalmente, perché negli USA lavorare a CDF o D0 è sempre stato praticamente obbligatorio, i tedeschi hanno avuto DESY in casa a cui hanno dato almeno un occhio, e gli italiani e i francesi che hanno lavorato a LEP a tempo pieno oggi hanno piuttosto 45 anni che 60. A questi sessantenni sembra mancare una panoramica coerente della fisica sperimentale negli ultimi 30 anni, dell'evoluzione della tecnologia e dell'aumento della sua complessità, del crescere dell'importanza del software sull'hardware. Purtroppo molti di loro hanno ruoli di coordinamento o decisionali negli esperimenti di LHC, o almeno una forte influenza, e spesso questo rende le cose difficili. Anche per loro, la partenza di LHC potrebbe essere una doccia fredda: non ci saranno molti problemi che potranno essere risolti "alla vecchia maniera", semplicemente collegando un oscilloscopio al rivelatore, o moltiplicando tutte le variabili per un semplice fattore di correzione. L'autunno si preannuncia molto, molto divertente.
NT dice
"PAW physics"... non so com'è fatto il montecarlo di Atlas, ma se è vero che molti dottorandi lavorano solo allo stadio finale è anche vero che qualcuno l'avrò pure dovuto scrivere, il codice di ricostruzione (e dubito che un progetto come Atlas si passi dall'output di geant all'energia del jet o al 'fotone' senza simulare minimamente le prestazioni dei sottorivelatori)
Eppoi, dai, tra beam test e test con raggi cosmici, qualche dato vero (e raw) l'avrà visto pure qualche studente italiano, no?
Marco dice
Caro NT, ovviamente il Montecarlo di ATLAS ha la sua brava (e ben complessa) parte di "digitizzazione" che trasforma gli hit di Geant nella forma grezza che avranno i dati reali prima della ricostruzione (ti interessano i dettagli?). II punto però rimane: questo processo, per quanto accurato e dettagliato, è basato su una serie di assunzioni (perfetta simmetria, calibrazione infinitamente accurata, perfetta conoscenza dei materiali "morti") nel migliore del caso ottimista. L'esperienza di Tevatron mostra che - partendo da questo punto - ci vanno anni per ottenere un accordo decente tra la simulazione e i dati reali una volta che questi arrivano, e la comprensione del proprio rivelatore rimane la base di ogni analisi accurata! Quanto ai dati test beam e di cosmici, ovviamente qualcuno li ha guardati (il sottoscritto a suo tempo, per esempio!), ma protesti stupirti di come sia (stata) un'attività fuori moda e poco frequentata.
delo dice
Ciao Marco,
Una discussione con il mio capo (che e' un "americano" nel senso descritto nel post) mi ha fatto ritornare in mente questo discorso.
In questi giorni ho avuto esperienza diretta di quanto descrivi e convenivamo su quanto segue.
Lungi da me dal proclamarmi esperto di analisi, sono solo alla mia seconda vera analisi di fisica. Abbiamo notato che gran parte della collaborazione non abbia esperienza di analisi; molti, anche illustri esponenti europei, hanno passato gli ultimi 10/15 anni occupandosi di Generatori Montecarlo (anche scrivendoli!), metodi statistici, struttura e topologia degli eventi applicata alle analisi e loro performance. C'e' una grande patriomonio di conoscenza sviluppata negli anni, ma quando si lavora sui dati c'e' sempre qualcosa che non mi convince (per es. totale fiducia di come i MC modellano le quantita' oppure poco focus sull'obiettivo dell'analisi e molto di piu' sulla tecnica e le sue performance) e spesso si manifesta in posizioni opposte tra americani e europei.
Trovo che e' molto appropratio e trova conferma in quello che osservo anch'io.