Oggi pomeriggio LHC ha fermato l'ultimo fascio di ioni pesanti che ancora circolava, e gli esperimenti hanno smesso di prendere dati. Il run 2011 è veramente finito: dopo aver terminato anche il programma di collisioni protone-piombo e piombo-piombo, l'acceleratore entra adesso in un periodo di letargo operoso, pronto a risvegliarsi in primavera per il run 2012.
Si ricomincerà di nuovo con le collisioni protone-protone, a un'energia nel centro di massa di 7 TeV o 8 TeV. La decisione finale sull'energia verrà presa a Febbraio al consueto workshop Chamonix, ma sono pronto a scommettere che gireremo a 8 TeV. Quel poco di energia in più migliorerebbe i rapporto tra segnale e rumore di praticamente tutte le ricerche che facciamo, escluse forse quelle che hanno a che vedere con il quark top. In più, sarebbe un'energia più facile da gestire dai macchinisti, e permetterebbe di prendere più dati: la scelta mi sembra quasi obbligata. Poi ci sono altre questioni legate alla distanza tra i bunch dei fasci (50 ns o 25 ns?) da risolvere, ma anche qui i giochi mi sembrano praticamente fatti (a 50 ns c'è molto pileup in più e i dati sarebbero ben più "sporchi", ma la macchina potrebbe fornire tra il 30 e il 40% di collisioni in più rispetto a bunch spaziati da 25 ns, e, visto lo stato delle cose di molte ricerche in corso, è una differenza che nessuno è pronto a trascurare).
Nell'attesa del run 2012, gli esperimenti si leccheranno un po' le ferite e sistemeranno le cose che non vanno alla perfezione, rimettendosi in sesto per la nuova presa dati. E, ne frattempo, si lavora alacremente sui 5 femtobarn inversi raccolti nel 2011!
Fabiano dice
@Marco: se nel run 2012 passerete a 8 TeV, quanto sarà difficile utilizzare i nuovi dati raccolti insieme a quelli del run 2011 a 7 TeV, per fare delle analisi che tengano conto di tutte le collisioni fatte fino ad oggi? (immagino che non vorrete buttare 5/fb di dati)
Marco dice
Bisognerà analizzare i dati separatamente, e poi combinare i risultati in maniera analoga a come si combinano i risultati di ATLAS e CMS, o i risultati di due canali di ricerca diversi. Complesso ma fattibile.
Tommybond dice
@Marco : Ti va di scrivere qualche parolina in qualche articoletto sulla questione sollevata da Fabiano ovvero su come utilizzare globalmente i dati raccolti ad energie differenti? Secondo me potrebbe essere istruttivo spendere qualche parola anche sulla questione dei diversi decadimenti che vengono analizzati per individuare la medesima particella.
Mi piacerebbe tanto se analizzati qualche dato statistico semplice relativo alla scoperta di altre particelle nel passato come ad esempio i vari bosoni deboli o l'ultimo quark scoperto, il top facendoci capire quanti dati sono stati analizzati, con quale livello di confidenza è stata annunciata la scoperta, a quale energia si operava in modo tale da avere le idee più chiare per futuri annunci di una qualsiasi nuova particella scoperta da LHC! Che ne dici, è fattibile ?
Marco dice
@Tommybond: ho iniziato a scrivere qualcosa a proposito, ma la vedo comunque dura. Su queste pagine non posso essere troppo rigoroso dal punto di vista matematico, cosa che però limita di molto la comprensione dei dettaglio. Tra qui e mercoledì prossimo conto di tirare fuori almeno un paio di post, ma ovviamente non ti aspettare un corso di statistica avanzata.
Marco Cirelli dice
Nel penultimo paragrafo c'è un'inversione tra 25 e 50 ns (cioè è per spacings da 25 ns che c'è più pile-up ma anche più collisioni) o mi sbaglio?
Marco dice
@MarcoCirelli: purtroppo ti sbagli 🙂 ma la questione è obiettivamente complessa e contraria al senso comune. con uno spaccino di 25 ns ci sarebbe più pile-up out-of-time, ma grazie ai bunch meno popolati ci sarebbe meno pile-up in-time. Siccome è più facile proteggersi dal primo che dal secondo, sarebbe uno scenario migliore. Il problema è che a 25 ns i macchinisti hanno dei problemi a squizzare il fascio rispetto alla configurazione a 50 ns (ovvero, ad avere un beta* più favorevole), da cui la riduzione prevista in luminosità. Per LHC è più facile far girare meno bunch con più protoni che più bunch con meno protoni.
@Max: la cosa ha poco a che vedere con il "disordine" dei protoni nei pacchetti (qualunque cosa voglia dire), ma con la dinamica dei fasci nei punti di collisione.
Tommybond dice
@Marco : Accidenti, sono riuscito a comprendere in anticipo le tue volonta 🙂
A parte gli scherzi, grazie per lo sforzo che fai quotidianamento per rendere partecipe di queste incredibili esplorazioni in terre ignote il numero più elevato possibile di lettori! Attenderò le spiegazioni con tanta curiosità!
Max dice
@Marco Cirelli : se ho ben interpretato la cosa, a 25 ns di spacing fai scontrare la metà delle particelle ad ogni "botta" rispetto ad uno spacing di 50 ns, dovendo (suppongo....) a pari luminosità dividere la stessa quantità di particelle per 2.
Il fatto che i dati siano più sporchi suppongo dipenda dal fatto che i pacchetti con più particelle siano più "disordinati".
Max
Max dice
@Marco : intendevo dire che raggruppando il doppio di protoni in un pacchetto unico ogni 50 ns (se ho capito bene come funziona) rispetto a fare girare 2 pacchetti dimezzati ogni 25 ns immagino che alla collisione ci siano piu urti ma anche piu difficoltà di mantenere raggruppati "in ordine" i protoni del pacchetto.... o sbaglio ?
Marco Cirelli dice
@Marco & @Max: OK, grazie! Effettivamente pensavo le cose alla rovescia. Comunque (se non mi sbaglio di nuovo) il design spacing finale era previsto essere 25 ns, quindi immagino che prima o poi sia i macchinisti dovranno provarci.