Pubblicità | ARCHIVIO | FRASI IMPORTANTI | PICCOLO VOCABOLARIO
 













MARKETPRESS
  Notiziario
  Archivio
  Archivio Storico
  Visite a Marketpress
  Frasi importanti
  Piccolo vocabolario
  Programmi sul web








  LOGIN


Username
 
Password
 
     
   


 
Notiziario Marketpress di Martedì 07 Luglio 2009
 
   
  LA RETE DI CALCOLO MONDIALE GESTIRÀ I DATI PROVENIENTI DAL GRANDE COLLISORE DI ADRONI DEL CERN

 
   
  Ginevra, 7 luglio 2009 - Si prevede che il Grande collisore di adroni (Large Hadron Collider o Lhc), l´acceleratore di particelle più potente al mondo, una volta attivato alla fine di quest´anno, produrrà 15 milioni di gigabytes di dati ogni anno. La "worldwide Lhc computing grid" (Wlcg), che ha il ruolo fondamentale di fungere da supporto per questi dati e di renderli disponibili ai fisici di tutto il mondo, ha già completato due settimane di attività continua. L´esperimento segna la prima dimostrazione di produzione che copre il ciclo dei dati completo, dalla raccolta all´analisi. Il Lhc, situato presso il Centro europeo di ricerca nucleare (Cern) in Svizzera, è un anello lungo 27 km di magneti superconduttivi con strutture acceleranti lungo il suo percorso che possono aumentare l´energia delle particelle in corsa; dentro l´acceleratore, due raggi di particelle viaggiano ad una velocità vicina a quella della luce con un´energia molto alta prima di entrare in collisione tra di loro. Lo scopo del collisore è quello di permettere osservazioni di particelle fondamentali che aiuteranno gli scienziati a rispondere ad importanti questioni irrisolte nel campo della fisica delle particelle. Il Lhc ospita sei importanti esperimenti internazionali, tra cui il progetto su larga scala Atlas ("Un apparato Lhc toroidale"). Il rivelatore Atlas sarà usato per studiare una serie di questioni insolute in fisica, come l´esistenza del bosone di Higgs (una particella ipotetica che spiegherebbe il meccanismo attraverso il quale le particelle acquisiscono massa) e dimensioni e particelle extra che potrebbero formare la materia oscura. I ricercatori che dirigeranno gli esperimenti e analizzeranno la grandissima quantità di informazioni generate dal rivelatore si affideranno alla rete di calcolo, che si basa sulle risorse di migliaia di diversi computer, per un accesso affidabile ai dati. Il Wlcg collega oltre 140 centri di calcolo in 34 paesi con lo scopo di costruire e mantenere l´infrastruttura di conservazione ed analisi dei dati per i fisici che si occupano di alta energia e che useranno il Lhc. La raccolta e la conservazione dei dati, gli strumenti di trattamento, simulazione e visualizzazione saranno supportati attraverso il Wlcg. L´esperimento Atlas da solo condurrà quasi 1 milione di analisi, sostenendo 6 gigabyte al secondo di traffico di rete su lunghi periodi. L´eccezionale capacità della rete è particolarmente importante poiché si prevede che il Wlcg sarà usato da diverse migliaia di utenti in ogni momento. I dati sperimentali del Lhc sono registrati su nastro presso il Cern prima di essere distribuiti a 11 grandi centri di computer (chiamati centri "Tier 1") in Canada, Francia, Germania, Italia, Paesi Bassi, Scandinavia, Spagna, Taiwan, Regno Unito e Usa. Da questi luoghi, i dati sono resi accessibili a oltre 120 centri "Tier-2", dove si possono condurre analisi specifiche. Ricercatori individuali possono quindi accedere alle informazioni usando computer cluster o persino i loro personal computer. "Quattro esperimenti Lhc hanno dimostrato di avere la capacità di gestire i loro dati nominali simultaneamente," ha detto Sergio Bertolucci, direttore di ricerca e calcolo presso il Cern. "Per la prima volta sono stati esercitati simultaneamente tutti gli aspetti del calcolo degli esperimenti: simulazione, elaborazione dei dati ed analisi. Questo dà loro la certezza che saranno in grado di analizzare efficacemente i primi dati provenienti dal Lhc più avanti quest´anno. " Gonzalo Merino, manager del centro Tier1 di Barcellona, ha detto: "È stata una prova molto preziosa visto che sono stati testati diversi flussi di lavoro degli esperimenti simultaneamente su di una scala mai raggiunta prima, molto al di sopra dei valori nominali per l´acquisizione dei dati del Lhc. " Il Tier-1 presso il Pic ha fornito un servizio molto stabile ed affidabile a livelli da record: scambiandosi fino a 80 terabyte al giorno con altri siti Wlcg ed elaborando dati ad una velocità di oltre 2 gigabyte al secondo. Questo ci dà la certezza che i siti Wlcg spagnoli sono pronti ad acquisire i dati. " David Foster, capo del servizio Optical Private Network del Lhc, ha aggiunto: "Nuove risorse nella gamma dei 40 Gbps e 100 Gpbs dovrebbero permetterci di stare al passo delle esigenze di distribuzione dei dati previste per gli esperimenti Lhc. " "È un altro significativo passo avanti verso la dimostrazione che le infrastrutture condivise possono essere usate simultaneamente da diverse comunità scientifiche che trasmettono molti dati," ha concluso Ruth Pordes, direttore esecutivo del consorzio Open Science Grid. L´attività sperimentale del Wlcg comprendeva inoltre test su larga scala di ipotesi di analisi da parte di utenti finali. Inoltre, le infrastrutture di supporto alla comunità sono state esaminate per assicurarsi che fossero in grado di insegnare adeguatamente alla comunità della ricerca a supportarsi autonomamente. Per maggiori informazioni, visitare: Organizzazione europea per la ricerca nucleare (Cern): http://public. Web. Cern. Ch Large Hadron Collider Computer Grid: http://public. Web. Cern. Ch/public/en/lhc/computing-en. Html . .  
   
 

<<BACK