>
Les milliards d’octets générés par chaque collision de l’accélérateur de particules LHC sont trop lourds à traiter : pour David Francis, Responsable Data Acquisition Atlas au CERN, le premier travail consiste à réduire en 2 microsecondes le volume d’informations, grâce à des équipements et des algorithmes spécifiques. Puis, 500 ordinateurs analysent en 40 millisecondes les données sélectionnées pour décider si chaque croisement de particules a produit ou pas des nouveautés intéressantes. 1500 ordinateurs sont ensuite utilisés pour analyser de façon plus précise et dans un délai moyen d'une seconde chaque croisement de particules. Ces données sont alors transférées au centre de calcul du CERN. La dernière étape, explique Wayne Salter, Computing Facilities Group Leader du CERN, utilise le centre de calcul de 9 000 serveurs pour une première reconstruction des événements produits à chacun des croisements pour chaque expérience du LHC. Ce sont ces événements qui seront analysés, un par un, par des physiciens du monde entier. Le Centre de Genève est en effet épaulé par 11 grands centres de calculs et plus d’une centaines d’autres plus petits répartis dans le monde et gérés par la « grille », un réseau propre au CERN : pour Ian Bird, Worldwide LHC Computing Grid project coordinator, la grille, historiquement créée avant le cloud, est la meilleure ressource collaborative possible de stockage et de calcul proposée aux physiciens. Même si, comme dans les entreprises, le cloud et la virtualisation prennent peu à peu le relais !
Les milliards d’octets générés par chaque collision de l’accélérateur de particules LHC sont trop lourds à traiter : pour David Francis, Responsable Data Acquisition Atlas au CERN, le premier travail consiste à réduire en 2 microsecondes le volume d’informations, grâce à des équipements et des algorithmes spécifiques. Puis, 500 ordinateurs analysent en 40 millisecondes les données sélectionnées pour décider si chaque croisement de particules a produit ou pas des nouveautés intéressantes. 1500 ordinateurs sont ensuite utilisés pour analyser de façon plus précise et dans un délai moyen d'une seconde chaque croisement de particules. Ces données sont alors transférées au centre de calcul du CERN. La dernière étape, explique Wayne Salter, Computing Facilities Group Leader du CERN, utilise le centre de calcul de 9 000 serveurs pour une première reconstruction des événements produits à chacun des croisements pour chaque expérience du LHC. Ce sont ces événements qui seront analysés, un par un, par des physiciens du monde entier. Le Centre de Genève est en effet épaulé par 11 grands centres de calculs et plus d’une centaines d’autres plus petits répartis dans le monde et gérés par la « grille », un réseau propre au CERN : pour Ian Bird, Worldwide LHC Computing Grid project coordinator, la grille, historiquement créée avant le cloud, est la meilleure ressource collaborative possible de stockage et de calcul proposée aux physiciens. Même si, comme dans les entreprises, le cloud et la virtualisation prennent peu à peu le relais ! Un reportage MyDSI-Tv. Un reportage MyDSI-Tv MyD-Business Tv
L’IT aide le CERN à percer le secret de la matière
Les milliards d’octets générés par chaque collision de l’accélérateur de particules LHC sont trop lourds à traiter : pour David Francis, Responsable Data Acquisition Atlas au CERN, le premier travail consiste à réduire en 2 microsecondes le volume d’informations, grâce à des équipements et des algorithmes spécifiques. Puis, 500 ordinateurs analysent en 40 millisecondes les données sélectionnées pour décider si chaque croisement de particules a produit ou pas des nouveautés intéressantes. 1500 ordinateurs sont ensuite utilisés pour analyser de façon plus précise et dans un délai moyen d'une seconde chaque croisement de particules. Ces données sont alors transférées au centre de calcul du CERN. La dernière étape, explique Wayne Salter, Computing Facilities Group Leader du CERN, utilise le centre de calcul de 9 000 serveurs pour une première reconstruction des événements produits à chacun des croisements pour chaque expérience du LHC. Ce sont ces événements qui seront analysés, un par un, par des physiciens du monde entier. Le Centre de Genève est en effet épaulé par 11 grands centres de calculs et plus d’une centaines d’autres plus petits répartis dans le monde et gérés par la « grille », un réseau propre au CERN : pour Ian Bird, Worldwide LHC Computing Grid project coordinator, la grille, historiquement créée avant le cloud, est la meilleure ressource collaborative possible de stockage et de calcul proposée aux physiciens. Même si, comme dans les entreprises, le cloud et la virtualisation prennent peu à peu le relais !
Les milliards d’octets générés par chaque collision de l’accélérateur de particules LHC sont trop lourds à traiter : pour David Francis, Responsable Data Acquisition Atlas au CERN, le premier travail consiste à réduire en 2 microsecondes le volume d’informations, grâce à des équipements et des algorithmes spécifiques. Puis, 500 ordinateurs analysent en 40 millisecondes les données sélectionnées pour décider si chaque croisement de particules a produit ou pas des nouveautés intéressantes. 1500 ordinateurs sont ensuite utilisés pour analyser de façon plus précise et dans un délai moyen d'une seconde chaque croisement de particules. Ces données sont alors transférées au centre de calcul du CERN. La dernière étape, explique Wayne Salter, Computing Facilities Group Leader du CERN, utilise le centre de calcul de 9 000 serveurs pour une première reconstruction des événements produits à chacun des croisements pour chaque expérience du LHC. Ce sont ces événements qui seront analysés, un par un, par des physiciens du monde entier. Le Centre de Genève est en effet épaulé par 11 grands centres de calculs et plus d’une centaines d’autres plus petits répartis dans le monde et gérés par la « grille », un réseau propre au CERN : pour Ian Bird, Worldwide LHC Computing Grid project coordinator, la grille, historiquement créée avant le cloud, est la meilleure ressource collaborative possible de stockage et de calcul proposée aux physiciens. Même si, comme dans les entreprises, le cloud et la virtualisation prennent peu à peu le relais ! Un reportage MyDSI-Tv. Un reportage MyDSI-Tv MyD-Business Tv
Impréssionnant ! Et dans 20 ans leur puissance de calcule sera multiplié par 20.
RépondreSupprimerhttp://lhcathome.web.cern.ch/LHCathome/Physics/