Storage und die Teilchenphysik - Kleinste Teilchen - Enorme Datenmengen

Storage und die Teilchenphysik - Kleinste Teilchen - Enorme Datenmengen

Artikel erschienen in IT Magazine 2014/04
6. April 2014
Storage und die Teilchenphysik - Kleinste Teilchen - Enorme Datenmengen
Prof. Günther Dissertori, Institut für Teilchenphysik, ETH Zürich (Quelle: ETH Zürich)
Im CERN arbeiten Sie in Grenzbereichen der Forschung. An welchen wissenschaftlichen Fragestellungen arbeiten Sie aktuell?
Prof. Günther Dissertori:
Bei unserer Forschung geht es um die Frage nach den kleinsten Bausteinen der Materie und den Kräften zwischen diesen. Nach der Entdeckung des lange gesuchten Higgs-Teilchens im Jahr 2012, die zur Verleihung des Physik-Nobelpreises an Prof. Higgs und Prof. Englert im letzten Jahr führte, werden wir uns in den kommenden Jahren intensiv mit der Untersuchung dieses Teilchens befassen. Konkret geht es darum, seine Eigenschaften genau zu vermessen und zu vergleichen, ob diese mit den theoretischen Vorhersagen übereinstimmen. Das Teilchen ist deshalb so wichtig, weil es für die Masse aller anderen Teilchen verantwortlich ist. Ein anderer Forschungsschwerpunkt ist die Suche nach weiteren bisher unentdeckten Teilchen. Zum Beispiel sagt die sogenannte Supersymmetrie-Theorie voraus, dass es eine Vielzahl neuer schwerer Teilchen geben sollte. Eines dieser Teilchen könnte eventuell sogar für die mysteriöse «Dunkle Materie» in unserem Universum verantwortlich sein.
Welche Herausforderungen ergeben sich daraus für die in der Forschung eingesetzten IT- und Storage-Infrastrukturen?
Die Datenrate, welche sich bei unseren Experimenten ergibt, ist sehr gross. Mit unseren Detektoren registrieren wir 20 Millionen Teilchenkollisionen pro Sekunde, und jede Kollision liefert mehrere Megabyte an Daten. Eine solche Datenmenge kann man nicht langfristig verarbeiten und speichern. Deswegen reduzieren wir den Datenfluss mit speziellen Trigger- und Selektionsalgorithmen auf zirka 1000 Kollisionen pro Sekunde, die dann dauerhaft gespeichert werden und zur weiteren Analyse für Hunderte und Tausende von Physikern weltweit zur Verfügung stehen. Die immer noch enorme Datenmenge von mehreren Gigabyte pro Sekunde, oder über 20 Petabyte pro Jahr, stellt das IT-System vor besondere Herausforderungen. Die Entwicklung des Worldwide LHC Computing Grids hat wesentlich zur erfolgreichen Lösung dieser Problematik beigetragen.
Vorherige News
 
Nächste News

Neuen Kommentar erfassen

Kommentare werden vor der Freischaltung durch die Redaktion geprüft.
Anti-Spam-Frage Aus welcher Stadt stammten die Bremer Stadtmusikanten?
Antwort
Name
E-Mail
NEWSLETTER ABONNIEREN
Abonnieren Sie unseren täglichen Newsletter mit den wichtigsten ICT-Meldungen
SWISS IT MAGAZINE - AUSGABE 2017/05
Schwerpunkt: Arbeitsplatz 4.0
• One Workspace
• Arbeitsplatz aus der Datenleitung
• IT-Strategien auf dem Prüfstand
• Marktübersicht: Swiss made DaaS
• Fallbeispiel: Das digitalisierte Krankenhaus
Zum Inhaltsverzeichnis
SPONSOREN & PARTNER