Helfen Sie CERN, indem Sie mit 300 Terabytes öffentlicher Large Hadron Collider-Daten spielen

$config[ads_kvadrat] not found

CERN: LHC, Higgs-Teilchen & zukünftige Forschung • Live im Hörsaal | Michael Hauschild

CERN: LHC, Higgs-Teilchen & zukünftige Forschung • Live im Hörsaal | Michael Hauschild
Anonim

Die Europäische Organisation für Nuklearforschung (CERN) hat gerade eine riesige Sammlung von Daten veröffentlicht, die der Large Hadron Collider über sein Open Data Portal gesammelt hat. Die Informationen wurden in zwei Hauptformaten veröffentlicht: Primärdatensätze, die die Originaldaten darstellen, die CERN-Wissenschaftler analysiert hätten, und abgeleitete Datensätze, die vereinfacht wurden, um die Analyse zu erleichtern und die Daten zu einem potenziell leistungsfähigen Lehrmittel zu machen. CERN stellt außerdem eine „virtuelle Maschine“ zur Verfügung, die jedem online kostenlos zur Verfügung steht und die Benutzer bei der Analyse der Daten unterstützt. Das bedeutet, dass Sie unabhängig von der Art des Computers, den Sie besitzen, mit den Ergebnissen eines der besten Geräte herumspielen können Experimente in der Geschichte der Menschheit.

Der Large Hadron Collider, der vor einigen Jahren das Higgs-Boson-Teilchen entdeckte, ist der mächtigste (und berühmteste) Teilchenbeschleuniger der Welt. Die Daten, die CERN daraus veröffentlicht hat, belaufen sich auf 300 Terabyte. Dies entspricht etwa der Hälfte der im Jahr 2011 gesammelten LHC-Daten. Von besonderem Interesse für viele ist die Aufnahme von mehr als 100 Terabyte Daten zu Protonenkollisionen bei 7 TeV, so das CERN. Die letzte Veröffentlichung dieser Daten von CERN erfolgte im November 2011, umfasste jedoch nur rund 27 Terabyte.

Nachdem Sie die VM installiert haben (klicken Sie einfach auf "Install Virtual Machine" und befolgen Sie die Anweisungen), können Sie die Daten des Compact Muon Solenoid (CMS) analysieren, auch wenn Sie sonst keinen Zugriff auf die jeweilige Software haben Das wäre normalerweise notwendig, um Daten dieser Art zu verarbeiten - sie werden auf der virtuellen Maschine vorinstalliert. Sie können dann entweder an einem primären Dataset oder einem reduzierten (abgeleiteten) Dataset arbeiten.

@ CMSexperiment macht 300 TB LHC-Forschungsdaten öffentlich verfügbar http://t.co/Lq3ExL7owW#opendata #openscience pic.twitter.com/fCL6B1wwky

- CERN (@CERN) 25. April 2016

"Die Mitglieder der CMS-Kollaboration haben sich sehr viel Mühe gegeben und tausende von Arbeitsstunden pro Person geleistet, um den CMS-Detektor zu betreiben und diese Forschungsdaten für unsere Analyse zu sammeln", sagte der verantwortliche CMS-Physiker Kati Lassila-Perini Datenerhaltung in einer Erklärung. „Sobald wir jedoch die Erkundung der Daten erschöpft haben, sehen wir keinen Grund, sie nicht öffentlich zugänglich zu machen. Die Vorteile sind zahlreich, von inspirierenden Schülern bis zur Ausbildung der Teilchenphysiker von morgen. Für uns als CMS-Koordinator für die Datenerhaltung ist dies ein entscheidender Faktor für die langfristige Verfügbarkeit unserer Forschungsdaten."

Die Vertreter des CERN äußerten außerdem den Wunsch nach neuen Augen für die Daten. Sie sagten, dass die Freigabe von Informationen in so großen Mengen zur Förderung des Geistes der Zusammenarbeit beigetragen und so weitere Entdeckungen ermöglicht habe.

"Wir freuen uns sehr, dass wir all diese Daten öffentlich zugänglich machen können", sagte Lassila-Perini in der Erklärung. "Wir freuen uns darauf, wie sie außerhalb unserer Zusammenarbeit genutzt werden, sowohl für die Forschung als auch für den Aufbau von Bildungsinstrumenten."

$config[ads_kvadrat] not found