CMS testete eine neue Methode der "Datenexploration" • Igor Ivanov • Wissenschaftsnachrichten zu "Elementen" • Datenverarbeitungsmethoden, CMS-Detektor, Beschleunigungs- und Detektionstechnologien

CMS hat neue Datenintelligenz ausprobiert

Hauptbedingungen für die Kopplungskonstante eines hypothetischen schweren Bosons Z 'Bzu Hadronen verfallen. Schwarze Linie – CMS-Ergebnisse, die mit der Methode der "Datenintelligenz" erzielt wurden. Kurven in verschiedenen Farben – Die Ergebnisse verschiedener Experimente mit einer traditionellen Statistik. Bild aus dem Artikel zur Diskussion

Die Anzahl der Protonenkollisionen am Large Hadron Collider ist so hoch, dass die Detektoren buchstäblich so weit ausbalancieren, dass sie im Datenstrom nicht absterben. Kollisionen von Protonenbüscheln treten zig Millionen Male pro Sekunde auf. Jeder von ihnen führt zu Dutzenden einzelner Proton-Proton-Kollisionen und infolgedessen zur Geburt von Hunderten von Teilchen. Jedes dieser Ereignisse hinterlässt im Detektor eine Antwort, die nach der Digitalisierung die Größenordnung von einem Megabyte "wiegt". Es ist klar, dass die Übertragung und Aufzeichnung all dieses Datenstroms – und das sind viele Terabyte pro Sekunde – einfach nicht möglich ist.

Tatsächlich werden all diese Daten nicht aufgezeichnet. Die überwiegende Mehrheit der Kollisionen sind "langweilige" Hadronenphysik, die bereits in den ersten Arbeitssitzungen entweder bei früheren Beschleunigern oder am LHC weit und breit studiert wurden.Das Hauptinteresse wird durch relativ seltene Ereignisse der Geburt von schweren Teilchen oder starren Prozessen mit großen transversalen Impulsen dargestellt. Das Ausmaß der Seltenheit der Prozesse, die für das Studium am LHC zur Verfügung stehen, wird im populären Artikel Raritäten der Mikrowelt beschrieben.

In modernen Detektoren gibt es spezielle Geräte, Trigger, die es ermöglichen, jede Kollision im laufenden Betrieb minimal zu analysieren und zu sagen, ob es sinnvoll ist, sie für weitere Analysen aufzuzeichnen oder nicht (siehe Abschnitt "Einhunderttausend Millionen" im Artikel Anatomie von One News). Das System der Auslöser ist normalerweise mehrstufig. Zum Beispiel gibt es im CMS-Detektor einen primären Trigger L1, – schnelle Elektronik, gebaut nach einer speziellen Architektur, die nur Zeit hat, die meisten primären Daten von Kalorimetern und Myondetektoren zu entfernen und zu sagen, ob es eine signifikante Energiefreisetzung gab oder nicht. Wenn L1 etwas sieht, überspringt es das Ereignis weiter.

Dann wird ein High-Level-HLT-Trigger, der eine Farm von 13.000 CPUs ist, dafür verwendet. Hier haben Physiker bereits einige Anforderungen an die Auswahl von Ereignissen gestellt, zum Beispiel die minimale Energiefreisetzungsschwelle.Wenn ein Ereignis dieses Kriterium nicht erfüllt, wird es ausgelöst. Wenn dies der Fall ist, wird das Ereignis vollständig von allen Detektorkomponenten digitalisiert und auf dem Träger aufgezeichnet. Der Ablauf der Ereignisse im CMS, der diese zweistufige Auswahl bestanden hat, beträgt 400 Ereignisse pro Sekunde; Dies ist die Statistik, mit der Physiker später im Offline-Modus arbeiten werden.

In diesem Schema der Arbeit können Sie einige "Verschwendung" von Macht bemerken. Wenn der HLT-Trigger die Daten analysiert, führt er eine minimale Digitalisierung durch, insbesondere stellt er die Energie von Hadron-Jets wieder her, aber dann wird diese Information verworfen. Daher hat die CMS Collaboration 2012 beschlossen, eine neue, parallele Methode zur Datenerfassung einzuführen, die aufgerufen wurde Datenscouting ("Datenintelligenz").

Wir sprechen über die Erhaltung von Informationen über Ereignisse, die nicht die HLT-Auswahlkriterien erfüllen, bei denen aber auch eine spürbare Hadronaktivität vorliegt. Der Fluss solcher Ereignisse erreicht Tausende pro Sekunde, und es wäre unrentabel, sie alle vollständig aufzuzeichnen. Es ist jedoch möglich, nicht die gesamte Detektorantwort aufzuzeichnen, sondern nur einen kleinen Bruchteil der Information, die tatsächlich während des Betriebs der HLT verwendet wurde. Dann ist die Lautstärke jedes Ereignisses um Größenordnungen kleiner und diese Daten können ohne Probleme gespeichert werden.

Die Bedeutung dieses Verfahrens besteht darin, dass selbst unvollständige Informationen es Physikern im kleinen Maßstab ermöglichen, den Bereich durchschnittlicher Energien zu "erkunden", der auf der Grundlage von gewöhnlichen Statistiken schwer zu erkennen ist. Es wird normalerweise nichts erwartet, was bei hohen Energien nicht sichtbar wäre. Aber wenn eine Anomalie plötzlich entdeckt wird, zum Beispiel eine neue Resonanz in einem reinen Hadron-Kanal mit einer Masse von mehreren hundert GeV, dann werden Physiker in der Zukunft in der Lage sein, Trigger neu zu konfigurieren und diese Anomalie genauer anzugehen.

Kürzlich hat die CMS Collaboration das erste Beispiel für das Ergebnis einer solchen Datenintelligenz gezeigt (arXiv: 1604.08907). Sie analysierte diese parallel gesammelten Statistiken auf der Suche nach hypothetischen Resonanzen, die in zwei Hadron-Jets aufbrechen könnten (siehe Abbildung). Die Region der invarianten Massen, die von diesen Statistiken erfasst wird, beginnt bei 400 GeV, was ungefähr doppelt so niedrig ist wie bei der Analyse von gewöhnlichen Statistiken.

Es wurden keine neuen Resonanzen gefunden. Vor allem aber haben sich die festgestellten Einschränkungen der Eigenschaften dieser Resonanzen als deutlich besser herausgestellt als bei der traditionellen Selektion von Daten. Dies beweist, dass die Technik gut funktioniert und daher in Zukunft angewendet wird.Eine beliebte Geschichte über die neue Arbeit findet sich auch im Blog von Tommaso Dorigo, einem Mitglied der CMS-Kollaboration.


Like this post? Please share to your friends:
Schreibe einen Kommentar

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: