Parallel Triplet Finding for Particle Track Reconstruction. [Mit einer ausführlichen deutschen Zusammenfassung]

Daniel Funke
2013
Das Compact Muon Solenoid (CMS) Experiment am Teilchenbeschleuniger Large Hadron Collider (LHC) der Organisation Européenne pour la Recherche Nucléaire (CERN) nahe Genf, Schweiz, führte bereits zu zahlreichen Erkenntnissen, die unser Verständnis über die Interaktion der elementarsten Teilchen des Universums beträchtlich erweiterten. Insbesondere die Entdeckung eines Higgs-ähnlichen Bosons im Jahr 2012 [43] gilt bereits jetzt als einer der Meilensteine der modernen Physik. Diese Studien wurden
more » ... rch die präzise Rekonstruktion der Spuren von Teilchen, die in den Proton-Proton-Kollisionen mit einer Schwerpunktenergie von 7 TeV entstanden sind, ermöglicht. Die Flugbahnen der Teilchen durch den CMS Spurdetektor -Tracker -werden von 16 588 Detektormodulen auf 75 Millionen Kanälen erfasst [44]. Die Rekonstruktion der Bahnen aus dieser Vielzahl an Messpunkten, genannt Hits, stellt eine enorme algorithmische Herausforderung dar. Wenn der LHC im Jahr 2015 seinen Dienst mit erhöhter Schwerpunktenergie (14 TeV) und Strahlintensität wieder aufnimmt, wird diese Herausforderung nochmals gesteigert, da mehr Spuren durch eine erhöhte Anzahl simultaner Proton-Proton-Interaktionen entstehen. Hierdurch erhöht sich der kombinatorische Aufwand der Teilchenspurrekonstruktion und damit die Laufzeit der involvierten Algorithmen beträchtlich. Verschärfend kommt hinzu, dass die Taktfrequenz von Prozessoren die Grenzen des physikalisch Möglichen erreicht hat und daher Leistungssteigerungen bei CPUs in den letzten Jahren vor allem durch Einführung neuer Technologien wie Mehrkernprozessoren und Vektoreinheiten erzielt wurden. Die Nutzung dieser Technologien ist unabdingbar um den zukünftigen, steigenden Anforderungen gerecht zu werden, erfordert jedoch die Anpassung der zur Spurrekonstruktion eingesetzten Verfahren. Parallele und daten-lokale Algorithmen sind am besten geeignet, das Potenzial moderner Mehrkernprozessoren auszunutzen. Als Alternative zum momentan verwendeten iterativen Kalman-Filter-Verfahren [59] empfiehlt sich Spurrekonstruktion auf Basis eines Zellularautomaten [6, 80, 107]. Hierbei werden Teilchenspuren aus geeigneten Tripeln von Hits in benachbarten Detektorlagen gebildet, die aufgrund von simplen und lokalen Eigenschaften auf Kompatibilität geprüft werden. Die vorliegende Arbeit befasst sich mit dem Entwurf eines parallelen Algorithmus zum Finden gültiger Hit-Tripel, d.h. Tripel von Messpunkten, die von ein und demselben Teilchen bei dessen Weg durch den Detektor erzeugt wurden. Die Anzahl an Tripeln, die sich aus Hits von verschiedenen Teilchen zusammensetzenfakes -soll dabei gleichzeitig reduziert werden. Um die Kombinatorik beim Erzeugen der Tripel einzuschränken, soll der mögliche Detektorbereich für einen weiteren Hit mit Hilfe der Informationen gegeben iii 2. Tripelprädiktion erstellt Tripelkandidaten aus einem Hitpaar und Hits in einer gegebenen dritten Detektorlage. Der Pfad des Teilchens wird basierend auf dem Hitpaar und dem minimalen p T auf die dritte Lage extrapoliert, um den kombinatorischen Aufwand zu begrenzen. 3. Tripelfilterung prüft Tripelkandidaten anhand der vorgestellten Kriterien auf Validität. Die erforderlichen Werte für das dφ-und dθ-Kriterium können direkt aus den Hitpositionen berechnet werden. Um den transversalen Abstand d 0 zum Strahlrohr zu ermitteln, müssen die Parameter des durch das Tripel beschriebenen v Kreises in transversaler Ebene berechnet werden. Hierfür wird das Riemann-Fit-Verfahren von Strandlie et al. [173] verwendet. Alle Schritte werden durch Zwei-Phasen-Algorithmen auf dem Compute Device realisiert, die mit besonderem Hinblick auf Verzweigungsfreiheit und Ausnutzung der vorhanden Speicherhierarchie entworfen werden. Resultate Die entworfenen Algorithmen werden unter Verwendung simulierter Kollisionsereignisse validiert und evaluiert. Sowohl die erzielte Datenqualität als auch die Laufzeit hängen maßgeblich von den gewählten Parametern für die Filterkriterien dφ, dθ und d 0 ab. Zu stark selektierende Werte senken die Effizienz, d.h. die Anzahl gefundener simulierter Spuren, während zu großzügige Werte die Fake-Rate, d.h. die Zahl der Tripel die sich aus Hits von unterschiedlichen simulierten Teilchen zusammensetzen, erhöht. Parameter, die beide Kriterien abwägen, werden durch die Analyse von tt-Ereignissen, die sich durch eine komplexe Topologie auszeichnen, bestimmt. Abbildung 0.2 zeigt die mit den ausgewählten Parametern erzielte Datenqualität. Schlussfolgerungen Der präsentierte Algorithmus zeigt, dass trotz einfacher geometrischer Berechnungen eine hohe Effizienz bei der Findung von Hittripeln erzielt werden kann. Durch die Implementierung mit OpenCL ist es möglich sowohl CPUs als auch GPUs zur Ausführung zu nutzen. Die Vorteile der GPU zeigen sich vor allem bei der gleichzeitigen Verarbeitung vieler Ereignisse mit starker Aktivität. Ist dies gegeben, so erzielt die Grafikkarte gegenüber der CPU einen Geschwindigkeitsvorteil von einem Faktor 64. Wie Abbildung 0.3 zeigt, wird dieser Faktor auch gegenüber der aktuellen Experimentsoftware erreicht. Daher eignet sich der entworfene Algorithmus, den bevorstehenden Herausforderungen bei der Rekonstruktion von LHC-Daten ab 2015 entgegenzutreten. vii F Acronyms 151 G Bibliography 155 5 Part I.
doi:10.5445/ir/1000048585 fatcat:bzt7mq7bw5b3hgwie6qukh2iue