UnivIS
Informationssystem der Friedrich-Alexander-Universität Erlangen-Nürnberg © Config eG 
FAU Logo
  Sammlung/Stundenplan    Modulbelegung Home  |  Rechtliches  |  Kontakt  |  Hilfe    
Suche:      Semester:   
 
 Darstellung
 
Druckansicht

 
 
Modulbeschreibung (PDF)

 
 
Artificial Intelligence (Master of Science) >>

Rechnerarchitekturen für Deep-Learning Anwendungen (RADL)10 ECTS
(englische Bezeichnung: Deep-Learning Computer Architectures)
(Prüfungsordnungsmodul: Rechnerarchitekturen für Deep-Learning Anwendungen)

Modulverantwortliche/r: Marc Reichenbach, Dietmar Fey
Lehrende: Philipp Holzinger, Marc Reichenbach


Startsemester: WS 2022/2023Dauer: 1 SemesterTurnus: jährlich (WS)
Präsenzzeit: 100 Std.Eigenstudium: 200 Std.Sprache: Deutsch oder Englisch

Lehrveranstaltungen:


Empfohlene Voraussetzungen:

  • Grundlegende Programmierkenntnisse in C
  • Freude an der Hardware

  • Detaillierte Kenntnisse in FPGAs, VHDL oder Assembler sind nicht erforderlich

  • Wissen im Bereich Deep-Learning / Tensorflow ist nicht erforderlich

Inhalt:

Maschinelles Lernen, im speziellen Deep-Learning Netzwerke haben in den letzten Jahren stark an Bedeutung gewonnen. Anwendungsfelder umfassen beispielsweise für die Klassifikation von Bildern, das Verstehen von menschlicher Sprache oder die Überwachung von Rechentechnik bzgl. IT-Angriffen. Während die Grundlagen von Deep-Learning (Neuronale Netze) schon über einen langen Zeitraum erforscht wurden, ist eine flächendeckende Anwendung von Deep-Learning Netzwerken erst seit jüngster Zeit möglich, da nun entsprechende leistungsfähige Rechnerarchitekturen zur Verfügung stehen um die aufwendigen Berechnungen durchzuführen.
Das genannte Praktikum beschäftigt sich mit der Evaluierung verschiedener Rechnerarchitekturen (mit entsprechenden Architektureigenschaften) bzgl. der performanten Auswertung von Deep-Learning Netzwerken. Dabei werden die Architekturen CPU, GPU und FPGA genauer untersucht und bewertet. Für eine schnelle Auswertung von Deep-Learning Netzwerken spielt Parallelrechentechnik eine wichtige Rolle, deswegen werden unter anderem folgende Fragen im Praktikum genauer beantwortet:

  • Wie kann ich Multi-Core CPUs effizient nutzen?

  • Kann ich mit der Verwendung der SIMD-Extensions (SSE, AVX) ein Beschleunigung der Auswertegeschwindigkeit erzielen?

  • Was sind GPUs und wie kann ich die massive Parallelität für die Auswertung von Deep-Learning Netzwerken nutzen?

  • Welche Rolle spielen Caches bzw. die Speicherhierachie eines Rechensystems für die schnelle Auswertung von Deep-Learning Netzwerken?

  • Wie können FPGAs genutzt werden um Deep-Learning Netzwerke applikationsspezifisch zu implementieren?

Für einen einfachen Einstieg wird das Deep-Learning Framework Tensorflow verwendet. Anhand einfacher Besipiele können o.g. Fragen beantwortet werden. Ein größeres Beispiel, gerechnet auf unseren eigenen Servern mit Hardware von AMD, Intel und Nvidia zeigt wie sich reale Anwendungen effizient mit "Customer-Hardware" umsetzen lassen. Hardware in verschiedenen Leistungsklassen (von wenigen Milliwatt bis mehrere Kilowatt) steht dabei zur Verfügung. Die Experimente werden in unserem Parallelrechenlabor durchgeführt.
Die Studierenden erhalten eine Einführung in Form von Vorträgen. Hauptbestandteil ist die praktische Arbeit mit genannten Rechnerarchitekturen durch effiziente Programmierung mittels C(++), Cuda, OpenCL. Für den erfolgreichen Abschluss des Praktikums ist Kolloquium (ca. 15 Minuten) zu bestehen und ein Bericht (ca. 10 Seiten) anzufertigen.

Lernziele und Kompetenzen:

Verstehen Die Studierenden verstehen die elementaren Grundfunktion neuronaler Netze und wie sich diese auf Hardware abbilden lassen. Die Studierenden lernen die Architekturen CPU, GPU und FPGA kennen, verstehen den internen Aufbau und können die wesentlichen Architektureigenschaften wiedergeben.
Analysieren Die Studierenden nutzen CPUs, GPUs und FPGAs für die Auswertung von DL-Netzwerken. Dabei können sie Performancemetriken (Laufzeit, Energieverbrauch) anwenden.
Evaluieren Die Studierenden können die Architekturen CPU, GPU und FPGA hinsichtlich ihrer Eignung für die Auswertung von DL-Netzwerken vergleichen.

Literatur:

Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques for Building Intelligent Systems; Aurélien Géron


Verwendbarkeit des Moduls / Einpassung in den Musterstudienplan:

  1. Artificial Intelligence (Master of Science)
    (Po-Vers. 2021s | TechFak | Artificial Intelligence (Master of Science) | Gesamtkonto | Projekt I und II | AI Systems and Applications | Rechnerarchitekturen für Deep-Learning Anwendungen)
Dieses Modul ist daneben auch in den Studienfächern "Berufspädagogik Technik (Master of Education)", "Informatik (Bachelor of Science)", "Informatik (Master of Science)" verwendbar. Details

Studien-/Prüfungsleistungen:

Rechnerarchitekturen für Deep-Learning Anwendungen (Prüfungsnummer: 31111)
Prüfungsleistung, Praktikumsleistung, benotet, 10 ECTS
Anteil an der Berechnung der Modulnote: 100.0 %
weitere Erläuterungen:
Für den erfolgreichen Abschluss des Praktikums ist Kolloquium (ca. 15 Minuten) zu bestehen und ein Bericht (ca. 10 Seiten) anzufertigen.
Prüfungssprache: Deutsch oder Englisch

Erstablegung: WS 2022/2023, 1. Wdh.: SS 2023
1. Prüfer: Fey/Reich

UnivIS ist ein Produkt der Config eG, Buckenhof