UnivIS
Informationssystem der Friedrich-Alexander-Universität Erlangen-Nürnberg © Config eG 
FAU Logo
  Sammlung/Stundenplan    Modulbelegung Home  |  Rechtliches  |  Kontakt  |  Hilfe    
Suche:      Semester:   
 
 Darstellung
 
Druckansicht

 
 
 Außerdem im UnivIS
 
Vorlesungs- und Modulverzeichnis nach Studiengängen

 
 
Veranstaltungskalender

Stellenangebote

Möbel-/Rechnerbörse

 
 
Vorlesungsverzeichnis >> Technische Fakultät (TF) >>

  Seminar: Optimization of Deep Neural Networks (OptDNN)

Dozentinnen/Dozenten
Dipl.-Ing. Matthias Ziegler, Dr. Christian Schinabeck, Ashutosh Mishra, M. Sc., Muhammad Sabih, M. Sc., PD Dr.-Ing. Frank Hannig

Angaben
Seminar
2 SWS, ECTS-Studium, ECTS-Credits: 5,0, Sprache Deutsch oder Englisch
Zeit und Ort: n.V.

Studienfächer / Studienrichtungen
WPF INF-MA ab 1 (ECTS-Credits: 5)
WPF INF-BA-SEM ab 4 (ECTS-Credits: 5)

Inhalt
Künstliche Intelligenz bereichert unseren Alltag auf vielfältige Weise. Sobald ein Data Scientist ein Modell vollständig trainiert hat, kann es in eine Anwendung integriert werden. Innerhalb einer solchen Anwendung werden die Eingabedaten in das neuronale Netz eingespeist und liefern am Ende der Verarbeitungskette ihre Ausgabe. Dieser Inferenzschritt kann entweder in der Cloud oder auf dem lokalen Endgerät (Edge Device) ausgeführt werden.
Insbesondere wenn das Modell häufig auf einem Edge Device ausgeführt werden soll, muss es zuvor optimiert werden. Solche Optimierungen können strukturiertes oder unstrukturiertes Pruning, Quantisierung und Komprimierung, Subspace Methods oder Compiler für neuronale Netze umfassen. Eine Änderung der Struktur oder des Zahlendarstellung (z. B. float oder integer) des Netzwerks wirkt sich in der Regel sowohl auf die Geschwindigkeit als auch auf die Genauigkeit aus.
Basierend auf ausgewählten Anwendungen aus den Bereichen Audioverarbeitung (z. B. Sprecherlokalisierung) und Computer Vision (z. B. Tiefenextraktion) optimiert jede Seminargruppe eine der ausgewählten Anwendungen mit Hilfe von obengenannten Methoden und Werkzeugen (z. B. Neuronal Network Distiller), bewertet den Leistungsgewinn und stellt die jeweiligen Methoden und Ergebnisse allen Teilnehmerinnen und Teilnehmern vor.

ECTS-Informationen:
Title:
Seminar Optimization of Deep Neural Networks

Credits: 5,0

Contents
Artificial intelligence enriches our everyday life in many different ways. Once a data scientist has fully trained a model, it can be integrated into a complete application. Inside such an application, input data is feed to the neural network and provides its output at the end of the processing pipeline. This inference step can run either in the cloud or on the local edge device.
Especially if the model needs to be executed frequently on an edge device, it needs to be optimized beforehand. Such optimizations may include structured or unstructured pruning, quantization and compression, subspace methods or neural network compilers. Changing the structure or the computation mode of the network (i.e., float or integer) typically impacts performance as well as computational efficiency.
Based on selected applications from the domains audio processing (e.g., speaker localization) and computer vision (e.g., depth extraction), each group optimizes one of the selected applications using the methods above and tools (e.g., neural network distillers), evaluates the performance gain and presents the respective methods and results to all participants.

Zusätzliche Informationen
Erwartete Teilnehmerzahl: 15
www: https://www.cs12.tf.fau.eu/lehre/lehrveranstaltungen/seminare/optimization-of-deep-neural-networks
Für diese Lehrveranstaltung ist eine Anmeldung erforderlich.
Die Anmeldung erfolgt über: persönlich beim Dozenten

Verwendung in folgenden UnivIS-Modulen
Startsemester WS 2020/2021:
Seminar: Optimization of Deep Neural Networks (OptDNN)

Institution: Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design)
UnivIS ist ein Produkt der Config eG, Buckenhof