Evolutionäre Optimierung von Deep Neural Networks

URL
Dokumentart: Masterarbeit
Institut: Department Informatik
Sprache: Deutsch
Erstellungsjahr: 2017
Publikationsdatum:
SWD-Schlagwörter: Algorithmus
Freie Schlagwörter (Deutsch): Deep Learning, Faltungsnetze, Optimierung der Hyperparameter, Evolutionäre Algorithmen
DDC-Sachgruppe: Informatik

Kurzfassung auf Deutsch:

Faltungsnetze sind eine beliebte Klasse der neuronalen Netzwerke im Bereich Deep Learning mit einer speziellen Architektur, die ihre hervorragende Leistung in vielen Einsatzgebieten wie Bilderkennung, Spracherkennung usw. begründet. Die Architektur der Faltungsnetze verfügt über viele (Hyper-)Parameter, die auf ihre Erkennungsgenauigkeit Einfluss nehmen. Trotz des enormen wissenschaftlichen Interesses an Faltungsnetzen erfolgt die Suche nach guten Hyperparameterwerten meist manuell, was extrem viel Zeit beansprucht und mit dem Risiko verbunden ist, einige erfolgsversprechende Werte zu übersehen. Gegenstand dieser Arbeit ist das Entwerfen von Algorithmen zur automatisierten Hyperparametersuche für Faltungsnetz-architekturen. Anhand des bestehenden Wissens über die Faltungsnetze sollen sie durch eine geschickte Suchstrategie in relativ kurzer Zeit einige sehr gute Parameterwerte liefern. Es werden drei solcher Algorithmen basierend auf bekannten Metaheuristiken wie Evolutionäre Optimierung und Lokale Suche präsentiert, entsprechend dem Anwendungsfall implementiert und miteinander verglichen. Anhand verschiedener Datasets wird ermittelt, welcher Algorithmus unter welchen Bedingungen zu den besten Faltungsnetzarchitekturen führt.

Kurzfassung auf Englisch:

Convolutional neural networks is a widely spread class of powerful models from the deep learning domain. They have a specific architecture which allows them to tackle successfully many tasks such as image and speech recognition, video analysis etc. Convolutional architectures have a number of (hyper-)parameters which influence the final recognition error rate. Despite the fact that convolutional networks attract ever increasing interest within the research community, a search for good values for their hyper-parameters is carried out for the most part manually, which takes an extremely long time and is prone to overlook some promising values. The subject of this study is designing the algorithms to automatically search for hyper-parameters for convolutional architectures. These algorithms should encompass the existing knowledge about convolutional networks and yield very good hyper-parameter values in a relatively short time due to an appropriate search strategy. In this paper, three of such algorithms based on well-known metaheuristics named evolutionary algorithms and local search will be presented, adjusted to the use case of convolutional architectures and compared. Furthermore, it will be shown which algorithm produces the most successful architectures under which circumstances, using different datasets for image recognition.

Hinweis zum Urheberrecht

Für Dokumente, die in elektronischer Form über Datenenetze angeboten werden, gilt uneingeschränkt das Urheberrechtsgesetz (UrhG). Insbesondere gilt:

Einzelne Vervielfältigungen, z.B. Kopien und Ausdrucke, dürfen nur zum privaten und sonstigen eigenen Gebrauch angefertigt werden (Paragraph 53 Urheberrecht). Die Herstellung und Verbreitung von weiteren Reproduktionen ist nur mit ausdrücklicher Genehmigung des Urhebers gestattet.

Der Benutzer ist für die Einhaltung der Rechtsvorschriften selbst verantwortlich und kann bei Mißbrauch haftbar gemacht werden.