The Doppler Quarterly (DEUTSCHE) Frühjahr 2018 | Page 39

Die KI-Forschung beschreitet neue Wege und mithilfe von HPE-Supercomputing-Leistung konnte ein weiterer Durchbruch erzielt werden .

KI-Hintergrund
Künstliche Intelligenz ( KI ) wird im Allgemeinen als Intelligenz definiert , die Maschinen aufweisen , und in den vergangenen Jahren hat ein bestimmter KI-Teilbereich – Deep Learning ( DL ) – große Aufmerksamkeit erlangt . Deep Learning oder hierarchisches Lernen ist eine Teildisziplin des maschinellen Lernens und simuliert die Funktionsweise des menschlichen Neocortex . Der Neocortex ist der Teil des Gehirns , der an komplexen Funktionen wie Sinneswahrnehmung , motorischen Befehlen , räumlichem Denken , Sprache und Erkenntnis beteiligt ist .
Ein Unternehmen namens DeepMind , das im Jahr 2014 von Google aufgekauft wurde , ist für zahlreiche Durchbrüche im Bereich DL verantwortlich , die auf einer großen Menge der Daten basieren , zu denen Google Zugang hat . Traditionell „ lernen “ DL-Algorithmen , indem sie große Datenmengen verarbeiten . Wie Sie sehen werden , gibt es jedoch neue Wege , wie DL lernen kann .
Der jüngste Durchbruch wurde von Professor Tuomas Sandholm und einem Team seiner Doktoranden an der Carnegie Mellon University auf Supercomputing-Hardware von HPE erzielt .
Wir werden uns die drei wichtigsten Durchbrüche der letzten mehr als 20 Jahre ansehen und in groben Zügen die verschiedenen Ansätze erläutern , die dabei verwendet wurden . Zudem werden wir auf einige spannende Möglichkeiten für die künftige Nutzung dieser neuen Technologie eingehen .
Der erste Durchbruch
Im Zeitraum von 1996 bis 1997 besiegte ein System namens Deep Blue als erstes KI-Programm einen amtierenden Schachweltmeister . Das System wurde ursprünglich von Feng-hsiung Hsu an der Carnegie Mellon University entwickelt und später , als er für IBM arbeitete , zusammen mit Thomas Anantharaman und Murray Campbell , die Mitglieder seines Teams waren , fertiggestellt . Ein Schachbrett ist relativ klein und besteht aus 8 x 8 quadratischen Feldern . Obwohl zu jedem Zeitpunkt während eines Spiels zahlreiche Schachzüge möglich sind , konnte das Problem mit enormer Rechenleistung gelöst werden , die damals von IBM Hardware bereitgestellt wurde . Dieses System konnte 200 Millionen Positionen pro Sekunde berechnen .
Der grundsätzliche Ansatz bestand darin , einen generalisierten Algorithmus mit zahlreichen Parametern zu erstellen . Das System berechnete anschließend die optimalen Werte dieser Parameter , indem es Hunderttausende von Spielen von Schachmeistern und Schachgroßmeistern analysierte . Anschließend wur-
FRÜHJAHR 2018 | THE DOPPLER | 37