IPL-Magazin 47 | April 2019 | Autor: Prof. Dr. Gerhard Metze

Der Begriff „Künstliche Intelligenz“ (KI) hat mehr akklamatorischen Charakter gegenüber einer exakten wissenschaftlichen Definition.

 

Prof. Dr. Gerhard Metze
Prof. Dr. Gerhard Metze

Deshalb ist er hervorragend geeignet, von verschiedenen Interessensgruppen in ihrem Sinne eingesetzt zu werden, z.B. um Fördermittel abzugreifen.


Die Spannweite des Verständnisses von KI reicht von einem

  • Gattungsbegriff, der alle komplexen Computerprogramme umfasst, die enorme Mengen von Inputdaten aufbereitet und als Outputzuordnungen und/oder Schlussfolgerungen bieten, unabhängig davon, wie diese Programme entstehen,

bis hin zur

  • letzten Stufe des künstlichen Lernens (und Handelns?) durch Computerprogramme, die sich ohne menschliche Hilfe oder Intervention selbst optimieren können mit dem Ziel, Schlussfolgerungen, ja Entscheidungen wie ein Mensch treffen zu können.


Allgemein bekannte KI-Anwendungen sind die Erkennung von Objekten wie Gesichter, Schriften, Personen, sich bewegende Objekte in Bildern und Videos, und vor allem auch Spracherkennung und Sprachdialoge, die in Handlungen resultieren können, wie z.B. das Öffnen einer Tür nach der Identifikation des Sprechenden.


Prinzipiell geht es darum, auf der Basis der Analyse einer Unmenge an Daten (der Vergangenheit) „auf möglichst intelligenter Weise“ Modelle für Computerprogramme zu entwickeln, die auf eine aktuelle Konstellation von Daten angewendet werden können, um diese zu bestimmen, zuordnen und bewerten zu können. Der Hinweis „auf möglichst intelligente Weise“ bezieht sich auf die unterschiedlichen Niveaus der Datenverarbeitung im Umfeld von KI.

 

Regelbasiertes Machine Learning
Als Vorstufen von KI gelten „regelbasierte Systeme“ und „Machine Learning“. Dabei verschwimmen die Grenzen zwischen den „regelbasierten Systemen“ und der Untergruppe „überwachtes Lernen“ des „Machine Learning“.

Bei beiden werden auf der Grundlage empirischer oder künstlich erzeugter Trainingsdaten Algorithmen entwickelt, die eine automatische Klassifizierung ermöglichen. Zu Beginn werden hierfür von außen eine Reihe unterschiedlicher Outputwerte zu den jeweiligen Inputwerten vorgegeben. Dazu werden sowohl die Attribute auf der Output- und Inputseite „exogen“ festgelegt und auch Verknüpfungsregeln zwischen Output- und Inputwerten auf der Basis der eingegebenen Daten.

Da während der Trainingsprozesse „exogen“ die Ergebnisse des Algorithmus bewertet und zurückgespielt werden, kann nach mehreren Verarbeitungszyklen ein stabiles Modell entstehen, das neu hinzukommende Daten entsprechend klassifizieren kann. Wenn das Feedback nicht nur Informationen über Abweichungen erhält, sondern wenn diese noch gewichtet werden („Belohnung und Bestrafung“), dann spricht man vom „Bestärkenden Lernen“.

Generell steht die Optimierung der Ergebnisse bzw. Verbesserung der Vorhersagen aufgrund von Lernprozessen im Vordergrund. Ein typisches Beispiel für ein regelbasiertes Machine Learning ist die Unterscheidung von E-Mails in „normale“ und „spam“- E-Mails.

Um die Anzahl der Attribute zu reduzieren, sollen diejenigen bestimmt werden, die die höchste Aussagekraft besitzen. Sie werden als „features“ bezeichnet. Dieses Feature Engineering setzt sowohl profunde Kenntnis in der multivariaten Statistik wie profunde Fachkenntnisse im zu untersuchenden Gebiets voraus.

Letzteres verursacht den größten Aufwand für die Erstellung eines „überwachten Lernen“ – Systems.

 

Abb. 1: Regelbasiertes Machine Learning
Abb. 1: Regelbasiertes Machine Learning

 

 

Vom „unüberwachten Lernen“ hin zu Deep Learning mit Neuronalen Netzen
Beim unüberwachten Lernen hingegen werden die Eingabedaten zur Beschreibung einer Entität nach mehreren Attributen ohne exogene Einwirkungen gemäß ihrer Ähnlichkeit bzw. Unähnlichkeit in eine Reihe verschiedener Gruppen zugeordnet. Damit kann die Zughörigkeit eines neuen Datensatzes einer neuen Entität zu einer bestimmten Gruppe ermittelt werden. Es werden aber nicht – wie häufig geschrieben – auf dieser Grundlage mathematische Modelle konstruiert, sondern es werden mathematische Modelle der Cluster-Analyse exogen bereitgestellt und genutzt, wie z.B. der Tanimoto- Koeffizient, der vor über 60 Jahren entwickelt wurde. Ein Beispiel ist die Erkennung von Attributkonstellationen, die häufig zu Ausfällen von Maschinen führen. Das bekannte Schlagwort ist „predictive maintenance“.

Hauptprobleme für die Entwicklung eines Machine Learning – Algorithmus sind zu wenige Inputdaten und die Vielzahl unterschiedlicher Attribute dieser Daten.

Die eigenständige Entwicklung von Modellen zur Erkennung und Klassifizierung ohne exogene Vorgaben wird auch der Rubrik Deep Learning zugeordnet. Der Unterschied des Deep Learning liegt in der Anwendung sog. „Neuronaler Netze“, eine begriffliche Analogie zur Struktur des menschlichen Gehirns.

Das Grundprinzip der Unterscheidung des Ähnlichen vom Unähnlichen bleibt. Aber bei Neuronalen Netzen wird es über mehrere Ebenen hinweg zur Verdichtung und Wiederaufschlüsselung von Daten eingesetzt. Neuronale Netze bestehen aus einer Menge von Datenverarbeitungseinheiten, die als Neuronen bezeichnet werden. Sie sprechen auf typische Eigenschaften eines Eingangssignals an und sind nur in der Lage zur Transformation durch Abstraktion. Das andere strukturelle Element neuronaler Netze sind die Schichten (Layer). Es existieren immer eine Eingabe- und eine Ausgabeschicht sowie dazwischen eine unterschiedliche Zahl von (versteckten) Zwischenschichten.

 

Abb. 2: Deep Learning
Abb. 2: Deep Learning

 

Jede Schicht enthält Neuronen, die in der Regel nur mit (meist allen) Neuronen der anderen Schichten kommunizieren (können). Die Schichten selbst stehen in einer festen Beziehung zueinander. An dem bekannten Beispiel der Zuordnung von Bildern zu drei vorgegebenen Klassen Tieraufnahmen, Porträts von Menschen, Landschaftsfotos soll das Prinzip neuronaler Netze ansatzweise verdeutlicht werden.

Um ein neuronales Netz überhaupt für die Klassifikation von Bildern oder Texten verwenden zu können, muss es zunächst trainiert werden. Hierfür wird ein Signal – z. B. ein Bild von einem Vogel – an die Eingangsneuronen angelegt. Über zusätzliche Gewichtungen und Schwellenwerte für jedes Neuron wird die Datenverarbeitung so lange optimiert, bis Ausgangsneuronen für die Zuordnung Vogel bestimmt werden können. Der Beginn der Modellbildung erfolgt auf der einfachsten Ebene der Attribute eines Objekts, hier das Foto eines Vogels. Bei einer 1-dimensionalen Beschreibung des Fotos erfolgt dies nach der Summe der Helligkeitswerte eines Bildes.

Für alle vorgelegten Bilder werden die Helligkeitssummenwerte berechnet. Die Transformation dieser Daten auf die nächsthöhere Ebene der Verarbeitung erfolgt durch ihre Zuordnung in Klassen, z.B. die Klasse mit Helligkeitssummen von weniger als 50, die Klasse mit Helligkeitssummen größer 50 aber kleiner 150, die Klasse mit Helligkeitssummen größer 150. Bei diesem Beispiel ist der Beginn auch mit einer dreidimensionalen Beschreibung eines Farbfotos des Vogels möglich, indem auf der Basis der RGB-Farbcodierung pro Pixel eines Fotos die drei Farbwerte zur Beschreibung auf der ersten Ebene verwendet werden, um auf der nachfolgenden Ebene bzw. Schicht verdichtet zu werden.

Der nächste Schritt der Transformation der dreidimensionalen Ausgangsdaten ist, wie bei den eindimensionalen Daten, die Zuordnung zu Klassen auf der nächsthöheren Verdichtungsebene. Die Objekte werden also in einem neuen Attributenraum dargestellt, der in der Regel mit weniger Attributen aufgespannt wird gegenüber dem Attributenraum der Ausgangsdaten. Sogenannte flache neuronale Netze hören nach einer Transformation bereits auf. Bei komplexen Aufgabenstellungen spricht man von „Deep Learning“ durch mehrere Transformationen, die hintereinander geschaltet werden. Diese Transformationsebenen werden im Fachjargon als (verdeckte) Schicht eines neuronalen Netzes bezeichnet.

So werden große Mengen an Eingabedaten nach und nach über mehrere Schichten systematisch reduziert. Über weitere nachgelagerte Schichten werden die reduzierten Daten wieder erweitert, bis eine Ausgabeschicht erreicht wird, die als Ausgabevektor ein Objekt oder Entität einer bestimmten Klasse „Vogel“ zuweist.

Im Neuronalen Netz wird dabei jedem Neuron für die Verbindung mit dem anderen Neuron ein Gewicht und ein Schwellenwert (bias) zugeordnet, mit denen es die Eingangsdaten verarbeitet und weiterleitet. Charakteristisch ist, dass die Gewichte und die Schwellenwerte während des Lernprozesses so oft verändert werden, bis ein optimales Ergebnis vorliegt, in unserem Beispiel eine eindeutige Identifikation eines Vogels. Es ist offensichtlich, dass für den Aufbau dieser optimierten Struktur eine sehr große Menge an Trainingsdaten notwendig ist.


Unbestrittene nützliche Anwendungen liegen in

  • Objekterkennung in Bildern und Videos, Texterkennung in Bildern
  • Spracherkennung, teilweise maschinelle Übersetzung
  • Predictive Maintenance.


Es gibt Autoren, die sogar die Möglichkeit zur Prognose des zukünftigen Kursverlaufs von Aktien durch KI sehen. In diesem Zusammenhang lässt sich eine andere Prognose aufstellen:

  • aus den Vergangenheitsdaten von Kursverläufen lassen sich keine Aussagen über den zukünftigen Verlauf machen,
  • falls doch, dann ist es sehr unwahrscheinlich, dass es publiziert würde, denn der Kreator dieses KI-Programms wäre schlecht beraten, wenn er dies nicht ausschließlich zu seinem eigenen Vorteil einsetzen würde. Eine Verbreitung dieses Programms würde zu völlig anderem Verhalten der anderen Marktteilnehmer führen, wie es in der Vergangenheit - und damit im Programm – noch nicht vorgekommen ist. Mithin wäre das Programm dann nutzlos, eine durch ihre Anwendung sich selbst zerstörende Maschine – wie die autodestruktiven Maschinen des Künstlers Jean Tinguely.