Kognitive Lösungen – eine kleine Zeitreise

Was ist dran an der künstlichen Intelligenz?

Artificial Intelligence, Machine Learning, Deep Learning, Cognitive Computing … diese Begriffe werden oft synonym verwendet. Was ist damit gemeint, wo und wie setzen wir solche Lösungen heute ein, wo liegen die Herausforderungen und wo schlummert das grösste Potenzial?

Die Frage, was Intelligenz ist, beschäftigt die Menschen seit grauer Vorzeit, doch gibt es bis heute keine allgemein anerkannte Definition. In Wikipedia wird Intelligenz als Sammelbegriff für die kognitiven Leistungen eines Menschen bezeichnet. Intelligenz ist also ein Mass dafür, wie gut ein Mensch Informationen über kognitive Leistungen wie Wahrnehmung, Erinnern, Denken und den Einsatz von Sprache verarbeiten kann. Werden diese Leistungen von einer Maschine erbracht, spricht man von künstlicher Intelligenz. Dabei unterscheidet man schwache und starke künstliche Intelligenz. Schwach intelligente Systeme sind stark anwendungsbezogen. Sie setzen maschinelles Lernen für klar definierte Aufgaben ein und verarbeiten so Informationen auf intelligent wirkende Weise. Solche Systeme werden zum Beispiel für Wettervorhersagen, Empfehlungssysteme, Sprachverarbeitung oder Anomalie-Erkennung eingesetzt. Stark intelligente Systeme können denken wie ein Mensch und dadurch zum Beispiel auch Neues erfinden und Entscheide treffen. Die Frage, ob es starke künstliche Intelligenz überhaupt geben kann, wird bis heute kontrovers diskutiert.

 

notitia31_einfuehrung_2
Matthias Loepfe: erforscht neue Technologien.

Die Anfangsjahre

Die Geschichte der künstlichen Intelligenz beginnt mit der Erfindung der Computer in den 1930er-Jahren. In der Anfangszeit wurden mit Computern vor allem Probleme gelöst, die sich durch mathematische Regeln beschreiben lassen, für den Menschen jedoch zum Beispiel aus Gründen der Rechenkapazität schwierig zu lösen sind. Die wahre Herausforderung besteht in der Lösung von Aufgaben, die für einen Menschen einfach zu bewältigen sind, sich jedoch nicht als mathematische Regeln formulieren lassen wie etwa Sprache verstehen, Gesichter erkennen oder Gehen in unebenem Gelände.

 

Maschinelles Lernen

Maschinelles Lernen Wird aus Daten automatisiert Wissen generiert, spricht man von maschinellem Lernen oder englisch Machine Learning (ML). Ein System lernt anhand von Trainingsdaten, Muster und Gesetzmässigkeiten zu erkennen. Man unterscheidet verschiedene  Arten des Machine Learning: Supervised Learning, Unsupervised Learning und Reinforcement Learning.

 

Beim Supervised Learning wird ein System mit Datensets aus Eingaben und den erwarteten Ausgaben trainiert. Das System lernt dadurch, Zusammenhänge zu erkennen und Prognosen für zukünftige Eingaben zu machen.

 

Beim Unsupervised Learning ist nicht bekannt, wie das Resultat aussehen soll. Das System wird mit Daten gefüttert und erzeugt daraus selbständig ein Modell und Kategorien, nach denen es die Daten einteilt. Ziel ist es, die vorhandenen Daten zu verstehen, das heisst, versteckte Strukturen und Gruppierungen offenzulegen.

 

Beim Reinforcement Learning lernt das System durch Feedback, wie es auf Situationen reagieren soll. Diese Form des maschinellen Lernens kommt dem menschlichen Lernen am nächsten. Sie eignet sich für sequentielle Entscheidungsprozesse und ermöglicht die Automatisierung von Abläufen, die zu komplex sind, um programmiert zu werden.

 

In den letzten Jahren hat Machine Learning zusätzlich durch die Wiederentdeckung der Bedeutung hierarchischer neuronaler Netzwerke, das sogenannte Deep Learning, Schub bekommen. Deep Learning eignet sich besonders für Anwendungen, bei denen grosse Datenbestände zur Verfügung stehen, aus denen sich Muster und Modelle ableiten lassen.

 

Zentral: Ziel exakt definieren

Machine Learning bietet Unternehmen unzählige Möglichkeiten: von der intelligenten Automatisierung von Prozessen bis hin zur Entwicklung disruptiver Businessmodelle. Zentral ist bei jedem Projekt die Frage: Was ist das Ziel? In einem ersten Schritt werden Ist-Situation, Arbeitsabläufe und Businessprozesse analysiert und das Ziel möglichst exakt definiert. Dann wird eine Strategie erarbeitet, um die erforderliche Transformation zu erreichen. Erst hier zeigt sich, ob Machine Learning überhaupt sinnvoll eingesetzt werden kann und wofür.

 

 

notitia31_einfuehrung_1
Zoom
Künstliche Intelligenz (KI): ein Thema, das die Menschen seit Jahrzehnten beschäftigt.

1939 – Electro: An der Weltausstellung 1939 in New York wird der humanoide Roboter Electro vorgestellt, auch als «smoking robot» bekannt. Electro wird über eine Telefonverbindung gesteuert. Er kann sich bewegen, zählen, Zigarre rauchen und verfügt über einen begrenzten Sprachschatz von 700 Wörtern, mit dem er eine einfache Konversation simulieren kann.

1943 – Erste neuronale Netze.

1948 – Norbert Wiener definiert in «Kybernetik. Regelung und  Nachrichtenübertragung im Lebewesen und in der Maschine» den Begriff Kybernetik (Kunst des Steuerns).

1950 – Alan Turing will beweisen, dass das Gehirn nichts  anderes als ein Computer ist. So entsteht der Turing-Test. Eine Testperson unterhält sich mit zwei Gesprächspartnern, wovon einer eine Maschine ist. Kann die Testperson Mensch und Maschine nicht unterscheiden, hat die Maschine den Test bestanden.

1950–66 – In den 1950er-Jahren werden Projekte zur maschinellen Übersetzung von der amerikanischen Regierung intensiv gefördert. Dabei werden in der Anfangsphase Sätze Wort für Wort  übersetzt und zusammengefügt. Dass auch für automatisiertes Übersetzen umfangreiches Weltwissen erforderlich ist, wird erst später erkannt.

1956 – Dartmouth-Konferenz, auch als KI-Urknall bezeichnet.  Die Konferenzteilnehmer kommen zur Überzeugung, dass Denken  auch ohne menschliches Gehirn möglich sei.

1957/67 – Herbert A. Simon und Allen Newell entwickeln den General Problem Solver (GPS), der menschliches Denken  simulieren soll. Der Versuch wird

1967 aufgegeben, führt jedoch zur Entwicklung von Expertensystemen.

1965-1975 – Erster KI-Winter. Gründe: Die letzten Jahre waren geprägt von stark überhöhten Erwartungen sowie Vietnamkrieg.

1966 – ELIZA: Joseph Weizenbaum entwickelt den ersten  bekannten Chatbot ELIZA, der über Skripte verschiedene Gesprächspartner simuliert. Bekannt wurde ELIZA für die Simulation eines Psychotherapeuten.

1966 – Maschinelle Übersetzung: Ein für das US-Verteidigungsministerium erstellter Bericht gelangt zum Schluss, dass maschinelles Übersetzen nicht möglich sei. Die Forschung in  diesem Bereich wird danach für fast 20 Jahre praktisch eingestellt.

1970er – Streit um den ontologischen Status künstlicher  Intelligenz. Als Ergebnis dieser Auseinandersetzung stehen sich bis heute mit der schwachen und der starken KI zwei konträre Positionen gegenüber.

Ab Mitte 1970er – Entwicklung von Expertensystemen, zum Beispiel zur Unterstützung von Diagnose- und Therapieentscheiden. Trotz grosser Investitionen erfüllen sie die Erwartungen nicht. Denn da Expertensysteme nicht lernen können, muss das ganze Wissen mittels oft komplexer Regelwerke programmiert werden.

1985–95 – Zweiter KI-Winter. KI bekommt Konkurrenz durch die wiederaufgenommene Forschung im Bereich neuronaler Netze.  Selbst dieser zweite Anlauf kommt zu früh. Es fehlt an Trainingsdaten und Lösungen zur Strukturierung und Modularisierung der Netze und die Computer sind noch zu wenig leistungsfähig.

1997 – IBMs Schachcomputer Deep Blue schlägt Weltmeister G. Kasparov. Parallel dazu wird intensiv in die Entwicklung von Robotik investiert.

Um 2010 – Entwicklung erster Roboter, die ihr Verhalten durch maschinelles Lernen autonom optimieren.

2011 – Jeopardy! Challenge: IBMs Programm Watson gewinnt  gegen die drei Topkandidaten.

2010 bis heute – Um 2010 startet die Kommerzialisierung der künstlichen Intelligenz, insbesondere in den Bereichen maschinelles Lernen und Natural Language Processing. Eine zentrale Rolle spielt dabei Deep Learning, die Wiederentdeckung neuronaler Netze. Durch Deep Learning werden plötzlich Probleme lösbar, die lange unlösbar schienen. Es bringt den Durchbruch in der Mustererkennung bei unstrukturierten Daten und damit die  kommerzielle Wende.

Aufbau von ML-Skills

Hat ein Unternehmen noch keine Erfahrung mit Machine Learning, empfiehlt es sich, klein anzufangen. Es gibt in fast jedem Umfeld «low-hanging fruits» in Form simpler Anwendungspatterns, die schnell identifiziert werden können. Dies gibt den beteiligten Parteien Gelegenheit, erste Erfahrungen mit maschinellem Lernen zu sammeln. So können auch die Businessvertreter ein Verständnis dafür entwickeln, was mit Machine Learning alles möglich ist. Kombinieren sie diese Erkenntnisse mit ihrem Fachwissen, geht es bald nicht mehr darum, Bestehendes zu optimieren, sondern um die Entwicklung ganz neuer Businessmodelle. Hier entfaltet das Machine Learning seine volle Kraft.

 

Wann ist ML unverzichtbar?

Sind alle benötigten Daten in digitaler Form vorhanden, ist ein Einsatz von Machine Learning sicher dann sinnvoll, wenn grosse Mengen an Daten oder Daten in unstrukturierter Form (wie E-Mails, Briefe, Sprache, Video, Chat, SMS) vorliegen, sich die Daten laufend verändern oder für ihre Verarbeitung Expertenwissen benötigt wird, das nicht oder nur mit grossem Aufwand formal beschrieben werden kann. Betrachten wir die einzelnen Fälle etwas genauer:

  • Verarbeiten grosser Mengen von Daten
    Will man aus Daten Nutzen ziehen, muss man sie verstehen. Das heisst, man muss die inneren Zusammenhänge kennen und zu anderen Daten in Beziehung setzen. Bei sehr grossen Datenmengen oder hoher Komplexität stösst ein Mensch hier schnell an Grenzen. In solchen Fällen hilft Machine Learning.
  • Automatisieren von Prozessen mit unstrukturierten Daten
    Gehen bei einer Firma täglich 20 Kundenanfragen ein, kann eine Person diese Anfragen einzeln abarbeiten. Gehen täglich 20 000 Anfragen ein, muss automatisiert werden. Hier kann Machine Learning eingesetzt werden, von der Triage bis hin zur voll automatisierten Beantwortung von Anfragen.
  • Verarbeiten von sich laufend ändernden Daten
    Bei der Verarbeitung von Daten, deren Muster oder innere Zusammenhänge schnell ändern, kann es schwierig werden mit klassischen ausprogrammierten Regelwerken, weil diese fortlaufend angepasst werden müssten. Hier kann ein selbstlernendes System Abhilfe schaffen.
  • Erfassen von nicht formal beschreibbarem Expertenwissen
    Ein weiterer Einsatzbereich für Machine Learning sind Aufgaben, bei denen die Experten nicht genau beschreiben können, wie sie die Aufgabe lösen, zum Beispiel weil dazu sehr viel Erfahrung nötig ist oder weil der Prozess weitgehend unbewusst abläuft. Wird eine Person neu eingearbeitet, erfolgt das Lernen in der Regel anhand von Beispielen. In solchen Fällen kann man auch Machine Learning einsetzen. Die Maschine benötigt allerdings sehr viel grössere Mengen an Trainingsdaten als ein Mensch.

     

Wo wird ML heute eingesetzt?

Machine Learning wird bereits heute breit eingesetzt.

Bekannte Anwendungsgebiete sind:

  • Vorhersagen, Prognosen: Produktmarketing und -wartung, Wetterberichte, Predictive Policing
  • Sprachverarbeitung: Spracherkennung, Natural Language Processing (NLP), Sprachsynthese
  • Klassifizierung und Strukturierung von Daten
  • Empfehlungssysteme: Amazon, Spotify, Netflix
  • Persönliche Assistenten: Siri, Amazon Echo, Google Home
  • Chatbots: Service Bot Swisscom
  • Anomalie-Erkennung: Aufdecken von Kreditkartenbetrug, Monitoring, Alerting
  • Medizinische Diagnostik, Epidemiologie und Biometrie
  • Bildverarbeitung und Mustererkennung
  • Robotik: Bewegungssteuerung, Sicht usw.

Trotz der grossen Spanne an Anwendungsgebieten gibt es Bereiche, die mit Machine Learning aktuell nicht abgedeckt werden können, da sie zu komplex sind.

 

Hürden beim Einbau von ML

Wie hoch der Aufwand für den Einbau von Machine Learning ist, hängt von der Qualität, der Menge und der Beschaffenheit der verfügbaren Daten ab. Oft müssen Daten aus Legacy- Systemen eingebunden werden, der Zugriff auf benötigte  Informationen ist nicht möglich oder schwierig, oder Daten dürfen aus datenschutzrechtlichen Gründen nicht korreliert werden. Bei zu grossen Datenvolumen kann es sein, dass die Lösung nicht skaliert, bei zu kleinen Volumen ist Machine Learning unter Umständen nicht möglich. Oder es fehlt am Expertenwissen für die Extraktion der benötigten Informationen aus einem System.

 

Umgang mit Fehlern und Wertungen

Eine weitere Hürde beim Einsatz von Machine Learning ist fehlende Berechenbarkeit beziehungsweise Überprüfbarkeit. Herkömmliche Computerprogramme verhalten sich deterministisch, das heisst, die Regeln, nach denen sie ihre Entscheidungen treffen, sind verständlich und überprüfbar. Wenn wir Systemen beibringen, wie Menschen zu lernen, hat dies auch Nachteile. Der Mensch funktioniert nicht digital und verhält sich nicht immer voraussehbar. Das trifft auch auf Machine Learning zu, vor allem wenn Deep Learning eingesetzt wird. Das Verhalten und die Entscheidungsgrundlagen der Programme, die dabei entstehen, sind in aller Regel nicht vollständig nachvollziehbar. Wir wissen oft nicht, weshalb sie zu einem bestimmten Resultat gelangen.

 

Ein weiterer Aspekt ist der Umgang mit Fehlern. Systeme, die Machine Learning einsetzen, produzieren auch Fehler. Manchmal gehen die Lernalgorithmen von falschen Annahmen aus (Verzerrung) oder reagieren zu empfindlich auf Schwankungen in den Daten (Varianz). Die Systeme müssen deshalb so ausgelegt sein, dass sie mit Fehlern umgehen können.

 

Ein heikles Thema sind auch implizite Wertungen. Wird ein Modell mit Daten trainiert, die implizite Wertungen enthalten, also zum Beispiel nicht genderneutral oder rassistisch sind, lernt das Modell diese Wertungen mit. Das Gefährliche daran ist, dass Wertungen in Daten unter Umständen schwierig zu erkennen sind. Je weniger wir die Daten verstehen, desto heikler ist die Situation. Die Systeme lernen Fehler, und weil der Mensch die Fehler nicht erkennt, kann er nicht korrigierend eingreifen.

 

Wo stösst ML an Grenzen?

Wagen wir zum Schluss noch einen Blick in die Zukunft: Haben wir im Umgang mit künstlicher Intelligenz endlich den grossen Durchbruch erreicht und geht es jetzt exponentiell nach oben, nur noch gebremst durch die Leistungsfähigkeit der Computer? Oder haben wir zwar einen grossen Schritt gemacht, sind jetzt aber wieder auf einem Plateau angelangt?

 

Um einen Computer bauen zu können, der wie ein Mensch denkt, müssten wir erst verstehen, wie das menschliche Gehirn funktioniert. Wir müssten den «Braincode knacken», um es mit den Worten von Pascal Kaufmann, CEO von Starmind, zu sagen. In eine ähnliche Richtung zielt Jeff Hawkings mit der Firma Numenta und dem sogenannten Hierarchical Temporal Memory (HTM). Es handelt sich dabei um eine Form von hierarchischen neuronalen Netzen, die den temporalen Aspekt ins Zentrum rücken und versuchen, dadurch grundlegende Mechanismen des Neocortex nachzubilden.

 

Mit diesem Ziel befasst sich auch das Human Brain Project (HBP), ein Grossprojekt der Europäischen Kommission. Das Projekt wurde von Henry Markram, Professor an der ETH Lausanne, initiiert und verfolgte ursprünglich das Ziel, bis 2023 ein Computermodell des menschlichen Gehirns zu bauen. Zwar konnte bis heute erst ein winziges Stück der Grosshirnrinde eines Nagers nachgebildet werden. Doch sollte es den Forschern gelingen, beim Bau des Modells entscheidende Gesetzmässigkeiten zu entdecken, könnte das ursprüngliche Ziel wieder in Reichweite rücken.

 

Während die Erforschung der starken künstlichen Intelligenz nach wie vor in den Kinderschuhen steckt, wurden im Bereich des Machine Learning mit der Wiederentdeckung der Bedeutung neuronaler Netze in den letzten Jahren zweifellos enorme Fortschritte erzielt. Heute kann fast jede isolierte Aufgabe von einer Maschine effizienter bewältigt werden als von einem Menschen. Machine Learning ermöglicht auch die Einführung neuer Geschäftsmodelle und wirkt in vielen Bereichen disruptiv. Wie unsere Beispiele zeigen, wird maschinelles Lernen bereits heute breit eingesetzt. Doch ist das Potenzial noch lange nicht ausgereizt. Bis wir die technischen Möglichkeiten, die sich uns heute bieten, voll ausgeschöpft haben, bleibt noch viel zu tun.

 

 

Autor

Matthias Loepfe

Matthias Loepfe, Dipl. El.-Ing. FH, hat als technischer Leiter und später als CTO und Mitinhaber die Entwicklung von AdNovum in den Anfangsjahren massgeblich geprägt. 2003 verkaufte er seinen Anteil und befasste sich danach während über zehn Jahren mit Cyber Crime Investigation und digitaler Forensik. 2016 kehrte er zu AdNovum zurück und erforscht heute als Head of AdNovum Incubator mit seinem Team die Praxistauglichkeit und disruptive Kraft innovativer Technologie. Geht nicht? Gibt’s nicht! Matthias Loepfe sucht mit Leidenschaft stets die eleganteste Lösung. Sein handwerkliches Geschick bewies er schon in jungen Jahren mit selbst umgebauten VW Bullis. Daneben bewegt er sich gerne in der Natur.