Der Winter naht

Einige Kenner der KI Branche* sind der Meinung, dass der Hype um die Künstliche Intelligenz sich sehr bald in das Gegenteil kehren wird, nämlich den gefürchteten KI-Winter. Die gesamten Hoffnungen, die Unternehmen in die Entwicklung von technologischen Neuerungen wie selbstfahrende Autos stecken, wären dann vergebens. Der Fortschritt stagniert bereits und die ersten Anzeichen für den sogenannten KI-Winter sind längts da.

KI – Winter: Machine Learning funktioniert nicht wie erwartet

Der Begriff „KI-Winter“ kam anhand der Beobachtung auf, dass die Entwicklung der Künstlichen Intelligenz in Zyklen verläuft. Auf den Hype um neue Möglichkeiten folgt bittere Enttäuschung in Form des besagten KI-Winters. Während des KI-Winters wird die gesamte Forschung und Entwicklung in diesem Bereich so gut wie eingestellt.

Die Anzeichen für die kommenden Veränderungen häufen sich. Die meisten Vorhersagen der größten Fürsprecher des KI-Fortschritts haben sich nicht erfüllt. Große Hoffnung wurde zum Beispiel in die Computer Interpretation von CT-Scans gelegt. Computer sollten dies besser als Radiologen können und diese bald ersetzen. Dieser Fall wird wohl nicht eintreten.

Hier zum Beispiel eine wichtige Studie, die deutlich zeigt, dass die derzeitigen Machine Learning Modelle schlechter sind als Ärzte: „Bone X-Ray Deep Learning Competition“ von Stanford ML Group.

Quelle: Mura / Stanford ML Group: https://stanfordmlgroup.github.io/competitions/mura/

Wie man in dem obigen Bild leicht erkennen kann, schneidet das Machine Learning Modell am schlechtesten ab. Die menschlichen Radiologen sind deutlich besser.

Ähnliche Tests hat auch die M4 Competition von Spyros Makridakis durchgeführt (hier Link zu der Webseite). Es ist ein Vorhersagewettbewerb, der bereits seit 1982 veranstaltet wird. Der neueste Wettbewerb aus dem Jahr 2018 ging darum, die beste Vorhersagemethode zu entwickeln.

Wichtigste Erkenntnisse aus diesem Wetbbewerb:

  • reine Machine Learning Modelle haben am schlechtesten funktioniert;
  • am besten funktioniert hat die Anwenung der üblichen Statistikmethoden sowie ein hybrider Ansatz aus Statistikmethoden und Machine Learning.

Anbei noch ein Link zur Wikipedia Seite, wo die Ergebnisse dieses Wettbewerbs zusammengefasst werden.

Wie kommt es zu den KI-Zyklen?

Grundsätzlich verhält sich die Entwicklung der KI ähnlich wie die anderen Businessbereiche: auf einen Boom folgt Bust.

Hinter diesen Zyklen bei KI versteckt sich aber ein weiteres wichtiges Phänomen, und zwar das berühmte Moravec Paradox.

Hans Moravec hat mal gesagt:

„it is comparatively easy to make computers exhibit adult level performance on intelligence tests or playing checkers, and difficult or impossible to give them the skills of a one-year-old when it comes to perception and mobility“

Das Problem ist also folgendes: es besteht eine sehr große Diskrepanz zwischen der Entwicklung der KI im Bereich der Computer Spiele und der Robotik. Für einen Computer sind Sachen, die uns leicht fallen, extrem schwierig, vor allem im Bereich Motorik.

Filip Piekniewski, ein Experte auf diesem Gebiet, fasst es in seinem Beitrag „AI and the ludic fallacy“ folgendermaßen zusammen:

„we can play games with AI but we can’t equip a robot in even the most basic perceptual/motor capabilities.”

Zu Moraves Paradox hat Piekniewski noch ein anschauliches Video auf YouTube eingstellt, das die Problematik visuell aufarbeitet.

Aufgrund dieser Problematik sind die Fortschritte in KI-Entwicklung eben nicht so groß, wie sie häufig in durch die Medien und manche Experten dargestellt werden.

Der beste Test dafür ist eben die Praxis. Oben habe ich bereits anhand der Beispiele gezeigt, wo die erhofften KI-Erfolge nicht einsetzen wollen, inbesonderen die Medizin erweist sich in diesem Zusammenhang als ein Fehlschlag. Die Rechenkapazität der Computer ist gestiegen, nur hat es für die Robotik und andere Breiche wie die medizinische Praxis nicht die erhofften Erfolge gebracht.

Selbstfahrende Autos

Piekniewski spekuliert daher, dass das Ende des Hypes um die KI mit den selbstfahrenden Autos beginnen wird, denn dort werden die Mängel im Fortschritt sehr schnell sehr deutlich. Die Fehler der KI manifestieren sich dort in den von den Autos veursachten Unfällen.

Der größte bislang war ein Unfall der Firma Uber in Arizona, wo das Auto eine Fussgängerin nicht erkannte (hier ein Bericht der Tageschau).

Filip Piekniewski zählt die Probleme, die selbstafahrenden Autos haben, auf seinem Blog. Es ist vom Prinzip die Diskrepanz, die durch das Moravec Paradox beschrieben wird. Die KI erkennt sehr gut anhand den von Menschen beschrieben Daten bestimmmte Gegenstände, sie tut sich aber eben schwer mit den Dingen, die uns Menschen als offensichtlich vorkommen. Deswegen haben wir damit Probleme zu erfassen, dass die KI damit überhaupt Probleme haben kann, denn uns kommt es offensichtlich vor.

Einer der größten Probleme der KI in diesem Bereich sind die sogennanten Ausreißer, die KI schwer erkennen kann. Das führt zu Problemen für selbstfahrende Autos auf der Strasse, denn die Realität ist eben komplex. Wie verhält sich so ein Auto, wenn eine Katze plötzlich seinen Weg quert? Was, wenn ein Stein sich von einem Felsen ablöst, usw.

Um es zusammenzufassen: die einfachste Realität ist komplizierter als ein kompliziertes Spiel. Paradoxerweise haben Computer die größten Schwierigkeiten nicht mit komplexen Spielen, aber mit unserer einfachsten Realität, die ein Kind oder ein Tier sehr schnell erfassen kann.

*Dieser Blogbeitrag stützt sich stark auf die Erkenntnisse von Filip Piekniewki. Piekniewski ist ein KI-Experte und arbeitet im Bereich computer vision und KI-Entwicklung. Sein Blog erhält sehr viele gute Erkenntnisse und Bemerkung zur Stand der Forschung im Bereich KI. Hier ein Link zum Blog: http://blog.piekniewski.info/.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.