Im letzten Beitrag habe ich die grundlegende Funktionsweise von Deep Learning Modellen erklärt. Heute werde ich auf inhärente Probleme bei der Anwendung von KI eingehen, die uns in der Zukunft begleiten werden. Der heutige Artikel basiert in großen Teilen auf den Überlegungen von Rodney Brooks in „A Better Lesson“ auf seinem Blog.

Rodney Brooks ist Professor emeritus für Robotik am Massachusetts Institute of Technology und eine der Korypähen auf dem Gebiet der Künstlichen Intelligenz.

Trend: steigende Rechenpower der Algorithmen stößt langsam an ihre Grenzen

Der Trend in der KI der letzten Jahre folgte gewissermaßen einer Entwicklung: dem Minimieren der menschlichen Mitwirkung an der Entwicklung der KI Algorythmen mittels Steigerung der Rechenpower dieser Algorythmen. Brooks kommentiert es folgendermaßen in seinem Beitrag:

„This resonates with a current mode of thinking among many of the newer entrants to AI that it is better to design learning networks and put in massive amounts of computer power, than to try to design a structure for computation that is specialized in any way for the task.“

Diese Strategie wird laut Brooks vermutlich scheitern, und zwar aus folgenden Gründen.

Probleme der derzeitigen Umsetzungsstrategie von KI Algorythmen

 

Die Berechnung der Algorithmen benötigt menschliche Hilfe

Eines der großen Missverständisse habe ich bereits in meinem letzten Beitrag genannt. Es geht um den falschen Eindruck, dass Deep Learning Modelle und generell Machine Learning ohne menschliche Hilfe funktioniert. Dies ist nicht der Fall.

Die Parameter dieser Algorythmen, insbesondere im letzten Schritt, werden von Menschen eingestellt, damit die Maschine die Aufgaben korrekt ausführen kann.

Laut Brooks findet hier daher kein wirklicher Fortschritt statt. Wir haben zunächst nur einen Mitabreiter mit bestimmten Wissen durch einen Mitarbeiter ersetzt, der ein bestimmtes Netzwerk bauen kann. Es werden aber immer noch Menschen als Arbeitskraft benötigt.

Energieverbrauch

Das Implementieren insbesondere der neuronalen Netze (deep learning) benötigt sehr viel Energie. Bereits jetzt stößen wir in der digitalen Ökonomie an die Grenzen des Möglichen. Die Financial Times schreibt:

„The traffic growth is so strong it raises the question as to the capacity available to ensure sufficient industrial production in terms of storage equipment by 2020.“

Es ist daher klar, dass je mehr Rechenpower Deep Learning einsetzen wird, desto schneller sich auch die Frage nach der Energieversorgung für diese Prozesse stellen wird.

Das Moore’sche Gesetz hat verlangsamt

Das Energieproblem wäre theoretisch lösbar, denn aufgrund des Moore’schen Gesetzes (Moore’s law) steigt vom Prinzip auch die Rechenkapazität der Computer. Obwohl – (im Grunde genommen) sagt das moorsche Gesetz nichts darüber aus, denn es bezieht sich auschließlich auf die Komplexität der integrierten Schaltkreise im Computer. Allerdings folgte daraus immer auch Steigerung der Rechenkapaziät. Diese hat sich in der letzten Zeit verlangsamt.

Diese zwei Gründe: Energieversorgung und Rechenkapazität lassen die Perspektiven des breiten Einsatzes von Machine Learning Algorithmen mit großen Bedarf an Rechenkapazitäten zunehmend schlecht aussehen.

Mangel an Farbkonstanz

Ein weiteres Problem speziell bei der Anwendung von Deep Learning ist, dass neuronale Netze Probleme mit der Farberkennung haben.

Die Convolutional Neural Networks (CNN), die in Deep Learning Modellen zur Anwendung kommen, verfügen nicht über die sogenannte Farbkonstanz in der Farbwahrnehmung. Dies bedeutet im Grunde, dass z.B. wenn sich Lichtverhältnisse ändern, wird der Algorithmus bereits Probleme haben den Gegenstand zu erkennen. Dies hat große Auswirkungen vor allem im Entwicklungsbereich der selbstfahrenden Autos.

Ökonomie von Machine Learning

Das Argument von Brooks ist im Grunde ein ökonomisches: Wie lassen sich die neuronale Netze wirtschaftlich bauen?

Im Moment benötigen diese Modelle enorme Energiekraft und Rechenpower. Da das Moore’sche Gesetz offenbar verlangsamt, spricht dies für Probleme in der Umsetzung der KI Algorythmen in der nahen Zukunft.

Vor allem im Bereich des autonomen Fahrens wird diese Problematik am folgenden Beispiel deutlich: das menschliche Gehirn funktioniert mit 20 Watt Energieverbrauch. Ein kleiner Computer für ein selbstfahrenes Auto benötigt laut Brooks allerdings bereits 2500 Watt. Dies ist für den Moment energetisch kein effizientes Kosten-Nutzen Verhältnis.

Es könnte sein, dass wir in der Zukunft effiziente Modelle entwickeln werden. Dies ist aber im Moment noch nicht der Fall.