Wieso sieht die KI das Surfbrett nicht?

KI-Absicherung in industriellen Anwendungen

© Martin Albermann

Bei Audi soll die Qualitätssicherung in der Automobilproduktion mithilfe von KI optimiert werden. Und das ist nur ein Beispiel für Projekte, in denen das KODIS gemeinsam mit Industriekunden versucht, Systeme maschinellen Lernens fit zu machen für die Produktion. Dabei wird die KI zur Prozessversteherin – und Menschen werden zu KI-Verstehern.

»Die KI« kommt in diesem Fall ziemlich konkret daher. Vor Philipp Göbels auf dem Tisch liegen drei kleine LEGO®-Autos: ein Campingbus, ein Polizeiauto und ein Rennauto. Daneben eine Kamera auf einem Roboterarm, die mit einem Bildschirm verbunden ist. Göbels, wissenschaftlicher Mitarbeiter am Forschungs- und Innovationszentrum Kognitive Dienstleistungssysteme KODIS in Heilbronn, hält den Bus unter die Kamera. Kurz darauf erscheint auf dem Bildschirm das Bild des Fahrzeugs. Auf Knopfdruck werden die einzelnen Bausteine des Legoautos auf einmal beschriftet: »bus window 0.8« steht da in grüner Schrift, und ein grüner Rahmen erscheint um die Fenster. »wheel 0.7« in Pink, sowie ein pinker Rahmen um das Rad und so weiter. 

»Die KI hat also die einzelnen Teile recht gut erkannt«, erklärt Göbels. Nur das Surfbrett auf dem Dach des Busses fehlt in der Beschriftung. Das sei aus der Perspektive der Kamera – direkt von der Seite – nicht zu sehen gewesen. »Normalerweise ›liebt‹ die KI dieses Surfbrett«, erklärt Göbels und grinst. Was er meint: Für die KI ist das Surfbrett mit seiner länglichen, spitz zulaufenden Form eigentlich eine leichte Aufgabe. 

Und das ist schon die erste Erkenntnis, die dieser Demonstrator ermöglicht: Systeme maschinellen Lernens, so genannte künstliche Intelligenz, können Dinge »verwechseln«, genau genommen: Sie liegen nicht immer richtig mit ihren Entscheidungen. Das wiederum ist ein wichtiger Faktor, vor allem, wenn Unternehmen sie einsetzen, beispielsweise in der Automobilproduktion: Solche Systeme sollten sich dort natürlich möglichst »sicher« sein bei ihren Entscheidungen: beispielsweise, welches Teil in welcher Form an welches andere Teil angebaut werden muss. 

Wie also können KI-Systeme auch in einem Kontext eingesetzt werden, in dem es auf Genauigkeit ankommt? Und welche Möglichkeiten gibt es, das Ergebnis zu überprüfen? Daran forscht KODIS gemeinsam mit Partnern aus der Industrie. Auch der Demonstrator mit den Lego-Autos, der für das Projekt »Digital versierte Belegschaft« im Rahmen der Automotive Initiative 2025 entwickelt wurde, gehört zu dieser Arbeit: Denn wenn angesichts der KI-Revolution immer mehr Systeme maschinellen Lernens in Unternehmen eingesetzt werden sollen, dann ist es wichtig, dass Menschen verstehen, wie diese überhaupt funktionieren – und zwar alle, die mit dieser KI zusammenarbeiten werden. Und das wird mehr oder weniger alle in einem Unternehmen betreffen. »Am einfachsten ist das, wenn man es auf eine spielerische Art und Weise lernt«, sagt Martin Biller. Der Data Scientist von Audi ist zu Besuch im Labor vom KODIS. Er arbeitet schon seit einiger Zeit unter anderem mit Göbels in verschiedenen Projekten, um KI künftig effizient und sicher einsetzen zu können.

Für diesen künftigen guten Einsatz von KI ist unter anderem eine Zahl wichtig: Im Demonstrator steht sie neben den einzelnen Teilen der Lego-Fahrzeuge, die das System meint, erkannt zu haben. Sie sagt aus, wie »sicher« sich die KI ist, richtig zu liegen: zu 80 Prozent ist sie sich also sicher, tatsächlich ein Busfenster erkannt zu haben, zu 70 Prozent ein Rad. Diese Angabe hilft den Nutzerinnen und Nutzern einzuschätzen, wie zuverlässig die Entscheidung am Ende ist. »Wenn eine KI später mal Teile zusammenbauen soll, muss sie mit hoher Zuverlässigkeit erkennen können, ob das Ergebnis stimmt«, sagt Biller. 

Philipp Göbels klickt auf dem Bildschirm auf eine Frage: »Welches Auto wurde gebaut?« Es dauert nur kurz, da erscheint die Meldung »Hier wurde ein Bus gebaut!« Schließlich seien 11 Bauteile des Busses erkannt worden, zählt die KI auf – und keines der anderen Fahrzeuge. »Na dann lass mal sehen«, sagt Göbels und baut den Bus auseinander, nur um Bauteile der anderen beiden Fahrzeuge dran zu bauen – ein Legoauto-Zwitter entsteht, eine Mischung aus Bus und Polizeiauto. Ob die KI das auch erkennt? Ein solcher spielerischer Eifer entwickle sich immer wieder, wenn andere mit dem Demonstrator in Kontakt kämen. »Man kann die Welt aus den Augen der KI sehen«, sagt Göbels – und auch das hilft, um die Technologie zu verstehen. Denn wer erfährt, dass sich die KI vielleicht nur zu 60 oder 70 Prozent sicher ist in ihrer Entscheidung, versteht, dass sie möglicherweise falsch liegt, und kann versuchen, ihre Aussagen zu überprüfen.

© Martin Albermann
Vincent Philipp Göbels, wissenschaftlicher Mitarbeiter am KODIS
© Martin Albermann
Campingbus oder Rennauto? Der am KODIS entwickelte Demonstrator zeigt auf spielerische Art und Weise, wie KI-gestützte Bilderkennung funktioniert.

Das Projekt läuft parallel zu jenem bei Audi, an dem Göbels eigentlich arbeitet, und bei dem es um die Frage geht, wie KI-Systeme in die Abläufe im Werk integriert werden können. »Wir arbeiten auf verschiedenen Ebenen am Thema KI« – von der Breite, in der alle Mitarbeitenden angesprochen werden sollen, bis hin zu sehr spezifischen Themen: zum Beispiel könnte ein System maschinellen Lernens dabei helfen, die Qualität von Schweißpunkten zu überprüfen. Rund 5000 solcher Punkte hat zum Beispiel die Karosserie eines Audi A6, heißt: pro Fahrzeug werden im Werk 5000 Mal Teile zusammengeschweißt, die später teils hohe Belastungen aushalten müssen. An einem Tag werden hunderte Fahrzeuge im Werk produziert – es kommen also einige Millionen solcher Schweißpunkte zusammen, deren Qualität bislang anhand von zufällig ausgewählten Stichproben überprüft wurde.

»KI hilft, diese Qualitätssicherung zu optimieren«, sagt Philipp Göbels. Die Grundlage dafür wären die Daten, die während der Produktion entstehen. Da ist zum Beispiel der Strom, der die Teile durchläuft, dann der elektrische Widerstand oder auch die Kraft, mit der die Teile zusammengepresst werden. »Wenn wir all diese Daten messen und der KI gemeinsam mit den Ergebnissen der Stichproben zur Verfügung stellen, kann sie Muster im Meer der Daten erkennen«, erklärt Göbels. Denn genau das können Systeme maschinellen Lernens besonders gut: Zusammenhänge in großen Mengen von Daten identifizieren, aus denen sich Korrelationen ableiten lassen. »Die KI gibt uns auf der Basis von statistischen Auswertungen Hinweise darauf, welche Schweißpunkte wir uns nochmal genauer ansehen sollten.« Das System blickt, wenn man so will, hinter die Kulissen. »Wir können also gezielter überprüfen und schneller reagieren«, sagt Martin Biller. 

Doch mit dem Einsatz von KI tauchen Fragen auf: Wie wird diese am besten in den Ablauf im Werk integriert? Denkbar wäre nämlich, dass eine KI auf einmal sehr viel mehr Punkte als sonst zur Prüfung vorschlägt. Dann kann es entweder sein, dass tatsächlich gerade etwas schiefläuft und dass es höchste Zeit ist, dass Menschen eingreifen – oder es kann sein, dass die KI »sich irrt«– was aber vermutlich auch nur mit einer konkreten Überprüfung durch einen Menschen herausgefunden werden kann. Bisher war das Verfahren besser planbar, da die Überprüfungen in einem festen Rhythmus stattfanden. Jetzt wächst die Chance, frühzeitig Probleme erkennen zu können – aber auch das Risiko, dass es beim Einsatz einer fehlerhaften KI zu viele Fehlalarme gibt. »Wir müssen eine performante KI entwickeln und zusätzlich betrachten, wie sinnvoll diese sich aus gesamt-betriebswirtschaftlicher Perspektive integrieren lässt«, erklärt Biller. . 

Das Beispiel »Schweißpunkte« steht für Herausforderungen beim Einsatz von KI, die Martin Biller zu einer Frage verdichtet: »Wie kann man eine KI so entwickeln, dass sie sicher und robust ist?« Bis jetzt seien die Unternehmen damit oft ziemlich allein. »Bis heute«, so Biller, „gibt es keine gesetzlichen KI-Zertifikate oder Ähnliches.« Dabei sei längst klar, dass es Regeln und Vorschriften brauche. Auch die europäische KI-Regulierung ist zwar inzwischen weitgehend ausformuliert und in den letzten Zügen zur Umsetzung – aber eben auch recht vage, wenn man sie beispielsweise mit den ganz konkreten Fragen der Schweißpunkte vergleicht. Was bedeutet Erklärbarkeit genau in diesem Zusammenhang? Was bedeuten Nachvollziehbarkeit und Transparenz? 

Die Antworten auf diese Fragen sind nicht nur im Interesse des Gesetzgebers, sondern auch im Interesse der Unternehmen. »Wir versuchen, möglichst gut auf diese Themen vorbereitet zu sein«, sagt Martin Biller. Dabei unterstützt das Fraunhofer IAO: »Wir geben Impulse, wir schauen auf den konkreten Fall und erarbeiten Best-Case-Vorgehen«, erklärt Philipp Göbels.

Nicht zuletzt kann auch ein Angriff von außen eine Rolle spielen, sagt Biller. »Was, wenn jemand falsche Daten einspielt?« Das Ziel sei ein System, das gegen unterschiedliche Gefahren gewappnet ist. Gegen einen internen Bias, also eine Verzerrung in den Trainingsdaten, ebenso wie gegen Hackerangriffe und weitere Risiken. In diesem Sinne muss optimiert werden – doch die verschiedenen Ziele sind nicht immer einfach miteinander in Einklang zu bringen. Wer mit hoher Sicherheit jedes fehlerhafte Teil erkennen will, bekommt mehr Fehlalarme. Wer lieber weniger falsch positive Ergebnisse haben möchte, weil das wiederum mehr Überprüfung bedeutet und Kosten verursacht, kann das System in diese Richtung optimieren – und wird möglicherweise fehlerhafte Schweißpunkte übersehen. Dieses Dilemma den Menschen nahezubringen ist gar nicht so einfach. 

© Martin Albermann
Martin Biller, Data Scientist bei Audi
© Martin Albermann
Impulsgeberin: Die Idee, KI-gestützte Bilderkennung mittels LEGO®-Autos zu demonstrieren, stammt von Janika Kutz, Teamleiterin am KODIS.

Und das ist längst nicht der einzige Zielkonflikt, der entstehen kann. »Je mehr Informationen das KI-Modell über den Prozess liefert, desto besser können Probleme identifiziert werden. Damit steigt jedoch auch die Gefahr, dass die Informationen zu einer Beurteilung der Mitarbeitenden missbraucht werden können«, sagt Göbels. »Das darf natürlich nicht möglich sein.« 

Und dann ist da noch die Frage, was der Einsatz von KI überhaupt für den Menschen bedeutet. Wird er durch die Maschine ersetzt werden? Doch Martin Biller von Audi versichert: »Das Ziel ist die optimale Vernetzung von Mensch und Maschine, das heißt Menschen bleiben weiterhin Know-how- und Entscheidungsträger.« Es gebe außerdem mehr Arbeit als Arbeitskräfte. Die demografische Entwicklung hierzulande stützt seine These, und es fehlt schon jetzt allerorten an Fachkräften. Doch eins ist klar: Die Arbeit wird sich verändern durch KI. Mensch und Maschine werden stärker als bisher zusammenarbeiten. Dass die KI uns Arbeit abnehmen kann, ist erfreulich. Dass wir verstehen, wie sie funktioniert, ist dabei absolut notwendig.

Projekt

AI25

Presseinfo

KI-Absicherung und -Zertifizierung aus der Sicht von Unternehmen

Unsere Angebote

Zum Anwendungsfeld »Produktion und Logistik«