Die invenio Virtual Technologies (VT) und ihr Geschäftsführer Hermann Gaigl sind Pioniere im Einsatz von Künstlicher Intelligenz bei 3D-Daten in der digitalen Welt. Seit mittlerweile rund zehn Jahren forscht das Softwareunternehmen aus der Nähe von München an seiner Technologie – mit Erfolg. In unserem Interview verrät Gaigl viel über die Anfänge und Entwicklungen bis heute sowie unter anderem darüber, welche Vorteile die invenio VT-KI bietet und wie nah am Kunden sie (fast) bis zur Selbständigkeit weiterentwickelt worden ist.
Herr Gaigl, wann und warum haben Sie angefangen an einer eigenen Lösung zur intelligenten Auswertung von 3D-Daten zu arbeiten?
Wir wussten schon vor über zehn Jahren, dass die riesigen Datenmengen nicht mehr manuell überprüft werden können. Die Datenvolumina stiegen immer weiter an, der Einsatz von Fachpersonal auch. Kund:innen waren nicht bereit, mehr Geld zu investieren, sondern wollten immer günstiger einkaufen. Für uns gab es nur zwei Möglichkeiten: entweder die Arbeitsplätze in sogenannte Low-Cost-Countries zu verlagern oder die Expert:innen in Deutschland halten und mit KI zu unterstützen. Ersteres kam für mich nicht in Frage.
Woher stammt die Expertise der invenio Virtual Technologies?
Wir sind ein mittelständisches Technologie-Unternehmen und haben vielfach bewiesen, dass wir mit intelligenter Technologie einiges bewegen und leidenschaftlich die Welt verändern können. Unsere ersten Erfolge haben wir erzielt, als wir mit unserem Softwarebaukasten VT-DMU riesige 3D-Datenmengen analysieren konnten, beispielsweise durch Kollisionsberechnung. Wir waren das erste Unternehmen, das über Nacht den gesamten Fuhrpark eines Automobilherstellers auf mögliche Probleme geprüft hat. Und das mit handelsüblicher Hardware.
Wie ging es weiter?
Für unsere Kund:innen war diese Neuheit zunächst ein absolutes Highlight, doch schon bald standen wir vor der nächsten Herausforderung: Wenn man in der Lage ist, einen ganzen Fuhrpark tagesaktuell auf mögliche Fehler zu berechnen, werden viele Millionen Ergebnisse erzeugt und die Analyse gleicht der Suche nach der Nadel im Heuhaufen. In den Ergebnissen sind sowohl bekannte Probleme als auch mögliche neue Kollisionen enthalten. Wir wollten es den Anwender:innen ermöglichen, nur noch die Ergebnisse zu sehen, die für ihn oder sie neu sind.
Und das ist Ihnen gelungen?
Ja. Die zweite Stufe haben wir erreicht, als wir unsere Software intelligent gemacht haben. Unsere sogenannte „Vererbung“ ist bis heute einzigartig: Sie stellt sicher, dass Anwender:innen nur neue oder veränderte Problemstellen vorgelegt bekommen. Wurde gestern eine Kollisionsstelle als kritisch bewertet, erkennt unsere Technologie das. Jede Problemstelle wird automatisch genau überprüft. Wenn sie identisch zum Vortag ist, übernimmt VT-DMU die Bewertung und Dokumentation. Hat sich die Stelle jedoch leicht verändert, wird teilvererbt, d.h. die Historie bzw. Dokumentation wird übernommen und die Software fragt nach, ob die Bewertung beibehalten oder geändert werden soll.
Welche Herausforderungen gab es bei der Entwicklung von VT-DMU auf Ihrer spannenden Reise?
Als wir 2014 angefangen haben, an neuen Lösungen zur automatischen Bewertung von potentiellen Problemstellen in 3D-Daten zu arbeiten, haben wir auch schnell an Künstlicher Intelligenz geforscht. Damals erschienen uns allerdings alle Lösungen in dem Bereich als wenig vielversprechend. Alle unsere Versuche, ein neuronales Netz an 3D-Daten zu trainieren, scheiterten. Der zweite Forschungsansatz „Geometrie verstehen“ schien deutlich vielversprechender. Je mehr wir über die Daten gelernt haben, umso klarer wurde unser Bild – wir wussten plötzlich, wie wir eine KI im 3D-Umfeld erfolgreich trainieren können.
Brachte diese trainierte KI auch Bedenken auf Kundenseite mit sich?
Ab 2020 war unser erstes KI-Modul einsatzbereit. Unsere Kund:innen und eigenen Anwender:innen zögerten zunächst. Bei vielen haben Ängste überwogen und es standen Fragen im Raum wie: Was macht die KI? Schadet sie mir?
Wie haben Sie darauf reagiert?
Wir haben darauf gesetzt, die KI sanft einzuführen. Sie sollte sich nicht verselbständigen, sondern Hand in Hand mit den Expert:innen zusammenarbeiten. Die KI durfte lediglich vorbereiten; die Entscheidung, ob eine Kollision kritisch oder unkritisch ist, blieb zu 100 Prozent in Anwenderhand. Mit den Bildern aus unserer KI konnten die Expert:innen potenzielle Problemstellen in Sekundenschnelle erfassen. Davor hat dies teils mehrere Minuten gedauert, weil dafür erst 3D-Modelle visualisiert und die Problemstelle mit einem Schnitt analysiert werden mussten. Unsere KI hat auch einen Bewertungsvorschlag mit Vertrauenslevel gemacht, damit Anwenderinnen und Anwender ein Gefühl dafür entwickeln können, wie die KI arbeitet und entscheidet. Jede:r Anwender:in hat also sofort gesehen, dass die KI eine Problemstelle mit z.B. 95%iger Wahrscheinlichkeit als unkritisch bewerten würde.
Wie war die Resonanz auf diese Vorgehensweise?
Diese Vorgehensweise kam so gut an, dass die Anwender:innen nicht mehr auf die KI verzichten wollten. Sie fassten Vertrauen und lernten mit der Technologie umzugehen. Viele Nutzer:innen haben z.B. eigene Filter eingestellt, um KI-Entscheidungen mit einem Vertrauenslevel von über 91 Prozent schneller abarbeiten zu können. Diesen Wert haben sie ermittelt, indem sie täglich mit der Software gearbeitet und Erfahrungen gesammelt haben. Anfangs lag der KI-Schwerpunkt auf Kollisionen, später wollten unsere Kund:innen sie auch für Kontakt- und Abstandsprobleme verwenden.
Was ist ihr Fazit aus den letzten Jahren?
Wir haben seit drei Jahren eine KI, die produktiv eingesetzt wird, das heißt mit echten Daten arbeitet. Ein Schlüssel für die schnelle Akzeptanz waren zum einen die vollautomatisch erzeugten intelligenten Bilder, wie sie Expert:innen selbst aufnehmen würden. Diese zeigen genau die Informationen an, die Anwender:innen für Entscheidungen benötigen. Gleichzeitig sind die Bilder perfekt für die Projektdokumentation geeignet. Inzwischen erstellt die KI das Bildmaterial automatisch für alle untersuchten Problemstellen, also Kollisionen, Kontakte und Abstände. Für besonders komplexe Fragestellungen, die auf einem Bild nicht eindeutig nachvollzogen werden können, verfügt unsere Technologie über ein zusätzliches Feature: In solchen Fällen kann auf eine 3D-Szene umgeschaltet werden, die weitere Einblicke in die Konfliktstelle ermöglicht.
Zum anderen hat unsere KI über die letzten Jahre mehrere Millionen Konfliktsituationen bewertet. Diese Bewertungsvorschläge sind dann von Expert:innen bestätigt oder abgelehnt worden. Dadurch wissen wir, wie gut unsere KI in der Praxis funktioniert. Es war jede Mühe wert, die wir in den Jahren der Forschung und Entwicklung auf uns genommen haben.
Wie eigenständig arbeitet Ihre KI inzwischen?
Plötzlich stand die Frage im Raum, ob die KI nicht einen Teil der potentiellen Problemstellen selbständig bewerten darf. Dazu mussten wir klären, wie fehleranfällig die Technik ist. Wir haben untersucht, wie oft KI-Bewertungen bestätigt und verworfen worden sind. Gemeinsam mit dem Kunden haben wir darüber gesprochen, wie viele Fehler die KI machen darf. Der Zielkorridor lag bei diesem Partner bei unter einem Prozent, für andere wären bis zu 5 Prozent in Ordnung. Wir wollten einer Zuverlässigkeit von 100 Prozent möglichst nahe kommen, wohlwissend dass dies weder für eine KI noch für einen Menschen möglich ist. Dafür haben wir sichergestellt, dass die Auswirkung eines Fehlers möglichst gering ausfällt. Wir haben also nicht nur die Schwelle gesucht, wo die KI möglichst wenig Fehler macht, sondern auch die Fehlerfolgen untersucht. Das bedeutet, dass wir uns jeden einzelnen Fehler angesehen und gefragt haben. Wie hat die KI bewertet und was sagt der Experte dazu? Wir haben uns dann die Frage gestellt, was passiert wäre, wenn der KI-Fehler nicht korrigiert worden wäre. Wie bereits erwähnt, lag die Schwelle für KI-Entscheidungen bei 91 Prozent. Ist sich die KI zu mindestens 91 Prozent sicher, dann vertrauen ihr die Anwender:innen. Nur in wenigen Fällen müssen Expert:innen korrigierend eingreifen.
Haben Sie dafür konkrete Zahlen?
Wir wollten mehr Sicherheit und haben genauer hingeschaut um die Frage ‚Wann darf die KI selbständig entscheiden?‘ zu klären. Das Ergebnis lag bei 97 Prozent. Wenn die KI mit einer Wahrscheinlichkeit von 97 Prozent entscheidet, dann liegt die Fehlerquote unter 0,001 Prozent.
In Summe hat die KI im untersuchten Zeitraum ca. 500.000 Bauteilpaarungen bewertet und war sich dabei zu mindestens 97 Prozent sicher. Bei genau vier Bewertungen waren Expert:innen anderer Meinung und haben die Bewertung von unkritisch auf kritisch gesetzt.
Interessant war auch, warum KI-Entscheidungen geändert worden sind und welche Auswirkung dies auf den Folgeprozess gehabt hätte. Die Ergebnisse haben in allen vier Bewertungspunkten gezeigt, dass man die Entscheidung so oder so hätte treffen können. Die KI lag nicht falsch und damit hätte ihre Bewertung keine negativen Auswirkungen gehabt. Vermutlich hätten andere Expert:innen wie die KI entschieden – das ist menschliches Ermessen.
Wo sehen Sie die Potenziale für die Zukunft?
Mit etwas mehr Risikobereitschaft könnte man die Schwelle weiter absenken. Selbst bei einem Vertrauenslevel von 95 Prozent hätte die KI die Vorgabe von weniger als 1 Prozent Fehlerquote erfüllt. Allerdings hätte es dann Fehler gegeben, die zu Qualitätsproblemen und Folgekosten führen könnten. Dieses Risiko wollte noch niemand eingehen, so dass wir mit gutem Gefühl die Schwelle auf 97 Prozent festlegen und der KI freie Hand lassen. In Zukunft wird es viele weitere Innovationen geben, die in die KI einfließen und Anwenderinnen und Anwender noch weiter entlasten. Wir bleiben am Ball und informieren zu gegebener Zeit, gerne wieder an dieser Stelle.
Vielen Dank für das Gespräch!
Foto: invenio Virtual Technologies (VT), Geschäftsführer Hermann Gaigl