Interview mit Jun.-Prof. Dr. Felix Lindner

Institut für KI der Uni Ulm

Wie funktioniert Künstliche Intelligenz? In welchen Bereichen können Roboter den Menschen ersetzen – und welche ethischen Fragen gibt es? Darüber sprechen Angel Ashikov, Philip Le Minh tien, Felix Ruppel und Katharina Schulzendorff (8b) mit Junior-Professor Dr. Felix Lindner von der Uni Ulm.

Wir heißen Sie herzlich willkommen Herr Lindner. Schön, dass Sie sich heute Zeit für uns genommen haben, wir würden Ihnen gerne ein paar Fragen stellen, falls es Ihnen nichts ausmacht!

Sehr gerne!

Wie hat alles mit genau diesem Beruf angefangen?

Ich habe nach dem Abitur Informatik studiert, da ich Computer toll fand, habe mich dann auf KIs spezialisiert und wurde so folgend Doktorand in Hamburg, bis ich Ende 2019 nach Ulm berufen wurde.

Wie stellen Sie sich die Welt in 50 Jahren vor und wie wird sich die künstliche Intelligenz entwickelt haben?

Das ist eine Frage, die schlecht zu beantworten ist, da es, wie man es aus der Vergangenheit sieht, oft große Überschätzungen der Visionen und Vorstellungen gab.

Finden Sie, dass künstliche Intelligenz die Welt besser macht?

Sie kann helfen, zum Beispiel beim Aufräumen oder in der Medizin, sie kann aber auch die Welt zerstören. Zum Beispiel bei Raketen.

Was halten Sie vom autonomen Fahren?

Es gibt da viele rechtliche Fragen, zum Beispiel wenn es eine gefährliche Situation im Straßenverkehr gibt und das Auto entscheiden muss, wie es handelt.

Sie nehmen ja an diesem einen Ethik-Projekt, dem HERA-Projekt, teil. Was ist das?

Das HERA-Projekt habe ich zusammen mit einem Philosophen aus Dänemark bearbeitet. Darin geht es um die Idee, dass man die ethischen Theorien, die in der Philosophie existieren, so formalisiert, dass ein Roboter oder ein anderes technisches System diese ethischen Theorien selbst als handlungsleitende Richtlinie nutzen kann. Also dass das technische System, z.B. der Roboter, dann selbst über den kategorischen Imperativ Bescheid weiß und das Wissen über diese ethische Theorie nutzen kann, um eigene Handlungsoptionen zu bewerten; das war so die grundlegende Idee des HERA-Projektes.

Wie funktionieren selbstlernende KIs? Können die sich dann selbst irgendwie Algorithmen programmieren? Also sagen, wenn das und das ist, mache ich das und das, weil in der letzten Version ziemlich viel fehlgeschlagen ist.

Ja, das trifft es schon recht gut. Also man hat einen Agenten, das ist ein handelndes technisches System, das kann ein Roboter sein oder einfach nur ein Bot, der im Internet ist, der in irgendeiner Umgebung situiert ist und in dieser Umgebung einfach mal handelt und protokolliert, welche Handlungen zu Erfolgen geführt haben und welche nicht, und aus diesem Feedback lernt der Agent. Er lernt dann mit der Zeit, welche Handlungen zu guten Zuständen führen und welche zu schlechten. Wir nennen das Reinforcement learning, überwachtes Lernen. Da geben wir als Menschen ganz viele Daten vor, also z.B., wenn die KI erkennen soll, was auf Bildern drauf ist, ob da jetzt Katzen oder Hunde drauf sind, dann geben wir der KI ganz viele Bilder von Katzen und sagen, da ist eine Katze drauf, und ganz viele Bilder von Hunden und sagen, das ist ein Hund. Und dann ist die Hoffnung, dass die KI bestimmte Eigenschaften des Bildes ausmacht, die erkennen lassen, dass es sich da tatsächlich um eine Katze oder einen Hund handelt, der da abgebildet ist. Man hofft also, dass aus einzelnen Daten irgendeine generalisierte Regel erlernt werden kann.

An was genau forschen Sie denn gerade?

Ich arbeite gerade an interaktivem reinforcement learning. Der Roboter führt Handlungen aus und lernt dabei ein positives oder negatives Ergebnis zu bekommen, unnötige Optionen sofort wegzulassen und je nach Situation auch die passende Entscheidung zu treffen.

Was ist genau Ihre Rolle in Ihrem Forschungsgebiet und wofür sind Sie sonst noch zuständig?

Ich bin der Advisor meiner Doktoranden, gebe also vor, wie und was diese zu tun haben sollen, sorge dafür, dass während dem Arbeiten keine Fehler unterlaufen und beschaffe außerdem die Forschungsgelder, da unsere Forschungen natürlich auch eine Menge Geld schlucken.

Was ist ein Junior-Professor, was macht er und worin besteht der Unterschied zu einem normalen Professor?

Es ist so, dass mit der Bologna-Reform die Junior-Professur bzw. die Professorenbesoldung reformiert wurde und es damit dann drei Abstufungen von Professoren gab. Es gab die W1-Professoren, Die W2-Professsoren und die W3-Professoren und die sind letztlich gestaffelt nach Erfahrung oder wie weit man ist in seiner Kariere. W1 ist eben die unterste Stufe und das sind die Junior-Professoren, W2 ist dann die zweite Stufe und die können sich in Deutschland schon richtig Professor nennen und W3 ist eben auch Professor, also was man im Angelsächsischen Umfeld noch in associate Professor (W2) und full Professor (W3) unterteilen würde. Ein weiterer Unterschied bei den Junior-Professur gegenüber den anderen beiden Professuren ist, dass eine Junior-Professur befristet ist. Ansonsten sind richtige Professoren, also Professoren ohne Junior, auf Lebenszeit beamtet und ich habe jetzt nur eine Beatmung für 6 Jahre.

Denken Sie, dass die künstliche Intelligenz die Menschen komplett ersetzen könnte?

Komplett eher nicht, doch es gibt manche Arbeitsplätze, bei denen es viel besser für die Menschheit wäre, wenn ein Roboter diese Arbeit übernehmen würde, z.B. wäre es für mich leichter, wenn ein Roboter für mich putzt. (lacht)

Was wären Sie sonst noch geworden, wenn Sie kein KI-Professor geworden wären?

Nun ja, ich hatte früher auch sehr viel Interesse daran, Lehrer zu werden, da ich diese früher immer sehr bewundert habe. Aber ich hatte früher viele Traumjobs, sei es KI, Lehrer oder z.B. auch Chirurg.

Gibt es etwas, was sie unbedingt noch erfinden wollen?

Wir wollen die Roboternavigation weiterentwickeln.

Als wir Science-Fiction als Thema im Unterricht hatten, haben wir uns mit den Gesetzen von Asimov beschäftigt. Spielen die auch eine Rolle in Ihrem Beruf?

Klar, die Robotergesetze von Isaac Asimov werden immer wieder mitdiskutiert, wenn man über ethische Prinzipien für Roboter redet. Eigentlich zeigen die Geschichten von Asimov ja, dass das Aufstellen einfacher Regeln auch an sein Grenzen stößt, also dass der Roboter in Dilemmata-Situation gerät, in denen er mit den ihm vorgegebenen Prinzipien nicht weiterkommt. Meistens führen jene Asimov an, die glauben, dass es gar nicht möglich ist, ethische Prinzipien für Roboter wirklich zu implementieren.

Danke für das wirklich interessante Interview und hoffentlich hören wir mal wieder etwas von Ihnen.

Gerne! Vielleicht komm ich auch einfach mal bei euch in der Schule zu Besuch, wenn die Pandemie vorbei ist!