Deutschland soll bei der Entwicklung und Anwendung von KI-Technologien führend werden – so will es die Bundesregierung. Eine entsprechende Strategie wird auf dem kommenden Digitalgipfel mit dem Schwerpunkt Künstliche Intelligenz am 3. und 4. Dezember in Nürnberg vorgestellt. Künstliche Intelligenz, so heißt es darin, werde eine Schlüsseltechnologie für die gesamte Wirtschaft, gleichzeitig solle ihre Nutzung dem Gemeinwohl dienen.
„Lernende Systeme und Künstliche Intelligenz bedeuten Veränderungen, die wir zum Wohle der Gesellschaft einsetzen müssen“, sagt der Präsident des Karlsruher Instituts für Technologie Professor Holger Hanselka, der auch dem Lenkungskreis der Plattform Lernende Systeme (PLS) der Bundesregierung angehört. KI biete gewaltige Möglichkeiten, welche die Informationsgesellschaft prägen werden und die man entsprechend gestalten sollte. Das beginne beispielsweise schon damit, wie wir künftig von A nach B kommen. „Information und Mobilität sind zwei Themenfelder, auf die sich das KIT fokussiert, sei es beim Testfeld Autonomes Fahren Baden-Württemberg (TAFBW) und den zugehörigen intelligenten Verkehrssystemen, der Entwicklung lernender Roboter für die Assistenz und deren Einsatz in Industrie 4.0 oder bei der Logistik und im Gesundheitswesen sowie in gefährlichen Umgebungen“, so Hanselka weiter. Dabei müssten indes auch die Risiken in Bezug auf die Cybersicherheit und den Datenschutz in den Blick genommen werden. „Am KIT arbeiten wir daran, die Chancen von KI und deren Gefahren für die IT-Sicherheit in Einklang zu bringen.“
„Wenngleich wir bemerkenswerte Entwicklungen der angewandten KI sehen, haben wir trotzdem noch Herausforderungen vor uns“, erklärt Marius Zöllner, Leiter des TAFBW. Das Ziel des Autonomen Fahrens – mehr Sicherheit, Komfort, Energieeffizienz und Zeitersparnis – lasse sich nur verwirklichen, wenn „wir die autonomen Systeme so miteinander vernetzen und sie so gestalten, dass sie sowohl selbstständig als auch koordiniert handeln“, so der Professor am Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) des KIT weiter. Dazu müssen autonome Fahrzeuge sowohl ihre Umgebung wahrnehmen, die Situation, in der sie sich befinden, verstehen und schließlich die richtigen Verhaltensentscheidungen treffen. Dies gelingt mithilfe von Verfahren der KI und des Maschinellen Lernens. Damit das Gesamtsystem am Ende auch zuverlässig und sicher funktioniert, „müssen wir neuronale Netze besser verstehen und ihre Entscheidungen nachvollziehen können. Dazu müssen wir die Art überdenken, in der wir solche Systeme ingenieurmäßig entwickeln.“
Nicht nur auf der Straße, auch in der Tiefsee, im Weltall, in kontaminierten Umgebungen oder in Krisengebieten können Lernende Systeme dem Menschen wertvolle Hilfe leisten, indem sie gefährliche Tätigkeiten übernehmen. „Roboter und unbemannte Systeme sind im Einsatz, um die Gefahren für den Menschen zu reduzieren – sei es bei Erkundungen in lebensfeindlichen Umgebungen, beim Messen von giftigen Gasen und Strahlung in kontaminierten Umgebungen oder bei der Bergung Verunglückter“, sagt Jürgen Beyerer, Professor für Interaktive Echtzeitsysteme am Institut für Anthropomatik (IAR) des KIT und Leiter des Fraunhofer IOSB. Aktuell seien diese Lernenden Systeme noch stark abhängig von Zielvorgaben durch den Menschen, zukünftig aber sollen autonome Roboter durch Künstliche Intelligenz neues Terrain selbstständig erkunden und aufgrund der gewonnenen Erkenntnisse selbst Entscheidungen treffen können, erklärt der Sprecher der Arbeitsgruppe „Lebensfeindliche Umgebungen“ der PLS. Einen Schwerpunkt der Arbeit am KIT bilden beim Projekt ROBDEKON Robotersysteme, die Dekontaminationsarbeiten autonom oder halbautonom leisten können, zum Beispiel in Kernkraftwerken.
„Das ultimative Ziel der maschinellen Intelligenz besteht darin, technische Systeme zu schaffen, die mit der physikalischen Welt interagieren und diese durch ihre Aktionen verändern können. Solche Systeme werden aus dieser Interaktion, vom Menschen und aus eigener Erfahrung lernen und ihr Verhalten ständig verbessern“, sagt Tamim Asfour, Professor für Hochperformante Humanoide Robotiksysteme am IAR des KIT. Das KIT erforscht und entwickelt humanoide Roboter, die Aufgaben im Haushalt und in industriellen Umgebungen verrichten. Neben der kompletten mechano-informatischen Entwicklung dieser Roboter spielt die Frage, wie Roboter ihre Fähigkeiten aus Bildern, Sprache und Tastsinn lernen, eine zentrale Rolle. Der humanoide Roboter ARMAR-6 kann Hand-in-Hand mit Technikern bei Wartungsaufgaben in Industrieanlagen arbeiten. Mit KI-Methoden kann er beurteilen, wann ein Techniker Hilfe benötigt und bietet diese proaktiv an. „Seine Fähigkeiten lernt er aus Beobachtung des Menschen mithilfe von Methoden des Maschinellen Lernens. Mit dem Techniker kommuniziert der Roboter in natürlicher Sprache.“
KI-Methoden könnten zwar helfen, IT-Systeme sicherer zu machen, erwartet Jörn Müller-Quade, der Leiter der Arbeitsgruppe „Kryptographie und Sicherheit“ am KIT. „Aber es wird auch heute noch unbekannte Angriffe mit KI geben“, so der Initiator des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT. Auch das Zerstörungspotenzial klassischer Angriffswaffen von Cyberkriminellen werde sich durch KI vervielfachen, warnt der Professor, der in der PLS die Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ leitet: „Angriffe werden in Zukunft vermutlich erfolgreicher sein, weil man mittels KI automatisiert aus vergangenen Angriffen lernen kann.“ Verbrecher könnten in der Vergangenheit bekanntgewordene Schwachstellen in bestimmten Programmen oder Diensten analysieren und dann in riesigen Software-Systemen automatisiert nach ähnlichen Verwundbarkeiten suchen, befürchtet der Sicherheitsexperte. Eine weitere Bedrohung ist, dass KI-Systeme selbst angegriffen werden könnten. Eine Möglichkeit Angriffe auf KI-Systeme einzudämmen sieht Müller-Quade darin, KI-Systeme mit klassischen Systemen zu überwachen, die eine Art Schutzreflex auslösen könnten: „Wenn man auf eine heiße Herdplatte fasst, entscheidet auch nicht die Intelligenz darüber, ob man die Hand auf der Herdplatte lässt oder wegzieht.“
Doch wie gestaltet man KI-gestützte technische Entwicklungen so, dass sie zum Wohle der Gesellschaft eingesetzt werden? Dieser Frage widmet sich die Technikfolgenforschung am KIT. „Hier ist es entscheidend, in welchen Anwendungszusammenhängen die KI eingesetzt wird, denn wir möchten die dadurch erzeugten sozio-technischen Veränderungen in den Blick bekommen, beurteilen, und dann entsprechende Handlungsoptionen entwickeln“, erläutert Armin Grunwald, Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse des KIT. Es mache einen großen Unterschied, ob man mit KI-Systemen Schach oder „Go“ spiele oder ob man mit ihnen in einem autonomen Fahrzeug bei einer Geschwindigkeit von 120 Stundenkilometern fahre, führt Grunwald aus, der auch das Büro für Technikfolgenabschätzung beim Deutschen Bundestag leitet. „In der Dobrindt-Kommission zum autonomen Fahren haben wir deshalb empfohlen, dass das Maschinelle Lernen und das Umsetzen des Gelernten entsprechend geprüft werden muss“, so der Professor weiter.
„Das Besondere an der KI-Forschung des KIT ist, dass wir die verschiedensten Anwendungsszenarien von KI in ihrer großen Bandbreite erforschen, von Katastropheneinsätzen, bis hin zur körperlichen Unterstützung für Pflegebedürftige, vom autonomen Fahren bis zur Produktionsrobotik“, betont Michael Decker der den Bereich Informatik, Wirtschaft und Gesellschaft des KIT leitet. Denn einerseits müssten neue KI-Methoden entwickelt werden, um die unterschiedlichen Probleme zu lösen, und andererseits kann man aus gelungenen Lösungen in anderen Anwendungsbereichen lernen. „Dieses problemorientierte Vorgehen nützt unmittelbar der Technikentwicklung, wobei wir am KIT den großen Vorteil haben, dass wir auch ausgewiesene Expertise im Algorithm Engineering haben. Diese strukturierte Entwicklung von Algorithmen, die auch mit gewaltigen Datenmengen umgehen können, ergänzt die KI-Forschung in optimaler Weise“, sagt der Professor für Technikfolgenabschätzung.