Künstliche Intelligenz (KI) gilt als eine Schlüsseltechnologie des 21. Jahrhunderts. Deutschland genießt in KI-Forschung international einen ausgezeichneten Ruf. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken ist mit über 1.000 Mitarbeitern die größte wissenschaftliche KI-Einrichtung weltweit. Auf der AI4U-Konferenz sprach ich mit Prof. Andreas Dengel, DFKI Standortleiter in Kaiserslautern, über politische Reglementierung, gesellschaftliche Verantwortung und zukünftige Einsatzgebiete, wie zum Beispiel im Klima- und Katastrophenschutz.
Herr Prof. Dengel, welcher Grundsatz gilt bei der Entwicklung von KI-Systemen?
Es ist wichtig, KI immer zum Nutzen des Menschen und der Menschheit zu entwickeln und zu verwenden. So dürfen Kampfroboter genauso wenig eigenständig über Leben und Tod entscheiden dürfen, wie Chatbots ohne Einverständnis des Menschen Gespräche aufzeichnen und auswerten dürfen. Es geht also um eine menschenzentrierte Betrachtungsweise, die ich für sehr wichtig halte. Daraus resultiert auch, dass KI als kognitive Entlastung wie als intellektueller Leistungsverstärker angesehen werden sollte, als digitaler Assistent, der unsere Fähigkeiten ergänzt oder erweitert und uns nicht gleichberechtigt ist.
Sollte die Entwicklung von Künstlicher Intelligenz politisch reglementiert werden?
Auf jeden Fall, denn auch für KI und diejenigen, die diese verantwortlich entwickeln, gilt, dass unsere Gesetze eingehalten werden müssen. Sowohl die Chancen als auch Gefahren bedürfen einer politischen Reglementierung. Dabei sollten primär Fragen zu Menschenrechten, demokratischen Werten und ethischen Überlegungen im Mittelpunkt stehen, wie sie auch im April dieses Jahres als Teil eines Leitlinienkatalogs der EU veröffentlicht wurden. Besonders, um dem manipulativen Potenzial von KI entgegenzuwirken, brauchen wir Ethik-Leitsätze und Gesetze, bis hin zu einer erweiterten Strafverfolgung, die jedoch nicht Halt macht an den Grenzen von Deutschland oder der EU, sondern eine globale Anstrengung erfordert.
„Künstliche Intelligenz sollte als digitaler Assistent gesehen werden, der unsere Fähigkeiten ergänzt oder erweitert und uns nicht gleichberechtigt ist.“
Was können wir tun, damit KI nicht für Zwecke eingesetzt wird, die wir ablehnen? Wie schaffen wir eine größere Transparenz darüber, wie KI entwickelt wird?
Transparenz ist ein wichtiges, vermutlich auch das offensichtlichste und eingängigste Ziel. Gleichberechtigt daneben stehen jedoch weitere Dimensionen mit großem Einfluss. Nur wenn wir alle Ebenen gleichermaßen in unseren zukünftigen Entwicklungen beachten, KI entsprechend politisch reglementieren und die relevanten Forschungsfelder vorantreiben, können wir sicherstellen, dass wir keine Systeme kreieren, welche für unerwünschte Zwecke verwendet werden. Die Leitlinien der EU fassen die wesentlichen Dimensionen zusammen, die berücksichtigt werden müssen auf dem Weg zu einer vertrauenswürdigen KI.
Können Sie die wichtigsten Leitlinien der EU kurz skizzieren?
Menschliches Handeln und Aufsicht muss Vorrang haben (1), KI Systeme müssen robust und sicher sein (2), die Privatsphäre und das Datenqualitätsmanagement muss gewährleistet sein (3), KI Systeme sollten vielfältig, nichtdiskriminierend und fair gestaltet werden (4), Gesellschaftliches und ökologisches Wohlergehen sind Ziele für die KI eingesetzt werden soll (5), Mechanismen werden geschaffen, die eine Rechenschaftspflicht für KI Systeme gewährleisten (6) sowie Transparenz (7), also die Rückverfolgbarkeit von KI Systemen, welche als siebte und letzte Dimension von der EU vorgeschlagen wird.
Wie kann eine Gesellschaft verhindern, dass KI entgegen unseren Wünschen gebaut bzw. genutzt wird?
Damit eine Gesellschaft mitreden kann, muss viel Aufklärungsarbeit geleistet werden, denn nur wer mitreden kann, ist in der Lage eine „rote Linie“ zu ziehen. Dies gilt für die Gesellschaft im Allgemeinen, wie für die politischen Entscheidungsträger im Speziellen, denn Gesetze und Anwendungskodizes machen nur dann Sinn, wenn ich ihre Wirksamkeit und Grenzen bewerten kann.
Grundsätzlich gilt aber, dass im Prinzip jede Technologie letztendlich missbraucht oder zweckentfremdet werden kann, was nicht nur für die KI gilt. Um nur zwei Beispiele zu nennen: Kreditkartenbetrug oder korrupte Finanzbuchungen – auch hier werden Technologien entgegen ihres ursprünglichen Sinnes für kriminelle Handlungen missbraucht. Das Gefahrenpotenzial einer Technologie macht sie nicht per se schlecht, man darf potenzielle negative Auswirkungen jedoch nicht ignorieren.
„Um dem manipulativen Potenzial von KI entgegenzuwirken, brauchen wir Ethik-Leitsätze und Gesetze bis hin zu einer erweiterten Strafverfolgung.“
Und wie kann man gegen die Gefahren vorgehen?
Einhalt kann man diesen möglichen Gefahren gebieten, indem man aus dem Bewusstsein über die Gefahren Schutzmechanismen entwickelt. Das bedeutet auch, dass es sich lohnt beispielsweise in die Erforschung der Erklärbarkeit von KI Systemen zu investieren, um weitere potentielle Risiken frühzeitig aufdecken zu können.
Auch meine Arbeitsgruppe am DFKI beschäftigt sich seit einigen Jahren mit den Themen Interpretierbarkeit und Erklärbarkeit, was dazu geführt hat, dass wir KI Systeme bereits heute in die Lage versetzen können, ihre Entscheidungen in natürlicher Sprache zu erklären. Das ist nur ein Beispiel für vielversprechende Entwicklungen und wichtige Schritte in Richtung Transparenz und um ein tieferes Verständnis zu generieren.
Technologischer Fortschritt hält Einzug in unseren Alltag. Inwieweit werden KI-Systeme diesen in Zukunft beeinflussen?
Wenn wir uns anschauen, in wie viele Bereiche unseres täglichen Lebens KI bereits Einzug gefunden hat, können wir in etwa abschätzen, wie dieses zukünftig aussehen wird. Im Bereich Edge Computing und Anwendungen wie z. B. Smart Cities und Smart Automation kann ich mir ebenfalls deutliche Verbesserungen in absehbarer Zeit vorstellen.
Es entsteht manchmal der Eindruck, dass KI nur entwickelt wird, um Verantwortlichkeiten auf Maschinen abzuschieben, aber nicht um echte Probleme zu lösen. Wie stehen Sie dazu?
Ich kann dem Kern Ihrer Frage nicht folgen, denn Einzelaussagen, wie etwa, dass an einem Unfall der Algorithmus schuld sei oder das Verhalten auf unzureichende Daten zurückzuführen ist, sind nicht repräsentativ für die KI. Ich billige eine Abschiebung von Verantwortlichkeit auf KI-Systeme auch nicht, denn die Algorithmen haben sich Menschen ausgedacht und Daten zum Training von KI-Systemen sind von Menschen ausgewählt.
„Eine verstärkte Anwendung von KI zu Klimaschutzzwecken, z. B. im Energiesektor ist denkbar, bspw. im Ressourcenmanagement oder in intelligenten Automatisierungen.“
Aber, und dies ist wichtig zu betonen, KI-Systeme behandeln bereits „echte Probleme“. Schon das Navigationssystem im Auto versucht allen Verkehrsteilnehmern gleichzeitig in hochkomplexen und dynamischen Verkehrsdatenräumen, die schönste, schnellste, kürzeste Route zum Ziel zu suchen. KI-Systeme, wie deepL übersetzen in Sekunden längere Texte in alle europäischen Sprachen.
KI-Systeme des DFKI werden z. B. zur Betrugserkennung oder zur automatischen Erkennung von Bildinhalten, in denen Kinder sexuell missbraucht werden, eingesetzt. Andere Systeme kommen im Bereich des Katastrophenmanagements zum Einsatz, wo Satellitenbilder z. B. bei Überflutungen analysiert werden, um Vorhersagen zu machen, wie sich die Fluten weiter ausbreiten werden und Rettungswege in welchem Zeitraum für die Einsatzkräfte noch zur Verfügung stehen. Das sind für mich schon „echte Probleme“.
D. h. KI-Systeme werden in Zukunft positive Auswirkungen auf die Gesellschaft haben. Welche sehen Sie da als realistisch an?
Meine Antwort knüpft zum Teil an Ihre vorangegangene Frage zu „echten Problemen“ an. Eine echte Herausforderung der wir uns nämlich zukünftig stellen müssen, ist der Klimawandel. Eine verstärkte Anwendung von KI zu Klimaschutzzwecken, z. B. im Energiesektor ist denkbar, bspw. im Ressourcenmanagement oder in intelligenten Automatisierungen. Positive Auswirkungen auf die Gesellschaft, die ich für realistisch halte und zukünftig sehe, liegen auch im Bereich Gesundheit, zur Unterstützung von alten, kranken oder behinderten Menschen.
Wie wird Künstliche Intelligenz in Zukunft die Arbeitswelt verändern?
Bezogen auf die Arbeitswelt sehe ich ebenfalls eine große Chance, denn durch den Einsatz von KI-Systemen können dem Menschen monotone Arbeiten und standardisierte Vorgänge abgenommen werden. Infolgedessen bleibt mehr Zeit für Aufgaben, in denen der Mensch seine im Vergleich zur Maschine anders vorhandene Problemlösungskompetenz anwenden kann.
Auch für Kreativität, kommunikative und soziale Tätigkeiten bleibt im besten Fall mehr Zeit. Wenn wir es schaffen die KI für uns einzusetzen, kann sie uns die Arbeit erleichtern und ist keinesfalls etwas, das als „Arbeitsplatzvernichter“ befürchtet werden muss. Man muss sich hier auch klarmachen, dass ein etwaiger Umbruch – so übrigens auch in allen vorangegangenen industriellen Revolutionen passiert – nicht plötzlich, sondern sukzessive erfolgt und somit auch Zeit bleibt, um z. B. in Weiterbildung, Um- oder Höherqualifizierung zu investieren.
Was werden KI-Systeme in drei Jahren besser können als heute?
Drei Jahre sind ein relativ limitierter Zeitrahmen, ich denke daher, dass man allgemein sagen kann, dass große Potentiale hin zu besseren KI-Systemen im Verständnis der Systeme liegen. Unser Ziel sollte also vornehmlich weiterhin sein, die sogenannten KI Black-Boxes „weißer zu machen“ und hier sind wir schon auf einem guten Weg.
„Es sich lohnt in die Erforschung der Erklärbarkeit von KI Systemen zu investieren, um weitere potenzielle Risiken frühzeitig aufdecken zu können.“
Und was sagen längerfristige Prognosen?
Es gibt verschiedene Befragungen und Trendanalysen, die versuchen zu prognostizieren, welche Veränderungen in Zeiträumen von z. B. fünf oder zehn Jahren im Bereich KI voranschreiten werden. Häufig werden in solchen Studien das produzierende Gewerbe, die Industrie und auch KMU als prädestinierte Nutzer von KI identifiziert. Ein Beispiel ist die Qualitätskontrolle die mit KI assistiert werden kann und so wesentliche schneller als der Mensch ist. IBM präsentiert regelmäßig konkrete zu erwartende Technologietrends der kommenden fünf Jahre.
Auch hier finden sich Anwendungen z. B. im Ökologie- bzw. Umweltbereich in Form von intelligenten Sensoren, die Schadstoffbelastungen erkennen können oder Einsätze im Gesundheitsbereich wie Chips, die es ermöglichen Krankheiten früher zu erkennen, indem regelmäßig Körperflüssigkeiten auf Veränderungen untersucht werden. Dies könnte mit diesen Mini-Laboren sogar von zuhause aus geschehen. Ob diese speziell prognostizierten Anwendungen tatsächlich alle eintreten werden, wird man in den kommenden Jahren sehen, sicherlich werden sie aber zum Teil Einzug in unseren Alltag finden.
Was ist Ihr ganz persönliches Anliegen in Sachen Entwicklung von KI-Systemen?
Es gibt viele große Probleme unserer Zeit, die die gesamte Menschheit betreffen, insbesondere die Lebensbedingungen und das Zusammenleben der kommenden Generationen. Die KI bietet uns als globale Gesellschaft ein technologisches Fundament, um die vieldimensionalen Daten und ihre Zusammenhänge besser zu verstehen, Ereignisse und Entwicklungen vorherzusehen und präventive Maßnahmen rechtzeitig in die Wege zu leiten, sei es in den Lebenswissenschaften, im Bereich der Klimaforschung oder bei gesellschaftlichen Phänomenen, die durch Social Media entstehen. Daher würde ich noch mehr kollektive Maßnahmen ganz Im Sinne der UN-Initiative „AI for good“ begrüßen.
Vielen Dank für das aufschlussreiche Gespräch, Herr Prof. Dengel!
Ähnliche Beiträge auf unserem Blog
Miriam Meckel: Wenn Künstliche Intelligenz auf das Gehirn trifft, schützt kein Helm
Ethische Innovation im digitalen Zeitalter: Werte sind das neue „Bio“
KI und Ethik: Wissen sie was sie tun?
Weiterführende Links
Deutsches Forschungszentrum für Künstliche Intelligenz
Konferenz für Künstliche Intelligenz AI4U