silhouette of virtual human on abstract technology 3d illustration , represent artificial technology.

Wie Künstliche Intelligenz uns Menschen tangiert

Künstliche Intelligenz (KI) gilt als eine Schlüsseltechnologie des 21. Jahrhunderts. Deutschland genießt in KI-Forschung international einen ausgezeichneten Ruf. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken ist mit über 1.000 Mitarbeitern die größte wissenschaftliche KI-Einrichtung weltweit. Auf der AI4U-Konferenz sprach ich mit Prof. Andreas Dengel, DFKI Standortleiter in Kaiserslautern, über politische Reglementierung, gesellschaftliche Verantwortung und zukünftige Einsatzgebiete, wie zum Beispiel im Klima- und Katastrophenschutz.

Herr Prof. Dengel, welcher Grundsatz gilt bei der Entwicklung von KI-Systemen?

Es ist wichtig, KI immer zum Nutzen des Menschen und der Menschheit zu entwickeln und zu verwenden. So dürfen Kampfroboter genauso wenig eigenständig über Leben und Tod entscheiden dürfen, wie Chatbots ohne Einverständnis des Menschen Gespräche aufzeichnen und auswerten dürfen. Es geht also um eine menschenzentrierte Betrachtungsweise, die ich für sehr wichtig halte. Daraus resultiert auch, dass KI als kognitive Entlastung wie als intellektueller Leistungsverstärker angesehen werden sollte, als digitaler Assistent, der unsere Fähigkeiten ergänzt oder erweitert und uns nicht gleichberechtigt ist.

 Sollte die Entwicklung von Künstlicher Intelligenz politisch reglementiert werden?

Auf jeden Fall, denn auch für KI und diejenigen, die diese verantwortlich entwickeln, gilt, dass unsere Gesetze eingehalten werden müssen. Sowohl die Chancen als auch Gefahren bedürfen einer politischen Reglementierung. Dabei sollten primär Fragen zu Menschenrechten, demokratischen Werten und ethischen Überlegungen im Mittelpunkt stehen, wie sie auch im April dieses Jahres als Teil eines Leitlinienkatalogs der EU veröffentlicht wurden. Besonders, um dem manipulativen Potenzial von KI entgegenzuwirken, brauchen wir Ethik-Leitsätze und Gesetze, bis hin zu einer erweiterten Strafverfolgung, die jedoch nicht Halt macht an den Grenzen von Deutschland oder der EU, sondern eine globale Anstrengung erfordert.

 

 „Künstliche Intelligenz sollte als digitaler Assistent gesehen werden, der unsere Fähigkeiten ergänzt oder erweitert und uns nicht gleichberechtigt ist.“

 

Was können wir tun, damit KI nicht für Zwecke eingesetzt wird, die wir ablehnen? Wie schaffen wir eine größere Transparenz darüber, wie KI entwickelt wird?

Transparenz ist ein wichtiges, vermutlich auch das offensichtlichste und eingängigste Ziel. Gleichberechtigt daneben stehen jedoch weitere Dimensionen mit großem Einfluss. Nur wenn wir alle Ebenen gleichermaßen in unseren zukünftigen Entwicklungen beachten, KI entsprechend politisch reglementieren und die relevanten Forschungsfelder vorantreiben, können wir sicherstellen, dass wir keine Systeme kreieren, welche für unerwünschte Zwecke verwendet werden. Die Leitlinien der EU fassen die wesentlichen Dimensionen zusammen, die berücksichtigt werden müssen auf dem Weg zu einer vertrauenswürdigen KI.

Können Sie die wichtigsten Leitlinien der EU kurz skizzieren?

Menschliches Handeln und Aufsicht muss Vorrang haben (1), KI Systeme müssen robust und sicher sein (2), die Privatsphäre und das Datenqualitätsmanagement muss gewährleistet sein (3), KI Systeme sollten vielfältig, nichtdiskriminierend und fair gestaltet werden (4), Gesellschaftliches und ökologisches Wohlergehen sind Ziele für die KI eingesetzt werden soll (5), Mechanismen werden geschaffen, die eine Rechenschaftspflicht für KI Systeme gewährleisten (6) sowie Transparenz (7), also die Rückverfolgbarkeit von KI Systemen, welche als siebte und letzte Dimension von der EU vorgeschlagen wird.

Wie kann eine Gesellschaft verhindern, dass KI entgegen unseren Wünschen gebaut bzw. genutzt wird?

Damit eine Gesellschaft mitreden kann, muss viel Aufklärungsarbeit geleistet werden, denn nur wer mitreden kann, ist in der Lage eine „rote Linie“ zu ziehen. Dies gilt für die Gesellschaft im Allgemeinen, wie für die politischen Entscheidungsträger im Speziellen, denn Gesetze und Anwendungskodizes machen nur dann Sinn, wenn ich ihre Wirksamkeit und Grenzen bewerten kann.

Grundsätzlich gilt aber, dass im Prinzip jede Technologie letztendlich missbraucht oder zweckentfremdet werden kann, was nicht nur für die KI gilt. Um nur zwei Beispiele zu nennen: Kreditkartenbetrug oder korrupte Finanzbuchungen – auch hier werden Technologien entgegen ihres ursprünglichen Sinnes für kriminelle Handlungen missbraucht. Das Gefahrenpotenzial einer Technologie macht sie nicht per se schlecht, man darf potenzielle negative Auswirkungen jedoch nicht ignorieren.

 

„Um dem manipulativen Potenzial von KI entgegenzuwirken, brauchen wir Ethik-Leitsätze und Gesetze bis hin zu einer erweiterten Strafverfolgung.“

 

Und wie kann man gegen die Gefahren vorgehen?

Einhalt kann man diesen möglichen Gefahren gebieten, indem man aus dem Bewusstsein über die Gefahren Schutzmechanismen entwickelt. Das bedeutet auch, dass es sich lohnt beispielsweise in die Erforschung der Erklärbarkeit von KI Systemen zu investieren, um weitere potentielle Risiken frühzeitig aufdecken zu können.

Auch meine Arbeitsgruppe am DFKI beschäftigt sich seit einigen Jahren mit den Themen Interpretierbarkeit und Erklärbarkeit, was dazu geführt hat, dass wir KI Systeme bereits heute in die Lage versetzen können, ihre Entscheidungen in natürlicher Sprache zu erklären. Das ist nur ein Beispiel für vielversprechende Entwicklungen und wichtige Schritte in Richtung Transparenz und um ein tieferes Verständnis zu generieren.

 

„Die KI bietet uns als globale Gesellschaft ein technologisches Fundament, um die vieldimensionalen Daten und ihre Zusammenhänge besser zu verstehen, Ereignisse und Entwicklungen vorherzusehen und präventive Maßnahmen rechtzeitig in die Wege zu leiten.“ Prof. Andreas Dengel, DFKI

 

Technologischer Fortschritt hält Einzug in unseren Alltag. Inwieweit werden KI-Systeme diesen in Zukunft beeinflussen?

Wenn wir uns anschauen, in wie viele Bereiche unseres täglichen Lebens KI bereits Einzug gefunden hat, können wir in etwa abschätzen, wie dieses zukünftig aussehen wird. Im Bereich Edge Computing und Anwendungen wie z. B. Smart Cities und Smart Automation kann ich mir ebenfalls deutliche Verbesserungen in absehbarer Zeit vorstellen.

 Es entsteht manchmal der Eindruck, dass KI nur entwickelt wird, um Verantwortlichkeiten auf Maschinen abzuschieben, aber nicht um echte Probleme zu lösen. Wie stehen Sie dazu?

Ich kann dem Kern Ihrer Frage nicht folgen, denn Einzelaussagen, wie etwa, dass an einem Unfall der Algorithmus schuld sei oder das Verhalten auf unzureichende Daten zurückzuführen ist, sind nicht repräsentativ für die KI. Ich billige eine Abschiebung von Verantwortlichkeit auf KI-Systeme auch nicht, denn die Algorithmen haben sich Menschen ausgedacht und Daten zum Training von KI-Systemen sind von Menschen ausgewählt.

 

„Eine verstärkte Anwendung von KI zu Klimaschutzzwecken, z. B. im Energiesektor ist denkbar, bspw. im Ressourcenmanagement oder in intelligenten Automatisierungen.“

 

Aber, und dies ist wichtig zu betonen, KI-Systeme behandeln bereits „echte Probleme“. Schon das Navigationssystem im Auto versucht allen Verkehrsteilnehmern gleichzeitig in hochkomplexen und dynamischen Verkehrsdatenräumen, die schönste, schnellste, kürzeste Route zum Ziel zu suchen. KI-Systeme, wie deepL übersetzen in Sekunden längere Texte in alle europäischen Sprachen.

KI-Systeme des DFKI werden z. B. zur Betrugserkennung oder zur automatischen Erkennung von Bildinhalten, in denen Kinder sexuell missbraucht werden, eingesetzt. Andere Systeme kommen im Bereich des Katastrophenmanagements zum Einsatz, wo Satellitenbilder z. B. bei Überflutungen analysiert werden, um Vorhersagen zu machen, wie sich die Fluten weiter ausbreiten werden und Rettungswege in welchem Zeitraum für die Einsatzkräfte noch zur Verfügung stehen. Das sind für mich schon „echte Probleme“.

D. h. KI-Systeme werden in Zukunft positive Auswirkungen auf die Gesellschaft haben. Welche sehen Sie da als realistisch an?

Meine Antwort knüpft zum Teil an Ihre vorangegangene Frage zu „echten Problemen“ an. Eine echte Herausforderung der wir uns nämlich zukünftig stellen müssen, ist der Klimawandel. Eine verstärkte Anwendung von KI zu Klimaschutzzwecken, z. B. im Energiesektor ist denkbar, bspw. im Ressourcenmanagement oder in intelligenten Automatisierungen. Positive Auswirkungen auf die Gesellschaft, die ich für realistisch halte und zukünftig sehe, liegen auch im Bereich Gesundheit, zur Unterstützung von alten, kranken oder behinderten Menschen.

Wie wird Künstliche Intelligenz in Zukunft die Arbeitswelt verändern?

Bezogen auf die Arbeitswelt sehe ich ebenfalls eine große Chance, denn durch den Einsatz von KI-Systemen können dem Menschen monotone Arbeiten und standardisierte Vorgänge abgenommen werden. Infolgedessen bleibt mehr Zeit für Aufgaben, in denen der Mensch seine im Vergleich zur Maschine anders vorhandene Problemlösungskompetenz anwenden kann.

Auch für Kreativität, kommunikative und soziale Tätigkeiten bleibt im besten Fall mehr Zeit. Wenn wir es schaffen die KI für uns einzusetzen, kann sie uns die Arbeit erleichtern und ist keinesfalls etwas, das als „Arbeitsplatzvernichter“ befürchtet werden muss. Man muss sich hier auch klarmachen, dass ein etwaiger Umbruch - so übrigens auch in allen vorangegangenen industriellen Revolutionen passiert - nicht plötzlich, sondern sukzessive erfolgt und somit auch Zeit bleibt, um z. B. in Weiterbildung, Um- oder Höherqualifizierung zu investieren.

Was werden KI-Systeme in drei Jahren besser können als heute?

Drei Jahre sind ein relativ limitierter Zeitrahmen, ich denke daher, dass man allgemein sagen kann, dass große Potentiale hin zu besseren KI-Systemen im Verständnis der Systeme liegen. Unser Ziel sollte also vornehmlich weiterhin sein, die sogenannten KI Black-Boxes „weißer zu machen“ und hier sind wir schon auf einem guten Weg.

 

„Es sich lohnt in die Erforschung der Erklärbarkeit von KI Systemen zu investieren, um weitere potenzielle Risiken frühzeitig aufdecken zu können.“

 

Und was sagen längerfristige Prognosen?

 Es gibt verschiedene Befragungen und Trendanalysen, die versuchen zu prognostizieren, welche Veränderungen in Zeiträumen von z. B. fünf oder zehn Jahren im Bereich KI voranschreiten werden. Häufig werden in solchen Studien das produzierende Gewerbe, die Industrie und auch KMU als prädestinierte Nutzer von KI identifiziert. Ein Beispiel ist die Qualitätskontrolle die mit KI assistiert werden kann und so wesentliche schneller als der Mensch ist. IBM präsentiert regelmäßig konkrete zu erwartende Technologietrends der kommenden fünf Jahre.

Auch hier finden sich Anwendungen z. B. im Ökologie- bzw. Umweltbereich in Form von intelligenten Sensoren, die Schadstoffbelastungen erkennen können oder Einsätze im Gesundheitsbereich wie Chips, die es ermöglichen Krankheiten früher zu erkennen, indem regelmäßig Körperflüssigkeiten auf Veränderungen untersucht werden. Dies könnte mit diesen Mini-Laboren sogar von zuhause aus geschehen. Ob diese speziell prognostizierten Anwendungen tatsächlich alle eintreten werden, wird man in den kommenden Jahren sehen, sicherlich werden sie aber zum Teil Einzug in unseren Alltag finden.

Was ist Ihr ganz persönliches Anliegen in Sachen Entwicklung von KI-Systemen?

Prof. Andreas Dengel, DFKI
Prof. Andreas Dengel ist Standortleiter am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern und wissenschaftlicher Direktor des Forschungsbereichs Smart Data & Knowledge Services am DFKI.

Es gibt viele große Probleme unserer Zeit, die die gesamte Menschheit betreffen, insbesondere die Lebensbedingungen und das Zusammenleben der kommenden Generationen. Die KI bietet uns als globale Gesellschaft ein technologisches Fundament, um die vieldimensionalen Daten und ihre Zusammenhänge besser zu verstehen, Ereignisse und Entwicklungen vorherzusehen und präventive Maßnahmen rechtzeitig in die Wege zu leiten, sei es in den Lebenswissenschaften, im Bereich der Klimaforschung oder bei gesellschaftlichen Phänomenen, die durch Social Media entstehen. Daher würde ich noch mehr kollektive Maßnahmen ganz Im Sinne der UN-Initiative „AI for good“ begrüßen.

Vielen Dank für das aufschlussreiche Gespräch, Herr Prof. Dengel!

 

Ähnliche Beiträge auf unserem Blog

Miriam Meckel: Wenn Künstliche Intelligenz auf das Gehirn trifft, schützt kein Helm

Ethische Innovation im digitalen Zeitalter: Werte sind das neue "Bio"

KI und Ethik: Wissen sie was sie tun?

 

Weiterführende Links

Deutsches Forschungszentrum für Künstliche Intelligenz

Konferenz für Künstliche Intelligenz AI4U

 


Ethische Leitlinien für KI

KI und Ethik: Wissen sie, was sie tun?

Künstliche Intelligenz (KI) ist vielen Menschen auf der ganzen Welt nicht geheuer. Die aktuelle Studie im Auftrag der Stiftung Weltwirtschaftsforum (WEF) hat das gerade erst wieder bewiesen. Höchste Zeit also, der Begeisterung über technische Möglichkeiten einen Rahmen in Form von ethischen Leitlinien gegenüberzustellen. Die Protagonisten der Künstlichen Intelligenz haben auf der KI-Konferenz AI4U über KI und Ethik diskutiert. Das Ergebnis: Man ist sich der Gefahren bewusst und beginnt gegenzusteuern.

KI ist ein Hype-Thema, obwohl es diese Forschungsdisziplin schon seit Jahrzehnten gibt. Doch tatsächlich erlebt sie gerade Quantensprünge an technischen Neuerungen. Ebenfalls neu - zumindest in unserer Wahrnehmung - ist, dass KI heute fast alle Branchen betrifft. Egal ob Marketing, Medizin, Automotive, Versicherungen oder Landwirtschaft, überall kann KI zum Einsatz kommen und Entscheidungen beeinflussen.

Die Welt ist sich einig, dass KI gefährlich ist

Genau das macht Menschen Angst. Die aktuellste Studie des Weltwirtschaftsforums (WEF) zeigt: 41 Prozent der befragten 20.000 Menschen in 27 Ländernsind über den Einsatz künstlicher Intelligenz besorgt. 48 Prozent meinen, die Anwendung von KI durch Firmen sollte stärker als bislang reguliert werden. 19 Prozent der Befragten wollen gar ein Verbot von KI. Besonders erstaunlich ist der breite Konsens, den die Weltbevölkerung in der Studie an den Tag legt. Denn laut WEF spielte bei dem Ergebnis weder Alter, Einkommen oder Bildungsniveau der Befragten eine Rolle. Kurz: Egal ob alt, jung, reich, arm, gebildet oder weniger gebildet, die Welt ist sich einig, dass KI gefährlich ist.

KI kann Menschen unabsichtlich diskriminieren

Die gute Nachricht: Maschinen können keine eigenmächtigen Entscheidungen treffen. Es ist der Mensch, der die Regeln für die Entscheidungsfindung der Maschine festlegt. Die schlechte Nachricht aber ist, dass KI-gesteuerte Technologien manchmal Entscheidungen treffen, die zwar den gegebenen Regeln folgen, aber in ihrer Konsequenz nicht gewollt sind. Ein Beispiel: Das Targeting und die Ausspielung von Anzeigen auf Facebook erfolgt KI-gesteuert. Auch Job-Anzeigen sind davon betroffen. Aufgrund der Datenmenge und der rückgekoppelten Vermittlungserfolge hat der Algorithmus dann z.B. gelernt, dass er die Ausschreibung für eine zu besetzende Mathematiker-Stelle nur an weiße, männliche Personen im Alter von 30 Jahren ausliefern braucht. Denn vor allem diese Personengruppe tritt die Stelle am Ende an. Frauen und ältere Menschen dagegen wurden im Laufe der Zeit komplett ausgegrenzt. Ein Zustand, den weder die ausschreibende Firma noch Facebook intendierte, die durch KI und ihren selbstlernenden und sich stetig optimierenden Algorithmus aber einfach passiert ist. Ähnliche Fälle sind denkbar, wenn Banken ihre Kredite zukünftig KI-gestützt vergeben oder Versicherungen ihre Risikobewertungen durchführen.

Wissenschaftler arbeiten an Transparenz und dem Ende der Black Box

Es sind also nicht nur die extremen Fragestellungen wie wir sie z.B. aus dem Automotive-Bereich kennen wie „Überfahre ich das Kind oder den Greis?“, die die Wissenschaft gerade umtreibt. Auch auf den ersten Blick „harmlose“ Anwendungen können unethische Auswirkungen haben. Eine Maßnahme, die dem entgegenwirken soll, ist die Forderung nach mehr Transparenz in der KI-Technologie. Die vielzitierte „Black Box“, bei der die Daten vorne hineinlaufen und eine Entscheidung hinten herauskommt, muss für den Menschen transparent und nachvollziehbar werden. „KI wird nur gesellschaftliche Akzeptanz erfahren – und damit auch in der Wirtschaft breit eingesetzt werden können, wenn die Menschen ihr vertrauen“, bringt es Prof. Dr. Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz auf den Punkt. Einer der Forschungsschwerpunkte an seinem Institut liegt u.a. darin, die Entscheidungsfindung von Tiefen Neuronalen Netzen bzw. von KI transparenter und erklärbar zu machen.

Bereitschaft für ethische Leitlinien für KI wächst

Klar wurde bei der Diskussion, dass das Thema KI und Ethik in Wissenschaft, Politik und Wirtschaft inzwischen sehr ernst genommen wird – zumindest in Deutschland und Europa. Erst im Januar verkündete Sheryl Sandberg, Co-CEO von Facebook, 6,5 Mio. Euro für den Aufbau eines Ethik-Instituts für KI an der TU München bereit zu stellen. Im Oktober bereits soll das „TUM Institute for Ethics in Artificial Intelligence“ seine Arbeit aufnehmen. Auch immer mehr Unternehmen und sogar Staaten sehen die Notwendigkeit, ihrer Arbeit durch Leitlinien für KI einen ethisch akzeptablen Rahmen zu geben. Mario Brandenburg, Mitglied des Deutschen Bundestages und Obmann der Enquete-Kommission „Künstliche Intelligenz" gibt aber zu bedenken: „Man kann nicht für jeden Anwendungsfall einen Rechtsraum bauen“. Einig sind sich Politik und Wissenschaft aber, dass es ohne Regelungen auch nicht geht - wobei es mit dem Grundgesetz, dem Verbraucherschutz und z.B. der DSGVO im Prinzip schon einen sehr brauchbaren rechtlichen Rahmen gäbe. Allerdings ginge es nicht darum, KI ethisch zu programmieren sondern darum, dass wir Menschen den Umgang mit KI ethisch gestalten, betonte Frau Prof. Dr. Petra Grimm, Leiterin des Instituts für Digitale Ethik an der HdM Stuttgart.

KI und Ethik AI4U 2019
Mario Brandenburg, MdB; Prof. Dr. Petra Grimm (HdM), Prof. Dr. Antonio Krüger (DFKI)
KI für Jedermann?

Abgesehen von den unbestreitbaren Risiken von KI wurde auf der AI4U auch der umgekehrte Ansatz diskutiert, wie ethisch es denn sei, zu wenig Technologie einzusetzen? Was, wenn KI-gestützte Entscheidungen im Durchschnitt viel besser sind als die der Menschen? Ist es dann unethisch, keine KI einzusetzen? Und welche Fehler wiegen schwerer, die durch Technologie verursachten oder die von Menschen begangenen? Sind beispielsweise 5.000 Verkehrstote durch autonomes Fahren schlimmer als 10.000 Tote durch menschliches Versagen? Auf solche Fragen gibt es aktuell noch keine Antwort. Wichtig ist aber, diesen Diskurs öffentlich und so breit wie möglich zu führen. Denn, und das gaben die KI-Experten auf der AI4U zu bedenken: KI lässt sich leicht bauen und es wird immer leichter werden. Die Verantwortung verteilt sich damit auf immer mehr Schultern. Spätestens dann braucht es zwingend gesellschaftlich akzeptierte und weitreichende Leitlinien für einen ethisch verantwortungsvollen Einsatz von KI.

Weiterführende Links:

AI4U Konferenz

Studie des Weltwirtschaftsforums


Copyright Thorsten Jochim

Digitale Arbeitswelt: Angst vor dem Umbruch?

Welche Veränderungen bringt die Digitalisierung in unsere Arbeitswelt? Diese Frage diskutiert Matthias Kamp, München-Korrespondent der WirtschaftsWoche, mit Siemens-Personalvorständin Janina Kugel und Unternehmerin Sabine Herold, Chefin des Hightech-Klebstoff-Herstellers Delo im WiWo-Clubgespräch. Es ist ein Ritt durch die Themenvielfalt Diversität, Automatisierung, Qualifikation, Weiterbildung, Führungsstil. Jedem Zuhörer im Literaturhaus in München wird klar, dass wir uns in unserer modernen, hochtechnisierten Welt mehr denn je hinterfragen müssen, ob wir offen für Neues sind und uns unseren Ängsten vor Veränderungen stellen müssen.

Der Einstieg in die Diskussion hätte nicht provokanter sein können. „Brauchen wir eine Frauenquote?“, fragt Matthias Kamp seine Gesprächspartnerinnen. Beide Unternehmerinnen wollen als Führungskraft keine Quotenfrauen sein. Janina Kugel kontert: „Es geht um die Gleichstellungsquote. Ich weiß nicht, ob wir sie wirklich brauchen, aber wir brauchen die Diskussion. Denn es gibt in den Vorständen deutscher Unternehmen mehr Michaels und Thomas als Frauen.“

Vereinbarkeit von Familie und Beruf

Rollenbilder sind in der Gesellschaft noch sehr stark eingefahren. Wir sind stark konditioniert, und das von klein auf. Was wir als Kinder zuhause vorgelebt und in Schulen erzählt bekommen, prägt enorm. Selbst heute noch werden zu sehr Rollenklischees vermittelt und Mädchen nicht ausreichend an vermeintliche Männerberufe herangeführt. Janina Kugel sieht hier einen großen Hebel, Veränderungen anzustoßen. „Wir müssen insbesondere die Mädchen motivieren, in die MINT-Berufe zu gehen. Abgesehen davon, dass sich hier viel größere Chancen auftun, weil wir diese Fachkräfte dringend brauchen, sind sie auch noch viel besser bezahlt als die klassischen Frauenberufe.“

Auf dem Arbeitsmarkt hat sich dank der technologischen Möglichkeiten viel getan: Teilzeitmodelle, Home-Office, Job-Sharing. Sabine Herold kann das bestätigen: „Wir als Mittelständler bieten unseren Mitarbeitern 42 verschiedene Teilzeitmodelle. Da steckt für HR sehr viel Arbeit dahinter.“ Es muss aber auch an anderer Stelle die Voraussetzungen für Flexibilität geschaffen werden, weiß Janina Kugel, Mutter von schulpflichtigen Zwillingen, aus eigener Erfahrung. „Es fehlt in Deutschland an einer gesicherten und flexiblen Betreuungsstruktur für Kinder, auf die sich beide Elternteile in ihrem Job verlassen können.“ Auch der Wiedereinstieg von Frauen ins Berufsleben wird angesprochen. Sabine Herold appelliert vor allem auch an Quereinsteiger und ermutigt weibliche Fachkräfte, die jahrelang wegen der Familie zuhause geblieben sind: „Diese Frauen haben ein kleines Familienunternehmen geführt. Natürlich sind sie für den Wiedereinstieg qualifiziert. Sie müssen es sich nur zutrauen und es wollen.“

Die Folgen der Automatisierung

Das Gefühl, abgehängt zu sein und das Nichtwissen über neue technologische Entwicklungen bei der Arbeit bleibt kein Phänomen derjenigen, die aus dem Beruf ausgestiegen sind. Vor dieser Herausforderung steht nun jeder Wissensarbeiter in unserer Dienstleistungsgesellschaft. Die Welle der Innovation durch Künstliche Intelligenz und Machine-Learning wird die Jobs in der Administration erfassen. Repetitiven Aufgaben wie zum Beispiel die von Sachbearbeitern oder Gutachtern werden in Zukunft durch Algorithmen gelöst. Bürojobs stehen auf der schwarzen Liste, es ist eine Frage der Zeit, wann sie obsolet werden.

Janina Kugel sieht hier sehr wohl die Unternehmen in der Pflicht, Pakete zu Weiterqualifikationen für betroffene Mitarbeiter zu schnüren. Sabine Herold pflichtet ihr bei, gibt jedoch zu bedenken, dass lediglich Großkonzerne und nur wenige wirklich sehr gut aufgestellte Mittelständler dazu die nötige Infrastruktur hätten. „Solche Angebote können kleinere und mittelständische Unternehmen vor allem in ländlichen Regionen nicht leisten. Der Weiterbildungsmarkt muss hierzulande noch stark entwickelt und auch gefördert werden.“

Angst und Skepsis überwinden

Voraussetzung ist, dass Mitarbeiter auch bereit sind, den Veränderungsprozess zu gehen. In dem Zusammenhang kommen beide auf Ängste zu sprechen. Allein zu akzeptieren, dass man im Job nicht mehr gebraucht wird, sei schon kaum zu ertragen. „Man stelle sich vor, man hat eine qualifizierte Ausbildung, zwanzig Jahre in einem Unternehmen erfolgreich gearbeitet und jetzt soll man nochmal die Schulbank drücken und sich Prüfungen unterziehen, um eine Weiterqualifikation zu absolvieren? Das ist nicht einfach“, erklärt Sabine Herold. Es muss in der Unternehmenskultur verankert sein, dass ein solcher Prozess ganz normal ist. Wichtig, dass mit diesen offen umgegangen wird und gemeinsam nach Lösungen sucht.

In diesen Fragen sind Führungskräfte mehr denn je gefordert. Das alte Führungsprinzip „command and control“ hat ausgedient. Gefragt sind Gestaltungsspielräume, Crowdsourcing, agile Prozesse, innovative Methoden der Mitarbeiterführung. Nicht jede Führungskraft kommt damit zurecht, oft kommen Zweifel auf. Janina Kugel zitiert eine Führungskraft aus dem Siemens-Konzern: „Ich habe Angst davor, die Kontrolle zu verlieren, wenn all meine Mitarbeiter agil und mit Scrum arbeiten.“

Beide Managerinnen sind davon überzeugt, dass sich die Uhr nicht mehr zurückdrehen lässt. Sie appellieren an Gesprächsbereitschaft und offenen Diskurs eines jeden. Nur so lassen dich die Herausforderungen der digitalisierten Arbeitswelt bewältigen.

Foto: Thorsten Jochim


Digitalsierung und Müllvermeidung

Digitalisierung für die Tonne - Müllvermeidung im Handel

 

Wie moderne Technologien wie Künstliche Intelligenz (KI) oder hochautomatisierte und datenbasierte Businessmodelle helfen können, Müll im Handel und beim Konsumenten zu vermeiden.

Overstocks im Fashionbereich, abgelaufene Ware im Lebensmittelhandel: Überproduktionen im Handel sind nicht nur wirtschaftlich katastrophal, sie sind auch für die Umwelt höchst belastend. Schließlich werden zu ihrer Herstellung Rohstoffe verarbeitet, Energie verbraucht und nicht zuletzt sogar Tiere getötet. Statistische Berechnungen im Lebensmittelhandel zeigen, dass jährlich alleine 2,6 Millionen Hektar landwirtschaftliche Fläche bewirtschaftet wird, nur um die darauf angebauten Produkte anschließend wieder wegzuwerfen. Moderne Technologien können nicht nur helfen, unverkäufliche Ware von vorneherein zu vermeiden, sondern auch dafür sorgen, dass – wie im Falle von Textilien - gebrauchte Ware wieder einer sinnvollen Nutzung zugeführt wird.

Bessere Sortimentsplanung verbessert den Lebensmittelhandel

In der Europäischen Union werden jedes Jahr pro Person durchschnittlich 179 Kilogramm Lebensmittel weggeworfen. Insgesamt bedeutet das ca. 89 Millionen Tonnen Abfall pro Jahr. Es ist aber nicht nur der Endverbraucher, der die Nahrungsmittel wegwirft, denn laut WWF-Studie zur Lebensmittelverschwendung in Deutschland entstehen über 60 Prozent der Verluste entlang der Wertschöpfungskette – vom Produzenten bis hin zum Großverbraucher“. „Im Lebensmittelhandel ist jedes Lebensmittel, das z.B. aufgrund eines abgelaufenen Mindesthaltbarkeits- oder Verbrauchsdatums nicht verkauft werden kann, ein Ärgernis“, erklärt Dirk Vater, Leiter der Alpenmetzgerei Völs, einem Produktionsbetrieb der österreichischen Supermarktkette MPreis. Denn Fleisch beispielsweise, dessen Verbrauchsdatum abgelaufen ist, darf nicht weiterverwendet werden und landet daher zu 100 Prozent im Müll und verursacht bei der Entsorgung sogar noch Kosten. Aber auch verpackte Lebensmittel, deren Mindesthaltbarkeitsdatum zwar überschritten ist, dessen Verzehr aber unbedenklich wäre, werden von den Konsumenten nicht mehr angenommen und landen daher oft im Müll.

„Das Problem ist die Vorhersage der Abverkaufsmengen“, erklärt Dirk Vater. „In der Praxis wird diese Zahl meist aus einer Mischung aus Analysewerten aus dem Vorjahr, erfahrungsbasierten Vorhersagen und saisonalen Besonderheiten wie z.B. der Wetter oder Feiertagen ermittelt – und zwar für jedes einzelne Produkt.“ Allein die schiere Menge an Daten macht klar, dass dieser Anwendungsfall für die Nutzung von Technologien wie künstlicher Intelligenz geradezu prädestiniert ist: Unternehmensinterne Analysedaten liefern standortbezogen die wahrscheinlichen Verkaufsmengen und reichern diese anschießend mit externen Daten wie z.B. dem Wetterbericht (Ist Grillwetter?) und weiteren verkaufsrelevanten Informationen wie z.B. besonderen Events, Ferienbeginn oder Feiertagen an. Technisch ist es heute auch kein Problem mehr, neue Produkte, bei denen keine Erfahrungsdaten aus der Vergangenheit zur Verfügung stehen, in Vorhersagen zu integrieren. Das Ergebnis sind präzise Entscheidungshilfen auf Tagesbasis, die hoch individualisiert aus einer Unmenge an Daten und Wissen verlässliche Vorhersagen ermöglichen.

 

„Der Handel ist wie kaum eine andere Branche prädestiniert für die Nutzung von künstlicher Intelligenz – dank seiner Nähe zum Konsumenten und dank der Datenschätze, über die er schon heute verfügt.“ (Peter Breuer, McKinsey)

 

Mode: Nachhaltigkeit passt oft nicht zum Businessmodell

Auch im Modesektor helfen datenbasierte und hoch digitalisierte Unternehmen und Businessmodelle, das Müllaufkommen bei Textilien zu reduzieren. Zwar weiß niemand so genau, wie viel Neuware nicht verkauft werden kann (offizielle Zahlen werden nicht erhoben), doch Insider sagen, dass immerhin etwa 20 bis 30 Prozent aller produzierten Bekleidung sich auf dem ersten Vertriebsweg nicht verkaufen lassen. Bei rund 62 Millionen Tonnen Kleidung, die jährlich weltweit gekauft wird, ist das schon eine Menge! Kaufhäuser wie H&M oder Zara haben das Problem noch weiter verschärft, denn dort wechseln Kollektionen alle ein bis zwei Wochen und müssen dann – bei schlechtem Verkauf – in andere Verkaufskanäle geschoben oder dem Recycling zugeführt werden. Bestenfalls, denn gerade erst im Oktober enthüllte das dänische Fernsehen, dass H&M und die Bestseller Gruppe tonnenweise Restposten verbrennen – seit Jahren. Und dass, obwohl sich das Unternehmen Nachhaltigkeit auf die Fahnen schreibt und deshalb Altkleider von seinen Kunden einsammelt um sie zu recyceln.

Gebrauchtwarenhandel für Fortgeschrittene

Für Konsumenten war es nie leichter als heute, Altkleider wieder zu verkaufen und damit der sinnvollsten aller Verwertungsmöglichkeiten zuzuführen. Denn auch das ist ein Verdienst unserer hoch technisierten Welt: Plattformen wie ebay Kleinanzeigen, willhaben.at oder z.B. Facebook Marketplace bieten einen attraktiven Verkaufskanal für ausgediente Kleidungsstücke und sind heute mehr gefragt denn je. Wer es gerne ganz komfortabel mag, schickt seine Textilien gleich zu einem Unternehmen wie Momox, das sich auf den An- und Wiederverkauf von gebrauchten Büchern, CDs, Spielen und seit 2014 auch auf Mode spezialisiert hat – und damit übrigens sehr erfolgreich ist. Im Geschäftsjahr 2016 erwirtschaftete Momox einen Gewinn von 6,8 Millionen Euro mit einer Steigerung gegenüber dem Vorjahr von knapp 55 Prozent. Der Umsatz stieg im gleichen Zeitraum um rund 30 Prozent von knapp 120 auf 150 Millionen Euro.

Rund 400 Kleider-Pakete von Konsumenten treffen heute täglich im Momox-Lager ein, müssen beurteilt, fotografiert und für die eigene Verkaufs-Website ubup aufbereitet werden. Der Aufwand ist riesig. Damit er sich dennoch rechnet, hat das Unternehmen seine Prozesse bis ins letzte automatisiert und perfektioniert. Behilflich dabei sind nicht zuletzt speziell entwickelte dynamische Preisalgorithmen, die für jedes ankommende Kleidungsstück tagesaktuell den optimalen Marktpreis errechnen. „Rund 50 Prozent der angekauften Kleidungsstücke werden innerhalb von vier Wochen nach Ankauf weiterverkauft“, erklärte Heiner Kroke, Geschäftsführer von Momox, erst im Januar in einem Interview mit Fashionunited.de. Nur etwa drei Prozent der Artikel könne laut Kroke gar nicht verkauft werden.

Um uns zu helfen, dem immer größer werdenden Müllproblem auf der Erde Herr zu werden, können moderne, datengesteuerte Technologien und Geschäftsideen, die auf die Vermeidung von Müll zielen, eine Schlüsselrolle einnehmen. Denn – da sind sich alle einig - der Müll, der gar nicht erst entsteht, ist immer noch der beste.

 

Weiterführende Links:

WWF-Studie 

Foodwaste Report

Interview auf fashionunited

 


Künstliche Intelligenz

Miriam Meckel im Gespräch mit Peter Turi:
Wenn Technologie auf das Gehirn trifft

Auf dem Landau Media Talk mit Miriam Meckel am Dienstagabend im The Charles in München schafft Medienprofi und Moderator Peter Turi eine einzigartige, sehr persönliche Atmosphäre. Die Professorin und Herausgeberin der Wirtschaftswoche fesselt die einhundert geladenen Gästen aus der Medienbranche mit ihren Thesen über digitale und neuronale Netze. Ich bin um die Erkenntnis reicher, dass wir vom technologischen Fortschritt nicht nur profitieren, sondern uns dabei auch unseren Urängsten stellen müssen.

Überfordert uns die digitale Welt?

Miriam Meckel legt eine Bilderbuchkarriere hin. Die Journalistin wird Ende der 90er-Jahre mit nur 31 Jahren jüngste Professorin Deutschlands am Lehrstuhl für Publizistik und Kommunikationswissenschaft an der Universität Münster. 2001 wird sie Staatssekretärin und Regierungssprecherin von Nordrhein-Westfalen, vier Jahre später ereilt der Ruf als Professorin und Direktorin des Instituts für Medien- und Kommunikationsmanagement der Universität St. Gallen. Dann 2008 der Zusammenbruch. Burnout. Sie äußert sich offen über die Abgründe, mit denen sie konfrontiert war, und ihre Learnings daraus.

Sie weiß, dass das Phänomen der Überlastung sich mehr und mehr in der Gesellschaft manifestiert. „Wir leben in einer immer schneller werdenden Welt. Das Wissen wächst exponentiell, das Tempo der Medien und Digitalisierung beschleunigt unser Leben. Wir müssen mit immer schneller aufkommenden Informationen umgehen, die erst mal verarbeitet und bewältigt werden müssen. Das führt oft zu Überforderung.“

Grund genug, sich die Frage zu stellen, was passiert dabei eigentlich mit unserem Gehirn? Welche Einflüsse hat die digitale Welt auf unsere Gedanken und wie können wir sie verbinden? Ihre Recherchen teilt sie nun in ihrem kürzlich veröffentlichten Buch „Mein Kopf gehört mir“. Dieses beginnt mit dem Zitat: „Immer schon war ich anfällig dafür, Dinge auszuprobieren, die mir nicht guttun.“ Was sie damit meint, sind mehrere Experimente, die sie mit sich selbst durchgeführt hat, um herauszufinden, was sich in ihrem Gehirn eigentlich abspielt.

Künstliche Intelligenz
KI und Brainhacking: Im 21. Jahrhundert trifft Technologie auf das Gehirn. Miriam Meckel hat ihr eigenes Hirn getestet.

Miriam Meckels Selbstversuche

Sie erläutert zwei Beispiele aus ihrem Buch. Das erste Experiment ist der Reizentzug. Dafür schließt sie sich 24 Stunden in eine Dunkelkammer im Kellergeschoss der Hochschule Zürich. Völlige Dunkelheit, Stille. Als erstes stellt sich Langeweile ein. Gefolgt von Nervosität über Fantasien bis hin zu wahnhaften Rezeptionen und Halluzinationen. Sie beschreibt das Gefühl wie ein Drogentrip ohne Drogen. „Reizentzug führt zu Irritationen des Gehirns. Ich war beeindruckt, welch kreative Kraft ausgelöst werden kann und wie die Nervenzellen anfangen zu feuern, wenn äußere Reize ausfallen.“

Das zweite Experiment: In den USA hat Miriam Meckel das Lifestyle-Produkt Thynk getestet, mit dem man das Gehirn beeinflussen kann. Dazu bringt man ein Gerät mit zwei Sensoren am Kopf an, über eine App steuert man dann Stromzufuhr aufs Gehirn. Es gibt verschiedene Programme, von Entspannung über Konzentrationsförderung bis hin zu Aktivitätsstimulation. Sie wählt „Activity“ mit erheblichen Nebenwirkungen: Übelkeit, 36 Stunden keinen Schlaf, Gesichtsverzerrungen. „Meine größte Erkenntnis aus diesem Selbstversuch war, dass das Gehirn ein sehr sensibles Organ ist. Es ist das Tor zum innersten Kern der Persönlichkeit. Damit muss man behutsamer umgehen, als man das vielleicht mit anderen Körperteilen tut.“ Sie erfährt Grenzen am eigenen Körper, die durch Gehirnmanipulation entstehen können.

Das menschliche Gehirn im Visier

Technologischer Fortschritt ist längst im Gehirn angekommen.  Was uns nicht bewusst ist: Alle digitalen Services der Internetriesen GAFA sind Produkte der Gehirnforschung. Mögen es anfangs noch Algorithmen gewesen sein, heute stehen lernende Systeme dahinter, die wie unser Gehirn funktionieren. Und sie lernen ständig durch die tägliche Nutzung von Millionen von Usern hinzu und werden besser. Künstliche Intelligenz macht es möglich. Miriam Meckels These ist, dass es in Zukunft eine Verbindung von menschlicher und künstlicher Intelligenz geben wird. Die nächste Evolutionsstufe wird sein, unser Gehirn direkt an die Technologien anzuschließen. Medizinische Forschung zeigt, dass das technologisch möglich ist. Es gibt Forschungsprojekte, bei denen Querschnittsgelähmte über Gedanken einen Roboterarm bewegen können. Für die Medizin ein Riesenfortschritt.

Kritisch wird es dann, wenn die Entwicklungen in Richtung Massenmarkt gehen. Mark Zuckerberg hat im Sommer 2017 angekündigt, ein Gerät entwickeln zu wollen, mit dem man Textnachrichten ins Handy "reindenken" kann, mit einer Geschwindigkeit von 100 Worten pro Minute. Elon Musk will mit der Firma Neuralink datenleitfähige Substanzen über das menschliche Gehirn legen. Das große Ziel: Hirn-Computer-Schnittstellen. Die Vision: Im Jahr 2050 werden Menschen vernetzt über Implantate – drahtlos - an eine intelligente Cloud angeschlossen sein. Das Horrorszenario schlechthin: Das menschliche Gehirn als nächstes Geschäftsmodell des Silicon Valley.

Neue Formation des Menschseins

Klingt alles nach Science Fiction? Dass die Kapazität unseres Gehirns begrenzt ist und Künstliche Intelligenz diese Grenze schon heute überwinden kann, zeigt kein besseres Beispiel als die Google-Software AlphaGO. Die selbstlernende KI-Software im Brettspiel „GO“ hat das menschliche Gehirn längst abgehängt. Es schlägt binnen kürzester Zeit nicht nur den Internationalen Champion Lee Sedol im Brettspiel GO, sondern wird selbst immer besser. Warum das so ist, können wir Menschen nicht mehr nachvollziehen. Es ist eine Blackbox. Wir wissen nur, dass es so ist.

Menschen sind dafür empfänglich, immer leistungsfähiger und effizienter werden zu wollen. In den USA sei es laut Meckel beispielsweise unter Studenten an den Universitäten gang und gäbe, das Medikament Ritalin einzunehmen, um das Denken und die Konzentration beim Lernen und bei Prüfungen zu verbessern. Wenn uns nun Künstliche Intelligenz dabei unterstützt, unsere Leistungsfähigkeit zu steigern, dann wird der technologische Fortschritt auch in diese Richtung weiter vorangetrieben.

Miriam Meckel ist davon überzeugt, dass es eine Verbindung von Biochemie des menschlichen Wesens und Technologie in Zukunft geben wird. Wie das Zusammenspiel von neuronalen und digitalen Netzen aussehen wird, kann heute keiner vorhersehen. Wir müssen mit der Entwicklung verantwortungsvoll umgehen. Dazu gehört in erster Linie, sich mit dem Thema auseinanderzusetzen und sich die richtigen Fragen zu stellen. Was ist mit der Privatheit der Gedanken? Was ist mit der Integrität der Persönlichkeit? Wo kann Künstliche Intelligenz uns das Leben erleichtern? Wo stellt es eine Gefahr dar? Wie ist es dann um unsere Selbstbestimmung bestellt? Wie schützen wir uns vor Manipulation und Missbrauch? Was Miriam Meckel fordert, ist Aufgeklärtheit: „Wir müssen uns darüber bewusst sein, dass wir Menschen nicht auf ewig Herr unseres Oberstübchens sind. Es gibt dafür keine Bestandsgarantie. Wenn wir das Gehirn als Refugium behalten wollen, dann müssen wir uns darum kümmern.“