Die grösste Verschwendung besteht im Versagen, die Fähigkeiten der Menschen zu nutzen. — Edward W. Deming

Zusammenfassung

  • KI-Anwendungen können in Unternehmen, in der Verwaltung und natürlich auch in verwaltungsnahen Unternehmen sinnvoll eingesetzt werden. Der Einsatz eines computerunterstützten Algorithmus zur Unterstützung der Berater beim AMS muss deshalb nicht per se negativ bewertet werden.
  • KI-Anwendungen sind wegen inhärenter Beschränkungen nicht so “intelligent”, wie man es annehmen könnte, ihr Einsatz nicht so ohne weiteres sinnvoll und hilfreich. Dies betrifft alle derzeit existierenden Ausprägungen von KI, also auch regelorientierte und statistische Systeme, wie beim AMS vorgesehen.
  • KI stellt eine Form radikaler Automatisierung (Sascha Lobo) dar. Um eine konkrete KI-Anwendung rechtlich konform und nachhaltig nutzen zu können, müssen bestimmte Rahmenbedingungen beachtet werden. Diese lassen sich heute nur indirekt aus existierenden Rahmenwerken ableiten (Datenschutz, Informationssicherheit, Organisationspsychologie). Konkrete technische und rechtliche Standards sind in Ausarbeitung.
  • Der Einsatz des AMS-Algorithmus in der kolportierten Form erscheint fragwürdig und sollte nach ethischen und rechtlichen Gesichtspunkten überprüft werden: Das KI-Modell und die Datenbasis müssen lösungsadäquat sein, die Berater die Entscheidungsführung behalten, die Betroffenen unter Umständen Widerspruchsrechte erhalten.
  • Ob die statistische Klassifizierung von Arbeitssuchenden nach äusseren Merkmalen und Vergleiche zur Heilung von Krankheiten den Aufgaben des AMS wirklich gerecht werden können, erscheint zumindest diskutierfähig. Die Entscheidung darüber ist aber eine politische und dem AMS, seinem Management und dem Bund als Eigentümer vorbehalten.

Kreditunwürdigkeit eines Notebankpräsidenten?

Ben Bernanke staunte nicht schlecht: An seine acht Jahre als Chef der amerikanischen Notenbank, der FED, wollte er im Jahr 2014 mit einer Karriere als Top-Berater anschliessen. Dank der Erfahrungen aus dieser Tätigkeit, mit den weltweiten Qualitätskontakten, mit tiefstem Know-how über das Funktionieren der weltweiten Geldmärkte und des Finanzwesens, und mit der Aussicht auf Honorare von bis zu 250.000,- USD, angeblich für einen einzigen Fachvortrag sowie mit einem frisch unterschriebenen lukrativen Autorenvertrag in der Tasch ein sehr vielversprechendes Unterfangen.

Seine Bank verweigerte ihm dennoch die Refinanzierung einer überschaubaren Hypothek auf sein Haus, mit der er diese persönliche Neuausrichtung finanziell anschieben wollte. Die Grund dafür: Ein Algorithmus hatte Bernanke durch den Wechsel vom öffentlichen Dienst in eine freie Tätigkeit als Risikoschuldner bewertet und die Aussicht eines Kreditausfalls für die Bank als zu hoch eingestuft.

Solche Scoring-Systeme, wie sie nun auch das österreichische AMS einsetzen werden, haben also ihre Tücken. Während beim sogenannten “machine learning” neuronale Netze vorweg kalibriert und zur Laufzeit mit einer dynamischen Eigenvariabilität des Computers ausgewertet werden, arbeitet der Computer hier “kondensiertes Expertenwissen” in Form von hinterlegten Daten und einem Algorithmus ab. Damit ist von vornherein eindeutig festgelegt, nach welchen Kriterien der Computer bzw. die “künstliche Intelligenz” entscheiden wird. Mögliche Ergebnisse sind in diesem Fall also schon im Vorhinein fix einprogrammiert (begrenzte Varietät).

Unerwartete, nicht nachvollziehbare oder gar unerwünschte Ergebnisse, wie sie bei kalibrierten neuronalen Netze drohen können, sind ausgeschlossen. Aus Sicht der Informationssicherheit und der Nachvollziehbarkeit ist das natürlich vorteilhaft.

KI verkürzt die Wirklichkeit

Wie bei allen KI-Anwendungen wird dabei allerdings auch von einer Annahme, einem künstlichen Modell der Wirklichkeit ausgegangen. Ein solches Modell vereinfacht naturgemäss stark. Es definiert einen sehr kleinen virtuellen “kognitiven Entscheidungsraum”, der eine minmale Teilmenge der ganzen, für Menschen zugängliche Realität abbilden möchte. Egal wie aufwändig dieser Entscheidungsraum ausgestaltet ist, er funktioniert immer entsprechend der hinterlegten syntaktisch formulierten Funktionalität, also regelbasiert, nach logischen oder statistischen Grundsätzen, Mangels eines Körpers und eigener Wahrnehmungsfähigkeit ist er zudem nur bedingt kontextsensitiv ausgestaltbar.

Computer sind keine sozialen Wesen

Soziale Realitäten sind Menschen vertraut, beim Einsatz von KI bleiben sie aussen vor: Computer sind keine sozialen Wesen. Sinnhaftigkeit, Semantik und Intentionalität, als Bedeutung von Begriffen und von Symbolen bleibt exklusiv bei den Menschen, die es aufsetzen und nutzen. Von angemessenen Reaktionen auf die jeweilige Situation hat eine solche Anwendung nicht die geringste Ahnung. Es versteht nichts, es funktioniert nur im Rahmen des Modells.

Unfälle durch Luftballons

Ein klassisches Beispiel: Ein Kind wartet an einem Zebrastreifen mit einem grünen Luftballon, der dadurch zufällig vor einer roten Verkehrsampel schwebt — und schon fährt das autonome Auto ungehemmt weiter, weil der Algorithmus das Muster für eine grüne Ampel hält. Auch wenn dieses konkrete Problem natürlich durch Zusatzregeln bei der visuellen Auswertung gelöst werden kann, so ändert das nichts daran, dass die soziale Offenheit unserer menschlichen Realität von einer KI nie auch nur ansatzweise nachvollzogen und verstanden werden kann.

Es ist deshalb auch nur logisch, dass neue Ansätze zur Steuerung autonomer Fahrzeuge lieber auf KI verzichten und auf die direkte technische Kommunikation des Fahrzeug mit der Ampel setzen (Vehicle to X communication, V2X).

Man könnte diese immanente Beschränkung von KI gewissermassen als digitalen Autismus bezeichnen, aber selbst das wäre viel zu hoch gegriffen, ist Autismus doch eine viel komplexere menschliche Eigenschaft und damit für KI unerreichbar.

So objektiv wie ein Esel

Häufig wird dieser technische und sinnentleerte “Tunnelblick” der künstlichen Intelligenz positiv bewertet und als vermeintliche Objektivität fehlgedeutet. Objektivität setzt allerdings subjektive Nachvollziehbarkeit voraus.

Einem störrischen Esel würde allerdings niemand Objektivität attestieren. Auch er hat ein beschränktes Verhaltensmodell, allerdings — und im Unterschied zu einer KI-Anwendung — vermutlich selbst einen Grund, für das was er macht oder eben nicht macht, selbst wenn dies für seinen Besitzer rätselhaft bleiben mag.

Einsatzbedingungen für KI

Was uns fehlt und was ich im Rahmen eines Projekts im DACH-Raum mit entwickle, sind verbindliche ethische, technische und rechtliche Rahmenbedingungen für den sinnvollen Einsatz von KI, insbesondere für den Einsatz solcher Scoring-Algorithmen.

Aus rechtlicher Perspektive treten durch solche Systeme ja Entscheidungsquellen in den Raum, die von der Rechtsordnung und der Verwaltungsorganisation bisher nicht vorgesehen waren. Der Einsatz von KI für das Verwaltungshandeln bedarf deshalb einer rechtlichen Grundlage, sie kann wegen ihrer Beschränkungen und möglicher unerwünschter Auswirkungen nicht einfach als Verwaltungsautonomie toleriert werden. Wird dies nicht respektiert, droht eine Entwertung zentraler Rechtsgrundsätze, wie der Positivität des Rechts und dem Stufenbau der Rechtsordnung durch rechtsfremde Automatismen. Von der Abhängigkeit der Softwareproduzenten dahinter ganz abgesehen.

Die DSGVO hat diese Themen in Art 22 leider nicht problemadäquat geregelt, was zu Unschärfen führt. Immerhin lassen sich aus Standards zur Informationssicherheit (ISO 27001), die auf fundierte Risikoanalysen (!) setzen, sinnvolle Massnahmen ableiten.

Maschineller Paternalismus

Dass AMS-Berater und Beraterinnen lediglich aus “normierten Gründen”, gegen Entscheidungen des Systems handeln können, dürfte schon genügen, die Beraterin und den Berater auszubremsen und dem maschinellen Paternalismus nachzugeben. Eine solche Lösung entwürdigt also im schlimmsten Fall nicht nur die betroffenen Arbeitssuchenden, sondern — und schneller als man Hinsehen kann — auch die im AMS tätigen Menschen.

Das menschliche Handeln muss deshalb die Oberhand behalten, der Berater und die Beraterin auch ohne Begründung dagegen entscheiden können.

autonomisiertes Arbeiten

Analogien zum legendären “Jidoka” des Lean Toyota Produktionssystem sind nicht zufällig. Es sah vor, dass jeder Mitarbeiter angehalten war, bei einem blossen Verdacht auf mögliche Probleme jederzeit das Fliessband zu stoppen. Bedenkt man die Kosten eines Produktionsausfalls eine beachtliche Verantwortung und ein hoher Respekt, die hier jedem einzelnen zugestanden wurden. Das Wort Jidoka paraphrasierte das japanische Wort “Automatisierung” hin zu “autonomisiertem” bzw. “ungezwungenen Arbeiten”. Genau darum geht es auch hier…

Ein weitere Grund, menschliche Handeln im Einzelfall nicht nur in “normierten Einzelfällen” vorzusehen, besteht mit Bezug auf KI darin, dass Menschen solchen Systemen regelmässig Eigenintelligenz zuschreiben, die gar nicht vorhanden ist (Antromorphismus), sie sich also selbst bei Kleinigkeiten notorisch unter einem eigentlich durch überhaupt nichts gerechtfertigen Argumentationszwang fühlen, und weil das “nudging” am Arbeitsplatz durch solche Systeme sonst durch KI technisch instutitionalisiert wird.

Während die Beeinflussung des Rechtssystems und des Verwaltungshandelns durch Lobbyismus, Korruption und Dokumentenfälschung streng verpönt, reguliert und strafrechtlich sanktioniert wird, werden KI Systeme aus der ungerechtfertigten Sorge, zurück zu fallen (Fear Of Missing Out — FOMO), als Wundermittel zur Digitalisierung und Effizienzsteigerung gesehen. Die Effizienzsteigerung kann zwar tatsächlich zu einer höheren Efffizienz durch die so bewirkte radikale Automatisierung (Sascha Lobo) führen, aber nur deshalb, weil das künstliche Modell eben die Wirklichkeit stark verkürzt und Zeit- und Kosteneinsparung über alles gestellt wird.

Entscheiden sollte in einem demokratischen Rechtsstaat aber nicht alleine Wirkungseffizienz, sondern auch die rechtliche, die soziale und nicht zuletzt die Werteadäquanz des Modells.

Arbeitslosigkeit als Krankheit?

Durch den Vergleich mit medizinischen Anwendungen macht der Geschäftsführer des AMS bezogen auf den Einsatz des AMS Algorithmus klar, welches Modell und welche Strategie zu Grunde liegen. Er setzt so indirekt Arbeitslosigkeit mit Krankheit gleich, für die therapeutische Massnahmen gesetzt werden sollen. Die “Heilungschancen” können demnach statistisch prognostiziert werden.

Das Problem wird also individuell den betroffenen Personen zugeschrieben, auf mögliche Selbstheilungskräfte verzichtet, die Massnahmen statt dessen einheitlich von oben verordnet.

Anstatt die Möglichkeiten emergenter Technologien zu nutzen, um z. B. eine hochgradig individualisierte und granulare Beratung mit Bezug auf die Arbeitssuchenden anzubieten oder die inhaltlichen Hebel zu bedienen, die schwierig zu ändern aber offenkundig sehr erfolgsversprechend wären (regionale Unterschiede z. B.), wird KI offenbar genutzt, um weiter Quantität über Qualität zu setzen. So wie es ja auch den berüchtigt flachen Kursen des AMS vorgeworfen wird, die im schlimmsten Fall lediglich als Arbeitsbeschaffung für die jeweiligen Kursleiter wirken, nach dem Billigstprinzip vergeben werden, und durch die die Arbeitslosenstatistik geschönt wird, weil die Kursteilnehmer während der Kurslaufzeit dort nicht mitgezählt werden.

Paradoxerweise geben ausgerechnet die neuen Programme des AMS Anlass zur Hoffnung. In deren Genuss kommen genau diejenigen, die vom Algorithmus in das Drittel mit sehr niedrigen Chancen einsortiert werden. Diese Programme setzen auf niedrigschwellige soziale Stärkung und auf Selbststärkung.

Immerhin fanden dort nach Medienberichten fast 1/3 der Betroffenen wieder Arbeit, obwohl sie eigentlich NICHT weiter gefördert werden. Sie werden nicht den üblichen “Druckroutinen” ausgesetzt und trafen sich lediglich freiwillig zum Yoga oder zur Gymnastik. Wenngleich die Nachhaltigkeit und Skalierbarkeit dieser Modell wohl noch entwickelt werden muss, wäre cum grano sali also allen Betroffenen eigentlich zu wünschen, dass der Algorithmus sehr häufig stark daneben liegt, sie aussortiert werden, damit möglichst viele in den Genuss dieser alternativen Methoden kommen, die das AMS erfreulicherweise auch anbietet.

“Wer ein Unternehmen nur nach sichtbaren Zahlen ausrichtet, wird mittelfristig weder ein Unternehmen noch Zahlen haben”, so Edward W. Deming, Erfinder des Qualitätsmanagements und der Kopf hinter dem Aufstieg von Toyota zum Weltkonzern seit den 1970er Jahren. In seinem Red Bead Experiment auf Youtube deckte er schonungslos die entwürdigen Auswirkungen eines zahlenfixierten Managements auf, gerade auch was die dadurch sinkende Gesamtproduktivität der ganzen Organisation betrifft. Ganz abgesehen vom AMS-Algorithmus wäre beim AMS also noch viel mehr Luft nach oben, um die Menschen die dort arbeiten und Unterstützung benötigen und damit uns alle weiter zu bringen. Als Unternehmen unter direktem politischen Einfluss liegt das freilich wohl mehr in der Verantwortung der Politik als beim eigentlichen Management.

Verweise