KI in der Personalarbeit: Gesetze? Selbstverpflichtungen? – Unternehmenskultur!
Künstliche Intelligenz (kurz: KI) ist einer der stärksten Treiber der Digitalen Transformation. Die Grundidee: von Algorithmen gesteuerte Maschinen erledigen bestimmte Aufgaben schneller und akkurater als Menschen, die dadurch mehr Zeit für andere Tätigkeiten haben. Auch im Recruiting und in der Mitarbeiterentwicklung kommt KI immer häufiger zum Einsatz. Laut einer Studie des Bundesverbands der Personalmanager (BPM) und des Ethikbeirats HR Tech nutzen rund 30 Prozent der Unternehmen bereits KI-basierte Technologie oder planen es in naher Zukunft. Die beliebtesten Einsatzfelder unter Personaler*innen sind demnach die Optimierung von Stellenanzeigen und Karriereseiten, die Analyse von Lebensläufen und der Einsatz von Chatbots, etwa um potentielle Kandidat*innen gezielt zu passenden Angeboten des Unternehmens zu lotsen. In der Personalentwicklung haben Skill Matching, interessenbasierte Jobempfehlungen und die interne Vernetzung von Mitarbeitenden in den vergangenen Jahren an Bedeutung gewonnen. Es sind eigene Stellen und Rollen für „People Analytics“ entstanden, der gezielten Auswertung der Daten, die durch die Interaktion zwischen Mensch und Technologie im Unternehmen gesammelt werden. Sie können wertvolle Informationen z.B. über vorhandene Skills, Bedürfnisse und Lerninteressen im Unternehmen liefern und HR-Mitarbeitenden so als Entscheidungsgrundlage dienen.
Zwischen Gütesiegel und Gesetz
Gleichzeitig verursacht der zunehmende Einsatz von KI bei vielen Menschen Unbehagen und Unsicherheit. Mit großen Datenmengen entsteht große Verantwortung – und die Frage, wie viel Entscheidungsmacht wir Algorithmen geben wollen und sollten. An welchen Punkten ist es gut, den “Faktor Mensch” zugunsten (vermeintlich) objektiver Entscheidungen auszuhebeln? Und wo ist das, was Menschen von Maschinen unterscheidet unabdingbar? Sind Mensch und Maschine, und damit auch Vorurteile und Maschinen, untrennbar miteinander verbunden? Und was, wenn selbstlernende Maschinen irgendwann so gut sind, dass sie den Menschen, der sie geschaffen hat, überholen und manipulieren? Diese Fragen werden hörbar, allerdings in unterschiedlicher Lautstärke. Tech-Start-ups nutzen vor allem begeistert die neuen Möglichkeiten, die digitale Technologien bieten, um z.B. das (Arbeits-)Leben möglichst vieler Menschen zum Positiven zu verändern. Dabei wählen sie pragmatische Ansätze, um ihrer Verantwortung im Umgang mit Daten bestmöglich nachzukommen, etwa durch strenge Selbstverpflichtungen. Die lauteren Stimmen nach Regulierung kommen dagegen unter anderem aus den Betriebsräten von Unternehmen. Laut der eingangs erwähnten Studie sprechen sich hier 86 Prozent für gesetzliche Regelungen aus, um den Einsatz von KI in Organisationen in kontrollierte Bahnen zu lenken.
Doch sind Gesetze wirklich die einzige erstrebenswerte Lösung? Und kommen sie nicht schon jetzt viel zu spät? Ist die Realität dem Wissensstand der Politik nicht bereits 20 Jahre voraus? Und würde eine Regulierung jegliche Innovation ausbremsen? „Eine Firma wie Apple, die in einer Garage gegründet wurde, könnte bei uns allein schon wegen diverser Garagennutzungsverordnungen nicht entstehen,“ schreibt Veit Dengler in seinem Beitrag für Der Standard. Dabei verweist er zum einen auf die Errungenschaften in puncto Lebensqualität, die die strengen Regulierungen durch die EU uns beschert haben, und warnt zugleich vor Überregulierung als Bremse auf dem Weg in die Zukunft.
“Statt dystopischer Zukunftsszenarien muss die Regulierung die Potenziale von KI in den Mittelpunkt rücken,“ sagt auch Nicole Formica-Schiller, Vorstandsmitglied des KI Bundesverbandes. Dieser Verband, unter dessen Dach sich vor allem Tech-Start-ups zusammengeschlossen haben, hat 2019 ein Gütesiegel für KI auf den Weg gebracht, mit dem sich die Zertifizierten klare Regeln im Umgang mit KI auferlegen wollen. Ein Jahr später erschienen zudem die Leitlinien des Ethikbeirats HR-Tech für die verantwortungsvolle Nutzung von Mitarbeiterdaten. Eine Umfrage unter Betriebsräten aus dem Jahr 2021 zeigte, dass sich zwar 80 Prozent entsprechende Leitlinien wünschen, die vorhandenen Empfehlungen aber nur vier Prozent der Betriebsratsmitglieder bekannt sind. Und eine grundsätzliche Frage bleibt: Wer kontrolliert die Einhaltung der Richtlinien? Wer hat das nötige Wissen, um immer komplexer agierende KI-Systeme zu durchdringen? Wie kann Rechtssicherheit geschaffen werden in Bereichen, deren zukünftige Entwicklung kaum vorhersehbar ist, weil die Technologie der Politik Jahrzehnte voraus ist?
KI und Menschlichkeit gemeinsam denken
Selbstverpflichtungen sind ein wichtiger erster Schritt. Gleichzeitig können Unternehmen einen weiteren starken Hebel bedienen, um in Übergangsphasen wie der aktuellen nicht zum Abwarten verdammt zu sein: ihre Unternehmenskultur. Sie können mutig vorangehen und die bestmöglichen Voraussetzungen schaffen, um den technologischen Wandel mitzugestalten. Wie?
- Statt sich von Ängsten leiten zu lassen, können sie zunächst die wunderbaren Chancen für mehr Menschlichkeit in den Fokus nehmen, die neue Technologien bieten. Yannik Leusch, People Analytics Lead bei Kienbaum, hat das an anderer Stelle auf unserem Blog thematisiert: “(…) Leider ist es noch oft so, dass viele bei People Analytics oder data-driven HR reflexartig an intransparente Algorithmen denken, die automatisierte Entscheidungen über Mitarbeitende treffen. (…) Wir möchten für einen neuen mitarbeiter-zentrierten, transparenten, selbstbestimmten und verantwortungsbewussten Umgang mit HR-Daten plädieren, denn Daten können als zusätzliche Grundlage für Entscheidungen Personalarbeit im Sinne der Belegschaft inhaltlich massiv verbessern.”
- Alle Antworten bereits kennen zu müssen, ist ein Anspruch, der nicht zu erreichen ist. Vielmehr sollten Unternehmen jetzt die richtigen Fragen stellen und gemeinsam mit Mitarbeitenden und Kund*innen Schritt für Schritt die richtigen Antworten finden. Alle Fragen, Antworten und offenen Enden könnten dabei öffentlich einsehbar sein, sodass Nutzer*innen sich selbst ein Bild machen können, wo das Unternehmen in puncto KI und Datennutzung steht. Eine Art Handelsregisterauszug für den Umgang mit KI.
Beispiele für Fragen:
- Wie sicher sind die von Ihrem algorithmischen System getroffenen Entscheidungen?
- Gibt es bestimmte Gruppen, die durch den Algorithmus, den Sie entwickeln, in dem Kontext, in dem Sie ihn einsetzen, begünstigt oder benachteiligt werden könnten?
- Wie groß ist die potenziell schädliche Wirkung von Unsicherheiten/Fehlern auf verschiedene Gruppen?
- Wer ist verantwortlich, wenn Nutzer durch das Produkt geschädigt werden?
- Wie sieht das Meldeverfahren und der Regressprozess aus?
- Welche Fehlerquellen gibt es und wie werden Sie deren Auswirkungen abschwächen?
- Wie viel von den Datenquellen können Sie offenlegen?
(Quelle: Principles for Accountable Algorithms and a Social Impact Statement for Algorithms)
- Unternehmen dürfen die Beschäftigung mit KI nicht allein den „Nerds“ überlassen. Sie brauchen eine offene Diskussion über die verantwortungsvolle Nutzung von Algorithmen und Daten in der Breite der Belegschaft. Und eigene Rollen, die diese Diskussion forcieren, moderieren und dokumentieren. Die sich an der Schnittstelle von Technologie und Kultur bewegen. Eine*n “Chief of Technology and Ethics” zum Beispiel.
- Zeit für Reflektion sollte fest im Unternehmen verankert werden. Mitarbeitende brauchen Zeit und geschützte Räume, um (kritische) Fragen zu stellen und sich mit den eigenen Vorurteilen auseinanderzusetzen. Regelmäßige BarCamps, wie unsere “Open Wednesdays“, die regelmäßig ausschließlich zum Thema KI stattfinden könnten, sind eine tolle Möglichkeit, um alle Mitarbeitenden in die Diskussion einzubinden, verschiedenste Perspektiven und Argumente zu sammeln und blinde Flecken zu erkennen.
- Unternehmen sollten mehr Zeit für internes Lernen in ihre Personalplanung einberechnen. Die Themen, mit denen Mitarbeitende sich auseinandersetzen müssen, werden zusehends komplexer. Sollen HR-Mitarbeitende KI nutzen, müssen sie die Technologie verstehen lernen und neue Kompetenzen in der Auswertung von Daten erwerben. Das Gleiche gilt für Mitglieder des Betriebsrates. Der Arbeitsalltag der Zukunft wird zu einem großen Teil von (bezahltem) Lernen bestimmt sein. Hier braucht es entsprechende Signale aus der Unternehmensleitung und neue, offene und flexible Strukturen, in denen das möglich ist.
- Diversität ist so wichtig wie nie zuvor. Eine durch Vielfalt charakterisierte Belegschaft erlaubt es, möglichst viele Erfahrungswerte, Kenntnisse und Blickwinkel in die Diskussion um eine ethische Datennutzung einzubeziehen und (unbewussten) Vorurteilen entgegenzuwirken.
- Jobsharing sollte Normalität in allen Unternehmensbereichen werden. Das „Vier-Augen-Prinzip“ sorgt dafür, dass Entscheidungen immer von mindestens zwei Perspektiven geprägt sind. Weitere Lern- und Vernetzungsformate, wie Mentoring, Jobshadowing oder Peer-Learning, fördern eine Kultur, in der der eigene Standpunkt nicht als das Maß der Dinge betrachtet wird. Nicht für sich, nicht für andere Menschen und nicht für Maschinen.
KI ethisch zu entwickeln und zu nutzen, kann nur gemeinsam gelingen, mit allen Akteur*innen aus Wirtschaft, Wissenschaft, Politik und Zivilgesellschaft. Unternehmen können dabei die Rolle der Macher übernehmen, die im Wettstreit um die besten Lösungen immer wieder neues Terrain austesten, ethisch gestützt durch eine offene und zutiefst menschliche Unternehmenskultur.