Autor: Prof. Dr. Philipp B. Donath
Autor: Dr. Andreas Engelmann
Die Einführung von Künstlicher Intelligenz in Betrieben sollte stets partizipativ erfolgen. Sie birgt Chancen, aber auch Gefahren für die Rechte der Beschäftigten. Um diese Gefahren, insbesondere im Bereich Antidiskriminierung, Datenschutz sowie im Arbeits- und Gesundheitsschutz erkennen und ihnen wirksam begegnen zu können, ist das Bestehen eines Betriebsrats von entscheidendem Vorteil. Der vorliegende Beitrag zeigt teilweise schwer zu erkennende Gefahren für die Rechte von Beschäftigten und die rechtlichen Möglichkeiten von Betriebsräten auch im Vergleich zum individuellen Vorgehen einzelner Beschäftigten auf.
Die Einführung von KI im Unternehmen unter Beteiligung der Beschäftigten
Rechtlicher Rahmen, kollektive und individuelle Handlungsmöglichkeiten
Themen der Digitalisierung und Automatisierung haben lange Konjunktur. Seit einigen Jahren geraten dabei Systeme ins Blickfeld, denen eine eigene Intelligenz zugeschrieben wird, eine sog. „Künstliche Intelligenz“. Sie verspricht, Arbeitsprozesse zu erleichtern und monotone Arbeit zu reduzieren. Gleichzeitig ist sie mit Ängsten verbunden, weil ihre Funktions- und Wirkungsweise nicht transparent nachvollzogen werden kann und der Wegfall von Arbeitsplätzen droht. Um dem Ziel einer menschengerechten Gestaltung der Arbeit gerecht zu werden und Sorgen von Beschäftigten einzufangen, empfiehlt es sich, die Einführung und Nutzung von KI-Anwendungen in Unternehmen partizipativ zu gestalten – im Wege eines Dialogs zwischen Unternehmen, Beschäftigten und ihrer Interessenvertretungen.
I. „Black Box“ KI? Rechte erkennen
Die erste Herausforderung besteht bereits darin, KI-Applikationen zu erkennen: Chatbots für Mitarbeiterfragen, eine automatisierte Vorauswahl von Bewerber:innen, Sprachanalysen von Bewerber:innen oder Beschäftigten, die Automatisierung von wiederkehrenden Büroaufgaben, wie die Zuordnung von E-Mails zu laufenden Vorgängen, (task automation), datenbasierte Prognose über die Personalentwicklung oder Leistungskontrollen mit Echtzeit-Daten sind mögliche Anwendungsfelder künstlicher Intelligenz. Auch in der Industrie finden sich weitreichende Anwendungsbereiche: Die Steuerung der Stromnetze, das autonome Fahren von Autos und Zügen, der 3D-Druck oder die Steuerung von hochpräzisen Maschinen, aber auch die Verkehrsüberwachung bei der Mauterfassung erreichen ihre betriebsnotwendige Funktionalität nur durch digitale Systeme. Aber was davon ist noch „normale“ Digitalisierung und was ist „künstliche Intelligenz“? Und wann kommt es auf diese Unterscheidung überhaupt an?
Rechte der Beschäftigten greifen häufig auch dann, wenn es nicht um künstliche Intelligenz im technischen Sinne geht. Persönlichkeitsrechte, Datenschutz sowie Arbeits- und Gesundheitsschutz der Beschäftigten, Informations-, Beratungs- oder Mitbestimmungsrechte von betrieblichen Interessenvertretungen sind nicht auf das Feld der künstlichen Intelligenz beschränkt. Lediglich dort, wo das Gesetz besondere Rechtsfolgen an die Einführung „künstlicher Intelligenz“ knüpft, kommt es auf die Abgrenzung an. Dann tritt das Problem auf, dass es trotz einer Vielzahl von Regelungsansätzen weiterhin an einer allgemein akzeptierten Definition von künstlicher Intelligenz fehlt. Teilweise wird das darauf zurückgeführt, dass wir schon gar nicht genau wissen, was überhaupt „Intelligenz“ ist. Um nicht zu abstrakt zu werden, kann als Merkmal einer künstlichen „Intelligenz“ die Fähigkeit zum „eigenständigen Lernen“ herangezogen werden.1 Künstliche Intelligenz „lernt“ auf der Grundlage von Daten und ist auf dieser Basis in der Lage, Entscheidungen zu treffen, die so nicht bereits vorab programmiert wurden. Sie vollzieht nicht nur einen feststehenden Plan (Algorithmus), sondern handelt ein Stück weit „autonom“. Wie weit das im Detail gehen muss, ist umstritten.2 Jedenfalls ergibt sich daraus nach zutreffender Ansicht die Notwendigkeit, den regulativen Rahmen anzupassen – auch konkret im betrieblichen Zusammenhang.
II. Einführung neuer digitaler Systeme unter Einbeziehung der Arbeitnehmenden
Die Gestaltung der Arbeit im Betrieb sollte grundsätzlich auf einem Dialog beruhen, der die Erfahrungen der Beschäftigten einbezieht und nutzt. Das liegt im Interesse einer bewussten und nachhaltigen Unternehmensführung, die diese Wissens- und Erfahrungsquelle ausschöpft und Veränderungsprozesse vorbereitet und transparent macht. Das verhindert Belastungen und fördert die Mitwirkung der Betroffenen. Ohne betriebliche Mitbestimmungsstrukturen sind die Beschäftigten darauf angewiesen, dass die Unternehmen vor der Einführung neuer Systeme von sich aus Arbeitnehmende beteiligen und beispielsweise Mitarbeitendenbefragungen durchführen.
Anders ist die Situation, wenn eine betriebliche Interessenvertretung existiert. Der Betriebsrat3 ist über Veränderungen der Arbeitsabläufe vorab in Kenntnis zu setzen und hat Beratungs-, Informations- und Mitwirkungsrechte.
Das heißt zunächst: er ist umfassend zu informieren, anzuhören und kann bei Einführung und Nutzung von beratend tätig werden. Dies bestimmt § 90 Abs. 1 Nr. 3 BetrVG für die Einführung und Nutzung von KI-Systemen ausdrücklich.4 Aber auch darüber hinaus greift die Norm, wenn es um die Gestaltung von Arbeitsverfahren und Arbeitsabläufen geht. Fraglich ist dabei lediglich, in welcher Tiefe der Betriebsrat Informationen zur Einführung neuer bzw. auf die Veränderung bereits verwendeter IT-Systeme vom Arbeitgeber verlangen kann. Der Arbeitgeber kann sich jedenfalls nicht darauf berufen, dass ihm bestimmte Funktionsweisen der KI oder die eingesetzten Datensätze selbst unbekannt seien und er entsprechende Informationen nicht bereitstellen könne. Sind die Informationen nicht vorhanden, müssen sie gegebenenfalls bei einem Dritten eingeholt werden.
Aus § 111 BetrVG folgen noch einmal spezielle Informationsansprüche in Bezug auf anstehende Betriebsänderungen. Der Arbeitgeber muss den Betriebsrat rechtzeitig und umfassend informieren, wenn eine geplante Betriebsänderung wesentliche Nachteile für erhebliche Teile der Belegschaft zur Folge haben kann.5
Neben die Beratungs- und Informationsrechte treten zudem „echte“ Mitbestimmungsrechte. So ist die Einführung von digitalen Systemen, die zur Leistungs- und Verhaltenskontrolle eingesetzt werden können, wegen des Mitbestimmungsrechts aus § 87 Abs. 1 Nr. 6 BetrVG ohne Beteiligung des Betriebsrats nicht möglich. Umfassende Mitbestimmungsrechte hat der Betriebsrat auch hinsichtlich gesundheitlicher und ergonomischer Aspekte der Einführung digitaler Systeme oder wenn die KI Einfluss auf das Verhalten im Betrieb hat (§ 87 Abs. 1 Nr. 1, 7 BetrVG). Der Betriebsrat kann somit zwar grundsätzlich nicht mitbestimmen, ob KI überhaupt eingeführt wird, er kann aber sehr weitgehendmitbestimmen, wie KI-Systeme eingeführt werden und darüber eine Betriebsvereinbarung abschließen. Er kann somit die Rahmenbedingungen verhandeln und eine rechtskonforme Einführung und Gestaltung von KI-Systemen im Wege der Einigungsstelle erzwingen. Die Betriebsvereinbarung ist bindend und gerichtlich durchsetzbar (§ 77 Abs. 1 BetrVG).
Inhaltlich sind Betriebsräte gehalten, ihre Mitbestimmungsrechte dafür einzusetzen, die Persönlichkeitsrechte der Arbeitnehmenden zu schützen, diskriminierende Funktionsweisen von digitalen Systemen zu verhindern und die Erhebung von sensiblen Daten zu unterbinden. Wo letzteres aus arbeitstechnischen Gründen nicht möglich ist, die Verwertung der Daten zu reglementieren und sind Verbote von Sanktionen gegenüber Arbeitnehmenden zu vereinbaren. Beim Mitbestimmungsrecht des Arbeits- und Gesundheitsschutzes sind nicht nur physische Gefahren durch KI-gesteuerte Anwendungen zu beachten, sondern auch die psychische Belastung durch eine gegebenenfalls ermöglichte intensivere Verhaltens- und Leistungskontrolle, die Unsicherheit über die Nutzung von persönlichen Daten sowie der Belastungsfaktor indirekter Verhaltenssteuerung.
Der Gesetzgeber hat mit dem Betriebsrätemodernisierungsgesetz vom 14.6.2021 (BGBl. I S. 1762) nicht nur den Begriff der künstlichen Intelligenz in das Betriebsverfassungsgesetz aufgenommen, sondern auch klargestellt, dass der Betriebsrat im Zusammenhang mit der Beurteilung von KI-Anwendungen stets das Recht hat, sich sachverständigen Rat zur Hilfe zu holen. Die Heranziehung einer Sachverständigen gilt nun aufgrund gesetzlicher Anordnung immer als „erforderlich“. Die Kosten sind vom Arbeitgeber zu tragen.
Für die Praxis: Gegebenenfalls unter Heranziehung von Sachverständigen sollten bereits vor Einführung neuer KI-Systeme eine Reihe von Fragen angesprochen, diskutiert und bestenfalls gelöst werden. Dabei sollte z. B. geklärt werden, welche Probleme durch die Anwendung einer KI behoben werden sollen, wie die KI in ihrer konkreten Funktionsweise dabei helfen soll, welche Auswirkungen auf die betrieblichen Abläufe von ihr zu erwarten sind, wie sich die Funktionsweise der KI beschreiben lässt und wo Beschäftigtenrechte betroffen sein können.
Vertiefung KI-Karten: KI befindet sich an einer Schnittstelle zwischen Faszination und Abwehr. Auch in größeren Unternehmen können die Datenschutzausschüsse oft nicht abschließend abschätzen, wie sich die Einführung von KI-Systemen auswirken wird, gerade weil die Nicht-Vorhersehbarkeit der Funktionsweise oft der Grund für den technischen Vorsprung der KI ist: Sie lernt (und macht) etwas, was die Anwender:innen nicht bereits wissen (und können). Hier ist es wichtig, frühzeitig Einfluss auf das „gewünschte Ergebnis“ zu nehmen und datenschutz- oder diskriminierungsrechtliche Vorgaben zu beachten. Um der gesetzlichen Pflicht einer Datenschutzfolgenabschätzung nach Art. 35 Abs. 1 DSGVO nachzukommen, wird in größeren Unternehmen bei der Einführung von künstlicher Intelligenz teilweise auf eine strukturierte Dokumentation von möglichen Risiken von KI-Anwendungen und maschinellem Lernen zurückgegriffen, die als KI-Karten bezeichnet werden. Sie sollen dabei helfen, vorab zu erkennen, welche Risiken bei der Anwendung neuer Technologien bestehen und ob die Schwelle eines „hohen Risikos für die Rechte und Freiheiten natürlicher Personen“ erreicht ist. Dafür werden Risiken in eine Hierarchie von sehr hoch bis niedrig eingeordnet. Besonders relevant sind High Risk-Anwendungen (z.B. bei der Einstellung oder in der Ausbildung). Die KI-Karten machen die Anwendungen, den Hersteller und die mitgebrachten Daten der KI transparent. Für die Dokumentation werden die übernommenen Aufgaben, die verwendeten Daten und der Verwendungszweck ermitteln. Ferner sollen Risiken je nach Reifegrad der Anwendung dargestellt, ethische Überlegungen einbezogen sowie Vorsichtsmaßnahmen und Empfehlungen sowie Verantwortliche festgelegt werden. Anhand dieser Karten kann die KI dann partizipativ gestaltet werden. Die Karten können allen Beteiligten helfen. Sie machen die KI für die Arbeitnehmenden transparenter, während die Unternehmen oft ein eigenes Interesse an der Einhaltung der gesetzlichen Bestimmungen und einer transparenten Verwendung von neuen Technologien haben.
III. Schutz von Beschäftigtenrechten und Kontrollrechte nach der Einführung
Bereits bei der Einführung ist darauf zu achten, dass digitale und insbesondere selbstlernende KI-Systeme auch im Verlauf ihrer Nutzung transparent bleiben. Denn nur so lassen sich potenzielle Verletzungen von Schutzrechten der Arbeitnehmenden wirksam erkennen und nachverfolgen, wozu der Betriebsrat nach § 80 Abs. 1 BetrVG gesetzlich verpflichtet ist. Das betrifft insbesondere eine Kontrolle der arbeitnehmerschützenden Regelungen des Datenschutzes sowie des Arbeits- und Gesundheitsschutzes. Ferner muss es dem Betriebsrat möglich sein, seiner Pflicht aus § 75 Abs. 1, 2 BetrVG zur Verhinderung von Diskriminierung und zur Förderung der freien Entfaltung der Persönlichkeit der Beschäftigten nachzukommen. Die Heranziehung von Sachverständigen gilt bei der Erfüllung dieser Aufgaben auch nach Einführung der KI immer dann als erforderlich, wenn der Betriebsrat eine KI-Anwendung beurteilen muss, § 80 Abs. 3 Satz 2 BetrVG.
a. Diskriminierungsfreiheit und AGG
Eine der zentralen Herausforderungen bei der Verwendung von KI-Systemen z.B. im Bereich der Personalarbeit (Einstellung, Ausbildung) besteht darin, dass von KI-Systemen teilweise unbemerkte diskriminierende Wirkungen ausgehen können. Der Einsatz von künstlicher Intelligenz ist im Personalmanagement verbreitet und wird beispielsweise bei Einstellungen herangezogen, wo die Vorauswahl der Bewerber:innen auf Grundlage der Bewerbungsunterlagen einer KI überlassen wird oder die erste Bewerbungsrunde in der Kommunikation mit einem Chatbot besteht. Der Vorteil des Einsatzes von künstlicher Intelligenz besteht in ihrer vermeintlichen Neutralität: Es geht augenscheinlich weniger um Sympathie, sondern eher um festgelegte Kriterien. Aber das ist oft nur der Vordergrund. Weil sich maschinelles Lernen immer anhand von Datensätzen vollzieht – die künstliche Intelligenz „trainiert“ ihr Urteilsvermögen an vergleichbaren menschlichen Urteilen –, übertragen sich auch die Verzerrungen aus den eingebrachten oder erhobenen Daten, was dafür sorgen kann, dass sich diskriminierende Verhaltensweisen in die KI einschreiben und sogar verstärken (sog. feedback-loops). Die von einer KI verwendeten Datensätze spiegeln die Vorurteile und Ungleichheiten einer Gesellschaft wider. Die Datensätze haben einen grundsätzlichen Vergangenheitsbezug und können bestehende Ungleichheiten sogar verfestigen. Ein oft zitiertes Beispiel ist der Zugang zu amerikanischen Elitehochschulen, wo weiße Bevölkerungsteile traditionell überrepräsentiert sind. Lernt eine KI anhand dieser Daten, wird sie das Kriterium „weiß“ als Erfolgsindikator berücksichtigen, obwohl es für sich genommen kein Merkmal für persönliche Eignung ist und die diskriminierende Praxis der Vergangenheit als Maßstab für zukünftige Entscheidungen fortschreibt. Generell stellt sich das Problem, dass ein datenbasiertes Lernen nicht zwischen korrelierenden Daten und einem kausalen Zusammenhang unterscheiden können: Ob eine Eigenschaft ursächlich für den gewünschten Erfolg oder eine zufällige Nebenerscheinung ist, lässt sich auf dieser Ebene nicht erkennen.
Weniger offensichtlich und deswegen auch weniger leicht zu umgehen, sind diskriminierende Entscheidungen, die sich an Stellvertreter-Eigenschaften knüpfen. Wenn eine Software ihre positive Prognose beispielsweise an das häufige Besuchen einer bestimmten deutschen Webseite, z. B. tagesschau.de, knüpft, werden Bewerber:innen aus dem Ausland, die diese Seite eher selten besuchen dürften, benachteiligt. Das Merkmal „Tagesschau“ ist für sich gesehen neutral, knüpft aber als Stellvertreter („proxy“) an eine bestimmte Nationalität oder einen Kulturraum.6 Es entsteht eine mittelbare Diskriminierung. Ebenfalls mittelbar (indirekt) diskriminierend wäre eine KI, die eine negative Prognose an einen erfolgten Wechsel des Nachnamens knüpft. Denn immer noch wechseln mehrheitlich Frauen bei der Eheschließung ihren Familiennamen, die negative Prognose aufgrund dieser Eigenschaft würde deshalb mittelbar Frauen diskriminieren.
Das heißt, selbst wenn die direkte Anknüpfung an ein verbotenes Diskriminierungsmerkmal (z.B. „ethnische Herkunft, Geschlecht, Religion oder Weltanschauung, Behinderung, Alter oder sexuellen Identität“ in § 1 AGG) im Rahmen der Technikgestaltung von KI ausgeschlossen wird, bleibt das Risiko einer mittelbaren Diskriminierung im Sinne des § 3 Abs. 2 AGG bestehen, weil dabei an vordergründig neutrale Merkmale angeknüpft werden kann.
Betriebsräte haben die Aufgabe, diskriminierende Funktionsweisen der KI aufzudecken (§§ 75 Abs. 1, 2, 80 Abs. 1 Nr. 1 BetrVG). Dafür ist es zunächst wichtig, die Datenabhängigkeit und Fehleranfälligkeit von KI ins Bewusstsein zu rücken und den Anschein von „Objektivität“ zu durchbrechen. Einflussmöglichkeiten bestehen beim Gestalten der KI sowie den ausgewählten oder erhobenen Daten. Es liegt auf der Hand: Wer statistische Modelle kopiert, kopiert auch ihre Fehler, und wer einen gesellschaftlichen status quo spiegelbildlich erfasst, übernimmt auch ihre Vorurteile und Diskriminierungen. Operiert ein KI-System dann erst einmal mit bestimmten Voreinstellungen, ist die konkrete mittelbare Diskriminierung nur schwer zu entdecken.
b. Datenschutz und Persönlichkeitsrechte
Datenschutz dient dem Schutz der Persönlichkeit. Ausgangspunkt für die Anwendung des Datenschutzes ist daher immer die Frage, ob Daten erhoben werden, die einer Person zugeordnet werden können, sog. „personenbezogene Daten“. Die wichtigen Rechtsquellen im Arbeitsverhältnis sind die Datenschutzgrundverordnung (DSGVO) und das Bundesdatenschutzgesetz (BDSG). Der Beschäftigtendatenschutz ist in § 26 BDSG geregelt, trotzdem enthält die DSGVO auch für das Arbeitsverhältnis maßgebliche datenschutzrechtliche Regelungen.7 Nach Art. 4 Nr. 1 DSGVO sind personenbezogene Daten „alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen“, wobei eine indirekte Identifizierbarkeit auf Grundlage vermeintlich anonymer Daten genügt. Im Zusammenhang mit KI-Systemen bereit das Probleme, weil über das Verwenden von großen Datenmengen, das Anwachsen der Daten und unvorhersehbare Kombinationsmöglichkeiten auch anonyme Daten im Laufe der Zeit zuordenbar werden können und damit aus anonymen Daten „personenbezogene Daten“ werden können, die Schutzrechte der Arbeitnehmer:innen betreffen. Zusätzlich „ziehen Big-Data-Analysen und KI regelmäßig nicht-intuitive und nicht überprüfbare Schlüsse und machen Vorhersagen z.B. über das Verhalten oder bestimmte Neigungen von Personen.“8 Nicht länger ist nur die Analyse der Vertrauenswürdigkeit einer Person möglich, sondern es lassen sich Schlüsse auf emotionale Zustände ziehen. Die Möglichkeiten, Informationen über Beschäftigte zu gewinnen, werden damit enorm erweitert und erstrecken sich auch auf Neigungen oder Eigenschaften, die nach § 9 Abs. 1 DSGVO als besonders sensibel gelten und deren Verarbeitung deswegen untersagt ist. Dies können z. B. politische Meinungen, religiöse oder weltanschauliche Überzeugungen, Gewerkschaftszugehörigkeit, Gesundheitsdaten, Fragen des Sexuallebens oder der sexuellen Orientierung sein. Das Problem bei der Verwendung großer Datenmengen liegt darin, dass zum Zeitpunkt der Erhebung von Daten oft noch gar nicht vorhersehbar ist, aus welchen Datenteilen später eine bestimmte andere Information gewonnen werden kann.
Geht es nicht um sensible Daten im Sinne des Art. 9 Abs. 1 DSGVO gestaltet sich die Frage der Rechtmäßigkeit der Verarbeitung „personenbezogener Daten“ regelmäßig auch für Rechtskundige als äußerst schwierig. Nach Art. 6 Abs. 1 DSGVO ist die Verarbeitung personenbezogener Daten rechtmäßig, wenn entweder eine Einwilligung vorliegt oder die Verarbeitung einem der in der Vorschrift genannten Zwecke dient (Art. 6 Abs. 1 lit. b–e), zum Beispiel, weil die Verarbeitung zur Erfüllung eines Vertrages oder einem vergleichbaren Zweck „erforderlich“ ist.
Allerdings dürfen auch dann die Interessen oder Grundrechte der von der Datenverarbeitung betroffenen Person nicht überwiegen. Die Abwägung zwischen der Erforderlichkeit der Verarbeitung und dem Persönlichkeitsrecht der Betroffenen ist allerdings kaum vorherzusehen und erzeugt eine „weitgehende Rechtsunsicherheit“. Der Maßstab der „Erforderlichkeit“ ergibt sich im Arbeitsverhältnis aus § 26 Abs. 1 BDSG. Er besagt, dass zu einer konkreten Maßnahme, die das Persönlichkeitsrecht der Arbeitnehmer berührt, keine anderen, zur Zielerreichung gleich wirksamen und das Persönlichkeitsrecht der Arbeitnehmenden weniger einschränkenden Mittel zur Verfügung stehen dürfen. Zudem muss die Maßnahme verhältnismäßig sein. Verhältnismäßig ist die Datenerhebung, wenn die Schwere des Eingriffs bei einer Gesamtabwägung nicht außer Verhältnis zu dem Gewicht der ihn rechtfertigenden Gründe steht (BVerfG 4. April 2006 – 1 BvR 518/02). Informationsinteresse und Persönlichkeitsschutz müssen in Ausgleich gebracht werden. Nach deutscher Verfassungsrechtsprechung bedeutet das, dass die widerstreitenden Grundrechtspositionen zur Herstellung praktischer Konkordanz miteinander abgewogen werden müssen, wobei das Ziel ist, die Rechte aller Beteiligten zu optimaler Geltung zu bringen.
Beispiel Video-Überwachung: Entgegen Art. 13 DSGVO entsteht das Recht, als Betroffene über eine Videoüberwachung am Arbeitsplatz informiert zu werden, nach § 32 Abs. 1 BDSG dann nicht, wenn die Maßnahme zur Geltendmachung überwiegender berechtigter Interessen des Arbeitgebers erforderlich ist. Jedoch gelten hier enge Maßstäbe: Es muss im Falle einer der (verdeckten) Videoüberwachung vergleichbar eingriffsintensiven Maßnahme der auf konkrete Tatsachen begründete Verdacht einer schwerwiegenden, jedoch nicht zwangsläufig strafbaren Pflichtverletzung bestehen. Eine verdeckte Ermittlung „ins Blaue hinein“ ist unzulässig (BAG 29.6.2017 – 2 AZR 597/16). Eine solche Maßnahme wäre stets unangemessen, ohne dass es darauf ankäme, ob mildere, gleich effektive Mittel verfügbar sind, (BAG vom 27.7.2017 – 2 AZR 681/16, NZA 2017, 1327).
Zumindest wird man festhalten können, dass es „Rückzugsräume“ geben muss, in denen „der Einzelne unbeobachtet sich selbst überlassen ist“ und beanspruchen kann, „in Ruhe gelassen“ zu werden. Das wird nicht nur bei einer visuellen Erfassung oder einem umfassenden sensorischen Monitoring in Frage stehen, sondern auch bei einer umfassenden Verhaltens- und Leistungskontrolle, die sich bei mobiler Arbeit auf den zusätzlich geschützten Raum der eigenen Wohnung erstrecken kann. Eine lückenlose technische Überwachung ist vor diesem Hintergrund unzulässig (BAG vom 13.12.2007 – 2 AZR 537/06, NZA 2008, 2732).
Zu achten ist stets auf die Einhaltung der Prinzipien der Verarbeitung von personenbezogenen Daten aus Art. 5 DSGVO, insbesondere Rechtmäßigkeit der Verarbeitung, Verarbeitung nach Treu und Glauben, Transparenz, Zweckbindung, Datenminimierung und Richtigkeit.
c. Arbeits- und Gesundheitsschutz
Im Arbeits- und Gesundheitsschutz stellen sich ebenfalls schwierige Fragen. Der Einsatz von großen Datenmengen und die Einstellung von Robotern und Maschinen kann über datenbasiertes Lernen nämlich einerseits einen besseren Arbeits- und Gesundheitsschutz bewirken, zum Beispiel wenn Roboter lernen, sich an der Körpersprache von Arbeitnehmer:innen zu orientieren und so Gefährdungssituationen zu vermeiden. Außerdem können ermüdende Routineaufgaben auf Roboter übertragen werden, was Belastungen reduzieren kann. Andererseits kann aber die Unvorhersehbarkeit der Funktionsweisen KI-gesteuerter Roboter zu einer Gefahrenquelle werden. Die physischen und insbesondere psychosozialen Risiken des Einsatzes von KI sollten jedenfalls nicht unterschätzt werden. Werden den Arbeitnehmenden Aufgaben zugewiesen, die einer Leistungserfassung durch KI-Systeme unterliegen, kann das zu Zeit- und Leistungsdruck führen. Besonders gefährdete Bereiche sind hier etwa Vertriebs- und Logistikzentren, wo Bewegungen sekundengenau getrackt werden, aber auch die permanente und teilweise KI-gesteuerte Überwachung des Gesprächsverhaltens in Call-Centern setzt die Beschäftigten einer extremen Leistungs- und Verhaltenskontrolle aus, die die psychische Gesundheit beeinträchtigt. Zusammengefasst werden folgende Risiken regelmäßig benannt: „Leistungsverdichtung, Verlust von Autonomie, Vermischung von Arbeit und Privatleben, zunehmende Komplexität der Aufgaben für manche und Beschränkung auf „modulare Tätigkeiten“ für andere; Anpassungsdruck und der Verlust menschlicher Interaktion am Arbeitsplatz.“9
IV. Handlungsmöglichkeiten ohne Betriebsrat
Auch ohne Betriebsrat behalten die Arbeitnehmenden ihre gesetzlichen oder tarifvertraglichen Schutzrechte. Die Aufdeckung von Risiken oder der Nachweis von Rechtsverletzungen und Diskriminierungen sind jedoch für die individuelle Arbeitnehmerin sehr schwierig. Oft fehlt es dafür bereits an den notwendigen Informationen. Der zeitliche Aufwand und der meist geringe persönliche Nutzen stehen einer Rechtsverfolgung zusätzlich im Weg.
1. Diskriminierungsschutz
Möglichkeiten individueller Geltendmachung von Rechten bestehen, die Betroffenen begegnen aber praktisch schwer zu überwindenden Hürden. Zwar verbietet das Allgemeine Gleichbehandlungsgesetz (AGG) nicht nur Diskriminierungen, die unmittelbar an Merkmale wie Geschlecht, Ethnie oder sexuelle Orientierung anknüpfen, sondern auch solche, bei denen die Diskriminierung mittelbar (etwa über „Stellvertreter“-Merkmale) erfolgt, § 3 Abs. 2 AGG. Allerdings ist diese Diskriminierung für individuelle Betroffene kaum zu erkennen, weil sie erst bei der Betrachtung einer größeren Vergleichsgruppe deutlich wird – denn die Entscheidungsgrundlage der KI wird nach außen hin nicht transparent. Sie kann nur an ihren Wirkungen abgelesen werden. Zwar liefert § 22 AGG hier eine Beweiserleichterung und die Betroffenen müssen nur „Indizien“ für eine Benachteiligung darlegen. Allerdings wird ihnen bereits das wegen der Intransparenz der Faktoren nur schwer gelingen.
2. Datenschutz
Beim betrieblichen Datenschutz können sich die Betroffenen auf ihre individuellen Informationsrechte berufen. Art. 13 DSGVO begründet eine Informationspflicht bei der Erhebung von personenbezogenen Daten bei der betroffenen Person selbst, Art. 14 DSGVO begründet eine Informationspflicht, wenn die personenbezogenen Daten nicht bei der betroffenen Person erhoben wurden. Auch besteht nach Art. 15 Abs. 1 DSGVO ein Auskunftsrecht darüber, ob personenbezogene Daten verarbeitet wurden; ist dies der Fall, so kann die betroffene Person eine Reihe konkreter Informationen verlangen, die bereitzustellen für die Unternehmen umständlich sein kann. Art. 17 Abs. 1 DSGVO ist Grundlage eines Rechts auf Löschung von Daten, wenn der Grund für die Verarbeitung weggefallen oder die erhobenen Daten falsch sind. Ebenfalls individuell zur Seite steht den Arbeitnehmenden Art. 22 Abs. 1 DSGVO, der es verbietet „einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden“, die gegenüber der betroffenen Person eine „rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt“. Als Anwendungsfall nennt die DSGVO in ihrem Erwägungsgrund 71 ein „Online-Einstellungsverfahren ohne jegliches menschliche Eingreifen“, aber auch die „Analyse oder Prognose von Aspekten bezüglich Arbeitsleistung, wirtschaftliche Lage, Gesundheit, persönliche Vorlieben oder Interessen, Zuverlässigkeit oder Verhalten, Aufenthaltsort oder Ortswechsel der betroffenen Person“. Die Einschränkung auf „ausschließlich automatischen Entscheidung“ zeigt jedoch, dass der Anwendungsbereich kleiner ist, als man zunächst denken könnte. Denn ausschließlich automatisch ist die Entscheidung dann nicht mehr, wenn die im Wesentlichen vorgegebene Entscheidung von einem Menschen in eine „eigene Entscheidung“ übersetzt wird. Was genau die „Übersetzung in eine eigene Entscheidung“ erfordert, ist unklar, womit der Schutz durch die Vorschrift eingeschränkt wird. Jedenfalls anonyme Massenentscheidungen ohne inhaltliche Mitwirkung eines Menschen dürften jedoch ausgeschlossen sein. Sofern eine Entscheidung gegenüber einem Betroffenen rechtlich wirksam wird, muss es eine Kontrollmöglichkeit geben, die einbezieht, dass die von der KI getroffene Entscheidung auch falsch sein könnte. Wo diese Möglichkeit nicht gegeben ist, liegt eine „ausschließlich automatische Entscheidung“ vor, die unzulässig ist.
3. Arbeits- und Gesundheitsschutz
Die individuellen Rechte im Bereich des Arbeits- und Gesundheitsschutzes (z. B. Ergonomie, Arbeitszeit), die sich unter anderem aus dem Arbeitsschutzgesetz, dem Arbeitszeitgesetz sowie anderen europarechtlichen und nationalen Normen oder aus Tarifverträgen ergeben, gelten grundsätzlich unabhängig von kollektiven Bezügen. Das heißt, dass die individuell betroffenen Beschäftigten die Rechtsverstöße im Bereich des Arbeits- und Gesundheitsschutzes, die durch die Einführung oder Nutzung von KI entstehen, selbstständig gegenüber dem jeweiligen Arbeitgeber geltend machen können. Allerdings ist dies mit erneuten Belastungen verbunden. Ein Betriebsrat hingegen hat aufgrund seiner gesetzlichen Pflicht aus § 80 Abs. 1 Nr. 1 BetrVG die Aufgabe, anstelle der Beschäftigten auf die Einhaltung der Rechte im Bereich des Arbeits- und Gesundheitsschutzes hinzuwirken. Das Vorliegen eines Betriebsrats kann die Beschäftigten daher von dem Beschreiten eines individuellen Klagewegs entlasten.
4. Zwischenergebnis
Sowohl im Antidiskriminierungsrecht wie auch beim Datenschutz, aber im Kern auch beim Arbeits- und Gesundheitsschutz ist es plausibel, wenn Forderungen erhoben werden, dass es eines stärker kollektiv geprägten Rechtsschutzes bedarf, das heißt, dass z. B. bestimmte gemeinnützige Einrichtungen, Organisationen oder Vereinigungen die Rechte für die individuell betroffenen Personen wahrnehmen können.10 Da es solche Möglichkeiten bisher nur in den wenigsten Bereichen gibt, ist daher das Bestehen eines Betriebsrats zur Durchsetzung der Rechte von Beschäftigten von erheblicher Bedeutung.
V. Fazit
Eine umfassende Mitwirkung und Mitgestaltung bei der Einführung und Anwendung von KI-Systemen, aber auch von digitalen Systemen generell, ist nur mit einer aktiven und informierten betrieblichen Interessenvertretung sichergestellt. Unternehmen sind aber aus Eigeninteresse gehalten, auch ohne erzwingbare Beteiligung der Beschäftigten partizipativ vorzugehen, die Funktionsweise von KI-Systemen transparent zu gestalten und auf eine gesetzeskonforme und nicht-diskriminierende Implementierung von KI zu achten. Dabei hilft es nicht, Insellösungen für einzelne Systeme oder Anwendungen zu finden, sondern eine bestenfalls gemeinsame Entwicklungsstrategie zu entwickeln, die auch das Anwachsen von Datenmengen und dessen Folgen von Anfang an berücksichtigt. Zu denken ist an eine Kombination aus einer prinzipienbasierten Rahmenvereinbarung und anwendungsspezifischen Einzelvereinbarungen zwischen Betriebsräten und Arbeitgebern. Das ermöglicht es, grundsätzliche Fragen ebenso wertegeleitet zu behandeln, wie Detailfragen konkret zu lösen. Wichtig ist festzuhalten, dass die betriebliche Mitbestimmung bei der Form der Einführung von KI besteht, aber dort nicht endet. Vielmehr haben Betriebsräte verschiedene Informations-, Beratungs- und Mitbestimmungsrechte, die auch noch während der Nutzung von KI bestehen und gerade durch das permanente, teils selbstständige Weiterentwickeln der KI immer wieder aufleben.
Quellen und Anmerkungen
1. Künstliche Intelligenz sei ein „ein Sammelbegriff für Algorithmen, die große Datenmengen verarbeiten können, bedingt lernfähig sowie in der Lage sind, selbständig komplexe Lösungen zu finden“, Christian Kellermann, Zukunft der digitalen Arbeitsgesellschaft, in Schmiedchen u.a., Wie wir leben wollen, S. 257.
2. Richardi BetrVG/Thüsing, 17. Aufl. 2022, BetrVG § 80 Rn. 4, 5.
3. Hier im Sinne von „betrieblicher Interessenvertretung“.
4. Das entsprechende Informationsrecht ergibt sich zudem bereits aus § 80 Abs. 2 BetrVG in allgemeiner Form.
5. DKKW-Däubler, § 92a BetrVG, Rn. 1; ErfK-Kania, § 92a BetrVG, Rn. 1; Fitting, § 92a BetrVG, Rn. 1. 92 Vgl. ausführlich Brandl/Disselkamp/Wedde, S. 170 ff.
6. Vgl. Waas, Künstliche Intelligenz und Arbeitsrecht, HSI-Schriftenreihe Bd. 46 (2022), S. 121.
7. Eigentlich wäre die DSGVO vorrangig anzuwendendes Recht. Art. 88 DSGVO den Mitgliedstaaten die Möglichkeit, „spezifischere Vorschriften zur Gewährleistung des Schutzes der Rechte und Freiheiten hinsichtlich der Verarbeitung personenbezogener Beschäftigtendaten im Beschäftigungskontext“ zu treffen.
8. Waas, a.a.O., S. 139.
9. Waas, a.a.O., S. 184
10. Waas, a.a.O., S. 178 mit dem Verweis auf Art. 80 Abs. 1 und 2 DSGVO.