Einer Umfrage des Bitkom Digitalverbands zufolge kann sich bereits jeder vierte Bundesbürger vorstellen, Chatbots im Alltag zu nutzen. Aufgrund der immer weiter fortschreitenden Entwicklung informationstechnischer Programme, insbesondere mit Künstlicher Intelligenz (im Englischen Artificial Intelligence), stellt sich die Frage, ob und unter welchen arbeitsrechtlichen Voraussetzungen diese im Bereich des Recruitings eingesetzt werden können, um dieses für den Arbeitgeber effektiver zu gestalten.

Der Chatbot im Recruiting

Chatbots sind Programme (also Software) die selbständig auf eingegebene Text- oder Sprachbefehle reagieren bzw. antworten und auf diese Weise die Kommunikation mit einem Menschen simulieren können. Die Grundlage des Programmes sind Datenbanken, die Erkennungsmuster und Antworten beinhalten. Waren zu Beginn der Entwicklung die Antworten der Chatbots meist durch einfache Strukturen vorgegeben, sodass der mögliche Verlauf eines Gespräches vorhergesehen und abgebildet werden musste, gibt es nun bereits Chatbots mit künstlicher Intelligenz. Für den Begriff der Künstlichen Intelligenz wurde noch keine einheitliche und eindeutige Definition entwickelt. Ihre wichtigste Eigenschaft ist jedoch die eines „autonomen Systems“. Dies meint die Fähigkeit, Entscheidungen zu treffen und diese in einer äußeren Welt unabhängig von externer Steuerung oder Einflussnahme umzusetzen. Die Autonomie ist dabei rein technologischer Art und ihr Grad hängt davon ab, wie ausgeklügelt und entwickelt das Programm ist. Ergänzend dazu wird Künstliche Intelligenz durch die Fähigkeit charakterisiert, ihr Verhalten der Umgebung anzupassen und durch Interaktion sowie Erfahrung selbst zu lernen. Ziel der stetigen Weiterentwicklung künstlicher Intelligenz in Bezug auf Chatbots ist, dass die betreffende Person, in diesem Fall der Bewerber, überhaupt nicht merkt, dass er oder sie mit einem Programm und nicht mit einem Menschen kommuniziert.

Im Recruiting können Chatbots beispielsweise bei Erstinterviews und der Auswertung von Lebensläufen eingesetzt werden, um in Verbindung mit weiteren Datenanalysen Prognosen über die Eignung eines Bewerbers zu treffen. Auf diese Weise kann eine Bewertung der Geeignetheit eines Bewerbers erfolgen, die alle gesammelten und zur Verfügung stehenden Daten gleichermaßen berücksichtigt und ausschließlich auf objektiven Kriterien wie Logik und Rationalität basiert. Dadurch können Bewerbungsprozesse für den Arbeitgeber effektiver gestaltet werden, zumal Chatbots unabhängig von Büro- bzw. Geschäftszeiten oder personellen Verfügbarkeiten einsetzbar sind.

Die bisherige Problematik: Unberechenbarkeit

Unbeschadet der Vorteile, die ein Einsatz von Chatbots mit sich bringen kann, stellt sich die Frage welches (rechtliche) Risiko damit verbunden ist. Trotz der Grundlage aus Datenbanken sowie der Programmierung, ist die Autonomie Künstlicher Intelligenz durch unabhängige Entscheidungen gekennzeichnet. Folglich ist das Verhalten autonomer Systeme gerade nicht vollständig vorherbestimmt und vorhersehbar. Durch die stetige Weiterentwicklung und Optimierung Künstlicher Intelligenz, nehmen die Selbständigkeit und die Komplexität der Prozesse sowie Entscheidungsfindungen zu. Angesichts des immensen Volumens der Datenverarbeitung durch solche Programme könnte zudem eine Protokollierung und Speicherung der ablaufenden Prozesse praktisch unmöglich werden. Aufgrund dieser Entwicklungen ist fraglich, inwieweit das Verhalten von Chatbots noch nachvollziehbar und kontrollierbar ist bzw. sein wird.

Aktuelle Pilotprojekte und Versuche mit Chatbots zeigen, dass die Reaktionen im Laufe der simulierten Kommunikation mit einem Menschen nicht immer planbar und vorhersehbar sind. So musste beispielsweise Microsoft den Chatbot „Tay“ deaktivieren und vom Markt nehmen, weil dieser nach wenigen Stunden angefangen hat rassistische Fragen zu stellen.

Insbesondere im Recruiting wirft diese Problematik rechtliche Fragen auf. Werden Bewerbungsgespräche mittels Chatbot geführt, muss der Arbeitgeber in gleicher Weise die durch langjährige BAG Rechtsprechung etablierten Fragerechte und –verbote einhalten und die Vorgaben des AGG bei der Auswahlentscheidung beachten. Fraglich ist jedoch, wie der Arbeitgeber, insbesondere als informationstechnischer Laie, dies praktisch umsetzen kann, wenn der Chatbot während des Gesprächs autonome und rationale Entscheidungen hinsichtlich der zu stellenden Fragen trifft. Nach rein objektiven Kriterien könnte eine bestehende Schwangerschaft oder Behinderung die Tauglichkeit eines Bewerbers für die zu besetzende Stelle mindern, sodass der Chatbot in logischer Konsequenz danach fragt, obwohl dies unzulässig ist. Möglicherweise könnte eine Sperre für unzulässige Fragen programmiert werden um diesem Risiko vorzubeugen. Je besser entwickelt Chatbots mit künstlicher Intelligenz jedoch sind, je autonomer und selbstlernender sie also agieren, desto weniger sind ihre Entscheidungen vorhersehbar und desto größer ist daher das Risiko eines AGG Verstoßes.

Wer haftet für Fehler des Chatbots?

Was passiert, wenn der Chatbot nun eine unerlaubte Frage im Erstinterview mit dem Bewerber stellt und dieser später abgelehnt wird? Der Bewerber könnte mit der unerlaubten Frage als Indiz (Vermutung des § 22 AGG) geltend machen, dass er bei der Auswahlentscheidung nach Maßgabe der §§ 7 Abs. 1, 1 AGG unzulässig benachteiligt wurde und Schadensersatz nach § 15 Abs. 1 AGG und/oder Entschädigung nach § 15 Abs. 2 AGG fordern. Dann stellt sich die Frage, wer für diesen AGG Verstoß haftet: der Hersteller bzw. Entwickler des Chatbots, der Arbeitgeber als Benutzer des Programms oder sogar der Chatbot selbst?

Klar ist zunächst, dass der Chatbot auch mit autonom agierender künstlicher Intelligenz keine Rechtspersönlichkeit hat und daher auch nicht selbst haften kann. Den Arbeitgeber als Benutzer des Programms könnte aber eine Schadensersatzpflicht aus § 15 Abs. 1 AGG treffen. Maßgebliche Handlung des Arbeitgebers ist hier der Einsatz der Chatbot-Software, welche die unerlaubte Frage gestellt hat, die eine unzulässige Ungleichbehandlung bei der Auswahlentscheidung vermuten lässt. Im Ergebnis hat der Arbeitgeber also eine gesetzwidrige und somit fehlerhafte Software eingesetzt. Das Verschulden wird dabei von § 15 Abs. 1 AGG vermutet und dürfte vom Arbeitgeber auch bei bestimmungsgemäßem Gebrauch der Software nur schwer zu wiederlegen sein. Folglich kann der Bewerber Schadensersatzansprüche gegen den Arbeitgeber aus § 15 Abs. 1 AGG wegen einer Benachteiligung bei der Bewerberauswahl geltend machen.

Im Hinblick auf den verschuldensunabhängigen Entschädigungsanspruch aus § 15 Abs. 2 AGG gilt im Grundsatz dasselbe. Der Arbeitgeber hat eine fehlerhafte Software eingesetzt, woraus ein AGG-Verstoß, also eine unzulässige Ungleichbehandlung (§§ 7 Abs. 1, 1 AGG), resultierte. Dafür haftet er dem Bewerber auch für Nichtvermögensschäden nach § 15 Abs. 2 AGG.

Es stellt sich angesichts dieser umfangreichen Haftung des Arbeitgebers beim Einsatz des Chatbots die Folgefrage, ob er beim Hersteller der Chatbot-Software Regress nehmen kann. Dies richtet sich nach dem zwischen Softwarehersteller und einsetzendem Unternehmen bestehenden Vertragsverhältnis. Dabei könnte es sich um einen Kaufvertrag handeln, wenn die Lieferung einer bereits hergestellten Standardsoftware vereinbart wurde. Ist jedoch die Herstellung einer Individualsoftware Vertragsgegenstand (Software-Entwicklungsvertrag) oder die Anpassung von Standardsoftware auf die individuellen Bedürfnisse, etwa unternehmensinterne Bewerberauswahlrichtlinien, liegt ein Werkvertrag zwischen dem Softwarehersteller und dem den Chatbot einsetzenden Unternehmen vor. In beiden Fällen könnte der Arbeitgeber Mängelrechte (§§ 434 ff. bzw. 633 ff. BGB) aus diesem Vertragsverhältnis geltend machen. Es empfiehlt sich zur Absicherung dieser Gewährleistungsansprüche insbesondere eine Beschaffenheitsvereinbarung mit dem Softwarehersteller zu treffen. Meist erfolgt dies in einem sog. Pflichtenheft, in welchem die individuellen Anforderungen an die Software festgelegt werden. Hierin könnte etwa geregelt werden, dass in die Chatbot-Software eine Sperre für unzulässige Fragen zu programmieren ist, um einer Inanspruchnahme des Arbeitgebers aus § 15 AGG vorzubeugen. Stellt der Chatbot dennoch unzulässige Fragen, die zu einer Schadensersatz- bzw. Entschädigungspflicht des Arbeitgebers führen, ergibt sich ein Mangel der Chatbot-Software schon daraus, dass diese nicht die vereinbarte Beschaffenheit hat. Der Arbeitgeber kann dann ohne Beweisschwierigkeiten eigene Mängelgewährleistungsansprüche beim Softwarehersteller aus dem mit diesem bestehenden Vertragsverhältnis geltend machen und sich auf diese Weise schadlos halten. Diese Risikoverteilung ist den in Frage kommenden Haftungsadressaten auch zumutbar. Es ist nicht ersichtlich, warum der Arbeitgeber als Benutzer des Chatbots, trotz des Vorliegens eines autonomen Systems mit künstlicher Intelligenz, nicht wie bei jeder anderen Software für „Fehlfunktionen“ gegenüber dem Bewerber einzustehen hat. Ebenso ist auch die Regressmöglichkeit beim Softwarehersteller gerechtfertigt, da dieser der einzige ist, der die Kontrolle über die Software hat, das Risiko von Softwarefehlern minimieren und diese beheben kann.

Im Allgemeinen steht die Diskussion um Haftungsfragen im Zusammenhang mit autonomen Systemen noch am Anfang. Sowohl die Frage nach dem Haftungsadressaten, wer also für welchen Fall einer Rechtsverletzung haftet, als auch die Frage nach dem anzuwendenden Haftungssystem (Verschuldens- oder Gefährdungshaftung) ist noch ungeklärt. Das Europäische Parlament forderte die Kommission in seiner Entschließung vom 12.2.2017 dazu auf, einen Vorschlag für ein Rechtsinstrument über rechtliche Fragen im Zusammenhang mit Robotik und Künstliche Intelligenz, wie sie in den nächsten 10 bis 15 Jahren vorhersehbar ist, zu unterbreiten. Das Europäische Parlament ist dabei der Auffassung, dass entweder eine verschuldensunabhängige Haftung oder ein Risikomanagementansatz angewendet werden sollte, der die Person, welche imstande ist, unter bestimmten Umständen die Risiken zu minimieren und die negativen Auswirkungen zu bewältigen, in den Mittelpunkt der Haftung stellt. Auch auf nationaler Ebene wird von vielen ein Handlungsbedarf beim Gesetzgeber gesehen, für die Haftungsfragen im Zusammenhang mit Künstlicher Intelligenz und vergleichbaren autonomen Systemen eigene umfassende Haftungsregelungen zu treffen. Jedenfalls im Hinblick auf die arbeitsrechtlichen Fragen im Zusammenhang mit dem Einsatz von Chatbots im Recruiting lässt sich jedoch die Haftungsfrage anhand der bestehenden Regelungen des AGG und den Mängelrechten aus Kauf- bzw. Werkvertrag hinreichend klären.

Datenschutzrechtliche Vorgaben begrenzen die Einsatzmöglichkeit eines Chatbots

Die Verwendung von Chatbots im Recruiting-Prozess wirft neben der Haftung auch datenschutzrechtliche Fragen auf. Der Arbeitgeber hat beim Einsatz des Chatbots-Programmes auch die Vorgaben der Datenschutzgrundverordnung (DSGVO) zu beachten. Die Verarbeitung der personenbezogenen Daten des Bewerbers durch das Programm des Chatbots erfolgt dabei zur Durchführung einer vorvertraglichen Maßnahme und ist folglich durch Art. 6 Abs. 1 lit. b DSGVO als Rechtsgrundlage gedeckt. Personenbezogene Daten besonders sensibler Kategorien iSd. Art. 9 Abs. 1 DSGVO dürfen im Bewerbungsverfahren kaum eine Rolle spielen, da die Frage danach ohnehin verboten ist. Des Weiteren müsste der Arbeitgeber beim Einsatz des Chatbots den Aufklärungspflichten der Art. 12 ff. DSGVO nachkommen und für eine ausrechende IT-Sicherheit sorgen (Art. 32 DSGVO).

Problematisch ist unter datenschutzrechtlichen Gesichtspunkten das Verbot des Art. 22 Abs. 1 DSGVO, den Betroffenen einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung zu unterwerfen, die diesem gegenüber rechtliche Wirkung entfaltet. Dies wäre im Bewerbungsverfahren die Entscheidung, ob der Bewerber eingestellt wird oder nicht. Von diesem Verbot wird jedoch eine Ausnahme gemacht, wenn die Entscheidung für den Abschluss oder die Erfüllung eines Vertrags erforderlich ist oder diese mit der ausdrücklichen Einwilligung der betroffenen Person erfolgt (Art. 22 Abs. 2 DSGVO). Der Bewerbungsprozess dient aber lediglich der Begründung eines Vertrages, sodass die erste Ausnahmemöglichkeit ausscheidet. Für eine mögliche Einwilligung des Bewerbers ist die freiwillige Erteilung eine zwingende Voraussetzung (Art. 4 Nr. 11 DSGVO). In der Situation des Bewerbers würde eine Ablehnung der Einwilligung jedoch zur Folge haben, dass er am Bewerbungsprozess nicht teilnehmen könnte und dadurch von vornherein keine Chance hätte für die ausgeschriebene Stelle ausgewählt zu werden. Er befindet sich somit in keiner Situation in der ihm eine echte Wahlmöglichkeit ohne negative Konsequenzen zusteht, sodass auch keine wirksame Einwilligung als Ausnahme möglich ist. Es bleibt also hinsichtlich der Nutzung von Chatbots im Bewerbungsverfahren beim Verbot des Art. 22 Abs. 1 DSGVO, welches somit die Einsatzmöglichkeiten begrenzt. Die Bewertung des Chatbots zur Geeignetheit eines Bewerbers darf als Konsequenz dieses Verbots nur als Entscheidungsgrundlage dienen. Die endgültige Entscheidung, ob ein Bewerber eingestellt wird oder nicht, muss daher ein Mensch treffen und verbleibt damit bei der Personalabteilung.