Was jetzt im Recruiting zu beachten ist
KI im Recruiting: Gefahren durch Bias, Diskriminierungen und Datenleaks
In den letzten Jahren gab es einige spektakuläre Berichte über Unternehmen, die KI-getriebene Recruiting-Tools einsetzten und in die Kritik gerieten, weil BewerberInnen entweder diskriminiert wurden oder durch Software-Leaks ihre persönliche Daten veröffentlicht wurden, hier drei Beispiele, die durch die Presse gingen:
Amazon: Ein von Amazon entwickeltes KI-basiertes Recruiting-Tool, wurde aufgegeben, nachdem sich herausstellte, dass es Frauen systematisch benachteiligte. Die KI bevorzugte männliche Kandidaten, da sie auf historischen Daten basierte, in denen Männer häufiger eingestellt wurden. Ein klassischer Bias Fehler, bei dem aufgrund einer bestimmten Wahrnehmung und Erinnerung die fehlerhafte Neigung entstanden war, in eine bestimmte Richtung zu urteilen. Quelle
HireVue: Das Unternehmen HireVue setzte auf Video-Interviews mit KI-gestützter Analyse, um BewerberInnen zu bewerten. Hier wurde kritisiert, dass die Methode zu voreingenommenen Ergebnissen führte, da Menschen von der künstlichen Intelligenz aufgrund von Gesichtsausdrücken, Sprechweise oder anderen Merkmalen bewertet wurden, die aber nichts mit ihrer Qualifikation zu tun hatten. Menschen z.B. mit einem körperlichen Handicap können dadurch erheblich benachteiligt werden. Quelle
PageUp: Mehrere Unternehmen hatten in den letzten Jahren mit Datenlecks zu kämpfen, bei denen persönliche Daten von BewerberInnen kompromittiert wurden. Diese Leaks wurden durch unsachgemäße Implementierung von KI-Systemen und mangelnde Sicherheitsvorkehrungen verschärft. Ein bekanntes Beispiel ist das Datenleck bei PageUp, einem großen Anbieter von HR-Software, bei dem persönliche Daten von BewerberInnen offengelegt wurden. Quelle
Der EU AI Act: Mehr Sicherheit bei der Anwendung von KI im Recruiting
KI ist mittlerweile fest in HR und Recruiting verankert. Unter anderem auch um die oben benannten Risiken zu vermeiden, gibt es neue gesetzliche Vorgaben durch den EU AI Act. Er trat im Juli 2024 in Kraft und beinhaltet die erste umfassende Regulierung für Künstliche Intelligenz (KI) in der EU. Diese Verordnung klassifiziert KI-Anwendungen nach ihrem Risiko und legt spezifische Anforderungen fest, um einen sicheren und transparenten Einsatz sicherzustellen. Für das Recruiting im Gesundheitsbereich sind vor allem die Regelungen zu Hochrisiko-KI-Systemen von Bedeutung.
Wichtig fürs Recruiting: Klassifizierung der Hochrisiko-KI-Systeme
Hochrisiko-KI-Systeme umfassen auch Anwendungen, die wesentliche Entscheidungen im Beschäftigungsbereich beeinflussen, wie z.B. Tools zur Analyse und Filterung von Bewerbungen oder zur Bewertung von Kandidatinnen und Kandidaten. Sie werden gemäß EU AI Act je nach Risiko für die Gesellschaft in vier Risikoklassen eingeteilt:
- Inakzeptables Risiko: Diese Systeme sind verboten, z.B. Massenüberwachung mit biometrischen Daten oder Systeme, die mit einem Social Score arbeiten.
- Hohes Risiko: Strenge Regeln gelten für Systeme in Bereichen wie Personalwesen, Bildung, Gesundheitswesen, Mobilität und Finanzen.
- Transparenzanforderungen: Systeme, die mit Menschen interagieren, z.B. lernende Bots, müssen als KI-gestützt gekennzeichnet werden.
- Niedriges Risiko: Hierzu zählen z.B. automatisierte Spam-Filter.
Anforderungen für den Umgang mit Hochrisiko-KI-Systemen
Als Arbeitgeber müssen Sie besonders bei der Nutzung von Hochrisiko-KI-Systemen im HR-Bereich strenge Vorschriften beachten. Diese erfordern umfassende Aufklärungspflichten, laufende Überwachung und Dokumentation sowie hohe Standards in Bereichen wie Datentransparenz und Risikomanagement. Verstöße können zu hohen Strafen führen. Um rechtlich auf der sicheren Seite zu sein, sollten Sie prüfen, zu welchen Risikogruppen ihre KI-Systeme gehören und bei Hochrisiko-Systemen entsprechende Maßnahmen ergreifen. Stellen Sie Transparenz und Aufklärung gegenüber Mitarbeitenden sicher und arbeiten Sie mit HR-, IT-, Rechts- und Datenschutzverantwortlichen zusammen. Im Einzelnen sollten Sie folgende Punkte beachten:
- Risikomanagement: Das Risikomanagement erfordert einen kontinuierlichen Prozess zur Identifikation und Minderung von Risiken während des gesamten Lebenszyklus der KI-Systeme, die regelmäßig überprüft und bei Bedarf angepasst werden müssen. Nur so stellen Sie sicher, dass sie den gesetzlichen Anforderungen entsprechen und keine diskriminierenden Praktiken anwenden.
- Datenqualität und Datenschutz: Sorgen Sie dafür, dass die verwendeten Daten relevant, repräsentativ, aktuell und fehlerfrei sind und dass die Datenverarbeitung auf Basis der DSGVO stattfindet. Sichern Sie sich im Einzelfall mit Einverständniserklärungen ab, in denen die Art der Verwendung von Daten offengelegt wird. Besonders bei der Erhebung von persönlichen Daten im Bewerbungsprozess hat dies eine hohe Priorität.
- Transparenz und Dokumentation: Erstellen Sie technische Dokumentationen, um die Einhaltung der Vorschriften nachzuweisen und den Behörden ggf. eine Bewertung zu ermöglichen. Gegenüber BewerberInnen bedeutet Transparenz, dass sie über den Einsatz von KI-Systemen informiert werden müssen, insbesondere wenn diese Systeme wesentliche Entscheidungen im Bewerbungsprozess beeinflussen.
- Menschliche Aufsicht: Das Design eines KI-Systems muss es ermöglichen, dass menschliche Überwachung implementiert werden kann, um Fehlentscheidungen zu verhindern und rechtswidrige Prozesse auszuschließen oder zu stoppen.
- Genauigkeit und Sicherheit: Systeme müssen auf hohe Genauigkeit, Robustheit und Cybersicherheit ausgelegt sein.
Die Einhaltung der neuen Vorschriften ist zwingend erforderlich, um rechtliche Risiken zu minimieren und die Integrität des Rekrutierungsprozesses zu gewährleisten.
KI oder eher doch Machine-Learning?
Wie überall lohnt es sich auch hier, genauer hinzuschauen: Laut Artikel 3, Absatz 1 des KI-Gesetzes ist ein KI-System eine Software, die mithilfe von Techniken wie maschinellem Lernen und statistischen Methoden entwickelt wurde und in der Lage ist, aus eingegebenen Daten eigenständig neue Modelle und Algorithmen abzuleiten. Während konventionelle Software mit vorab definierten Algorithmen arbeitet, menschlichen Input braucht, Ergebnisse berechnet und durch den Menschen angepasst wird, operiert ein KI-System je nach Entwicklungsstufe weitestgehend autonom, passt seine Algorithmen selbständig an, zieht eigene Schlussfolgerungen und lernt selbstständig.
Anforderungen an Compliance und Rechtssicherheit
Großer Handlungsbedarf seitens des Recruiting besteht daher wohl noch nicht, denn viele aktuell als „KI“ beworbene HR-Tools nutzen lediglich Machine-Learning-Algorithmen. Mit dem Inkrafttreten des EU AI Acts könnte der Begriff „KI“ im Personalmarketing dann auch zurückhaltender verwendet werden, um den damit verbundenen Compliance-Aufwand zu vermeiden: Dieser würde umfangreiche Aufklärung der BewerberInnen über den Nutzen und die Risiken verwendeter KI-Tools erfordern und müsste auf Basis des EU AI Acts rechtssicher in bestehende Compliance-Regeln integriert und offengelegt werden.
Fazit:
Der EU AI Act stellt sicher, dass der Einsatz von KI im Gesundheitsbereich sicher, transparent und fair erfolgt. Arbeitgeber müssen sich für den Fall, dass sie über Machine-Learning Tools hinaus tatsächlich KI-Systeme einsetzen, auf umfassende Compliance-Maßnahmen einstellen und dafür sorgen, dass diese den hohen gesetzlichen Anforderungen gerecht werden. Dies trägt nicht nur zur rechtlichen Sicherheit bei, sondern fördert auch das Vertrauen der BewerberInnen in den Rekrutierungsprozess. Weitere Informationen und detaillierte Anforderungen des EU AI Act finden Sie auf der offiziellen Webseite des EU AI Act: ArtificialIntelligenceAct
Bitte beachten Sie auch unsere weiteren Beiträge zu KI:
KI-Recruiting im Gesundheitswesen
KI-Stellenanzeigen