Ein kurzer Ausflug ins Recruiting:
KI-fit? Schnell mal ein paar Prozesse sinnvoll mit KI lösen? Hier ein Beispiel, warum das nicht unbedingt sinnvoll ist – obwohl es völlig logisch erscheint:
Ich bin ja wirklich jemand, die sich schnell mit Veränderungen auseinandersetzt, um zu sehen, was bringt uns diese Neuerung? Offen für vieles, neugierig an Wachstum, gelangweilt mit „immer dem Gleichen“ – Daher hier ein wundervolles kleines Beispiel, wie schnell man sich als Unternehmen in die Nesseln setzen kann – und gegen Gesetze verstößt, ohne es tatsächlich zu merken!

Im Zuge meiner KI Kompetenz Zertifizierung wurde über viel rechtliches gesprochen, klar, denn es geht um den EU AI Act. Hier ein tolles Beispiel, wie man KI nicht einsetzen sollte:
Viele Recruiting Abteilungen müssen sich durch Massen von Bewerbungen arbeiten, was ist da besser als hier KI einzusetzen? Perfekt um CV nach CV zu scannen und vermeintlich top Bewerbungen zu filtern. Nur die „guten“ bleiben übrig und werden vom Recruiter weiter verfolgt. Viele Unternehmen machen dies schon, macht ja auch 100% Sinn.
Schnell mal gegen die DSGVO verstoßen:
Spannend fand ich allerdings, dass man hier bereits gegen die DSGVO verstößt – wenn man dies nicht beachtet hat:
Bewerber haben das Recht, nicht ausschließlich einer automatisierten Entscheidung unterworfen zu werden. Soll heißen: hast du keinen dokumentierten Ablauf, dass ein Mensch nochmals einen Blick auf die Absagen wirft („Human-in-the-loop“), dann verstößt du tatsächlich gegen geltendes Recht – Artikel 22 DSGVO. Interessant, oder? (Soviel auch zu der allgemein kommunizierten Meinung, dass die KI alle unsere Jobs übernehmen wird…). Scheinbar wird dieses Verhalten schnell von Bewerbern erkannt und zur Anzeige gebracht. Da ich die Ecke HR Services abdecke und weniger Recruiting & PE, habe ich dazu keine Meinung – aber es wird wohl was dran sein.
Verstöße gegen Gleichbehandlungsgesetz – KI Bias
Auch interessant fand ich unbewusste Verstöße gegen das Gleichbehandlungsgesetz: Wenn KI trainiert wird, dann können Bias, sprich systemische Verzerrungen auftreten.
Verzerrungen bei den Trainingsdaten – wenn zB Altdaten verwendet werden, die nicht mehr aktuell sind und somit die KI auf altes geschult wird. Nettes Beispiel hier: ein großer amerikanischer Lieferservice hatte wohl alte Daten für KI Trainingszwecke verwendet und alle weiblichen Bewerbungen für Lieferanten aussortiert. Ups.
Was auch passieren kann: Verzerrungen nach unbewusstem menschlichen Vorgehen. Wenn wir KI trainieren, dann fließen auch immer unbewusste Parameter mit ein. Beispielsweise kann es vorkommen, dass vorgegeben wird, nur deutschklingende Namen in die nähere Auswahl zu nehmen und allen anderen automatisch abzusagen. Nächstes Ups. Du denkst, das ist wohl banal und logisch? Scheinbar nicht, das passiert. Ich finds auch unglaublich und daher ist es mir diese Zeilen wert.
So, dies war ein kleiner Ausreißer in andere HR Welten – ich kümmer mich wieder um KI im Bereich HR Services; sprich Payroll, Time & Absence, Travel und Reporting 😉