Künstliche Intelligenz optimiert Recruiting

Für große Unternehmen, die regelmäßig hunderte neuer Stellen besetzen, ist Künstliche Intelligenz beim Recruiting ein Segen. Die Routine erledigt der Computer – und Recruiter:innen können sich auf ihre Kernaufgaben konzentrieren: Gespräche mit Bewerber:innen führen. Das gehört zu den Tätigkeiten, die ihnen die KI noch nicht abnehmen kann. Auf Seite von Jobsuchenden geht die Idee von KI im Recruiting-Bereich jedoch manchmal mit gewissem Unbehagen einher. Wer seinen Lebenslauf auf einem Stellenportal hochlädt, beschleicht mitunter das Gefühl, eine „Maschine“ könnte ihn aussortieren. Diese Befürchtungen entbehren jeder Grundlage, bekräftigt KI-Spezialistin Olena Linnyk. Grund zum Aufatmen!

Olena Lynnek: Künstliche Intelligenz|

Olena, Künstliche Intelligenz ist im Recruiting-Bereich fast etwas angstbesetzt. Bewerber:innen fürchten, von der KI aussortiert zu werden, anders als vielleicht von echten Menschen in HR-Abteilungen. Wie unterstützt du Recruiter:innen mit KI?

Ja – KI kann tatsächlich diskriminieren. Genau, wie eine Person diskriminieren kann. Eine KI, die von „schlechten“ Daten lernt, wird auch immer entsprechend „schlechte“ Ergebnisse liefern. Im Endeffekt sind es Menschen, die für Algorithmen zuständig sind. Deswegen ist Transparenz so wichtig. Mit mehr Transparenz kann man Ängste nehmen und Vorbehalte abbauen. Unser Ziel ist es, mit Hilfe von KI das Recruiting einfacher, schneller, besser und effektiver zu machen. Dabei geht es uns stets darum, dass Künstliche Intelligenz die menschliche Entscheidungsfindung unterstützt, niemals ersetzt.

Deswegen liegen aus unserer Sicht die Einsatzbereiche von KI heute bei der Optimierung von Stellenanzeigen, dem Matching von Skill-Profilen zu Stellenausschreibungen oder dem Einsatz von Chatbots. Hierzu analysieren wir mit Hilfe von Natural Language Processing die Bedeutung von Sprache und benutzen dabei möglichst viele nicht-personenbezogene Daten – beispielsweise Stellenanzeigentexte oder transkribierte Dialoge aus Telefonaten von Bewerber:innen mit Personalabteilungen. Diese Texte anonymisieren wir natürlich – und lernen daraus, welche Fragen statistisch gesehen am häufigsten vorkommen. Natürlich sprechen wir auch mit den Recruiter:innen, bei welchen Themen wir sie unterstützen können, damit sie nicht jeden Tag hundertmal die gleichen Fragen beantworten müssen.

Für die Bewerber:innnen ist unsere Arbeit auch von Vorteil, denn sie müssen nicht warten, bis jemand vom Recruiting Zeit für sie hat. Das verbessert die User-Experience, denn eine KI kann jederzeit Fragen beantworten, auch mitten in der Nacht oder am Wochenende. Gleichzeitig können Kandidat:innen freier sprechen. Manche Menschen haben Hemmungen, jemanden anzurufen und zu fragen: Kann ich Teilzeit arbeiten? Wie viele Tage kann ich im Homeoffice arbeiten? Wie viel kann ich verdienen? Letzteres ist ja in Deutschland immer noch so ein Tabuthema, aber jeder will das Gehalt gern wissen, bevor er oder sie sich bewirbt. Vielen gehen solche Fragen bei einem Chatbot leichter über die Lippen.

PD Dr. Olena Linnyk ist Physikerin und Spezialistin für Künstliche Intelligenz (KI).  Olena hält Vorlesungen zur Künstlichen Intelligenz an den Fachbereichen Mathematik und Informatik, Physik, Geografie und Medizin der Justus-Liebig-Universität Gießen. Außerdem forscht sie in der Gruppe „DeepThinkers“ am Frankfurt Institute for Advanced Studies. Als Autorin hat sie mehr als hundert Artikel in Fachpublikationen veröffentlicht, die – in der Wissenschaft ist das üblich – zuvor von unabhängigen Gutachtern überprüft wurden. Außer Deutsch und Englisch spricht Olena auch Ukrainisch, Russisch, Ungarisch und Chinesisch. Die 44-Jährige lebt mit Mann und zwei Kindern in Gießen. Ihr Hobby ist ihr Garten.

Eure Arbeit mit Daten klingt erstmal sehr naturwissenschaftlich. Wie sehr seid ihr auf die Kooperation mit anderen Disziplinen angewiesen?

Forschung ist für unsere Arbeit sehr wichtig. Wir arbeiten mit vielen Universitäten zusammen. Bei technischen Themen kooperieren wir mit technischen Hochschulen im In- und Ausland, aber wir interessieren uns auch für sozialwissenschaftliche und ethische Fragen: Wie nehmen Menschen die Technologie an? Welche Kompetenzen brauchen Recruiter:innen, um KI richtig anwenden zu können? Was ist vertrauenswürdig? Was ist fair? Wie vermeiden wir Bias, das heißt Vorurteile, gegenüber Menschen? 

Was wir brauchen, ist ein System, das dem Personal im Recruitment aufzeigt, wenn Bias in die eine oder andere Richtung auftauchen. Mit Michael Kersting, Professor für Psychologische Diagnostik an der Justus-Liebig-Universität Gießen, sitzt ein Mitglied des Ethikbeirats HR-Tech direkt in unserer Nachbarschaft.

Was ist das Faszinierende an der Arbeit mit Künstlicher Intelligenz?

Ich liebe Daten. Ich liebe Real-World-Data, die echten Daten aus der wirklichen Welt. Sie sind so wunderbar unperfekt. Denn bei der Analyse entdecken wir statistische Fehler: Daten, die krude gemischt und nicht gleichmäßig verteilt sind. Das macht die Sache so spannend. In der Physik gibt es immer eine Theorie, wie wir uns das Ideal vorstellen. Aber dann müssen wir dieses Ideal einer realen Analyse unterziehen. Dabei finden wir in Experimenten oft systematische Verzerrungen. Bias sind nichts anderes als systematische Verzerrungen in den Sozialwissenschaften. Ich habe für mich die Möglichkeit entdeckt, mit meinen mathematischen Tools und meinem Verständnis von Daten sozialwissenschaftlich relevante Bias zu verringern – und das hat mich sehr interessiert.

Hast du ein Beispiel dafür, was Bias im Recruiting im schlimmsten Fall anrichten können?

Wir sprachen ja eingangs von Diskriminierung. Und Stellenanzeigen im Netz sind immer noch der häufigste Weg des ersten Kontakts zwischen Bewerber:innen und dem Recruitment. KI ist sehr hilfreich, um die Texte von Stellenanzeigen so zu optimieren, dass sie niemanden – gewollt oder ungewollt – ausgrenzen. Sowohl inhaltlich als auch verbreitungstechnisch. Denn KI sorgt vielfach dafür, dass Anzeigen überhaupt gefunden werden. Leute können – über die bestimmte Berufsbezeichnung hinaus – auch nach anderen Kriterien suchen: Dem Arbeitsort oder nach den eigenen Fähigkeiten.

Dabei kann es passieren, dass durch eine unglückliche Formulierung tief im Anzeigentext Bias versteckt ist, obwohl das gar nicht gewollt ist. Ein vereinfachtes Beispiel: Eine Stelle wird mit einem Mann oder einer Frau assoziiert. Wenn eine Stellenanzeige so geschrieben ist, dass nur ein Mann sich davon angesprochen fühlt – nicht nur durch den Stellentitel selbst, sondern auch durch die Wortwahl im Text – wird sich eine Frau nicht bewerben, weil sie sich nicht als passend empfindet.

Darüber hinaus wird ihr eine Plattform, wie beispielsweise ein Business-Netzwerk oder Google, die Anzeige gar nicht erst zeigen. Denn das System, das entscheidet, wer welche Werbung sieht, orientiert sich auch oft an stereotypischen, statistischen Darstellungen von Menschen. Wurde die Stellenanzeige nicht geschlechtsneutral formuliert, werden Frauen sie in ihrer Timeline möglicherweise gar nicht angeboten bekommen – und dann bewirbt sich auch keine Frau.

Umgekehrter Fall: „Flight Attendant“ ein gender-neutraler Begriff. Aber die KI hat gelernt, dass Flight Attendants eher Frauen sind. Wenn ich also ein Bild von einem Flight Attendant durch KI generieren lasse, werde ich hauptsächlich Flugbegleiterinnen bekommen – eine Verstärkung von Bias. Das Leben zeigt, es gibt mehr Frauen in dem Beruf, aber nicht zu hundert Prozent. Eine Maschine will in erster Linie effektiv sein. Je weniger Parameter, desto besser. So wird sie Minoritäten, wie eben männliche Flugbegleiter, vernachlässigen und nur Frauen als Flight Attendants vorschlagen. Wir müssen daher die Daten und ihre Verteilung sehr gut verstehen, um ermessen zu können, ob und wie wir sie zum Training der Maschine verwenden.

Hilft KI eigentlich dabei, Menschen mit anderen ethnischen Hintergründen im Recruiting NICHT zu diskriminieren? Manche Personaler könnten doch – bewusst oder unbewusst – Vorurteile gegen People of Colour haben. Die hat KI doch eher nicht, oder?

Die KI würde diese Vorurteile nicht haben, wenn sie sie nicht gelernt hätte. Wenn KI jedoch von uns realen Menschen lernt, dann lernt sie auch unsere Vorurteile. Es funktioniert eben nicht, die Daten einfach in eine Maschine zu werfen und sie dann daran trainieren zu lassen. Wir sind immer vorsichtig mit Matching und Vorauswahl. Wir wollen, dass es fair zugeht und wollen daher keine automatische Vorauswahl treffen. Hilfreich ist sicherlich der Abgleich von Qualifikationen.

Manche Qualifikationen können ein Ausschlusskriterium sein. Wenn ich keinen Führerschein habe, er aber gebraucht wird, um eine gewisse Aufgabe zu erfüllen, scheide ich aus. Das ist sinnvoll. Deswegen müssen wir stets dafür Sorge tragen, dass wir nicht die Bias lernen und noch verstärken. Es ist für Unternehmen sehr wichtig, die richtige Person einzustellen. Ebenso ist es für Bewerber:innen mitunter eine Lebensentscheidung, eine bestimmte Stelle anzunehmen. Dieser Verantwortung müssen wir Menschen, die wir KI entwickeln, uns immer bewusst sein und ethisch danach handeln.

Setzt ihr bei euch in der Software-Firma auch KI beim Recruiting ein?

Natürlich tun wir das. Wir nutzen unsere digitalen Lösungen, um unsere Stellenanzeigen so zu formulieren, dass sie keine voreingenommene Sprache tragen. Aber mit rund 160 Kolleginnen und Kollegen haben wir noch eine recht überschaubare Größe, so dass wir nicht hunderte von offenen Vakanzen haben. Den eigentlichen Auswahl-, Einstellungs- und Onboarding-Prozess können wir noch persönlich schultern. Das ist bei einem großen Unternehmen, das tausende von Bewerbungen bekommt, nicht mehr so ohne weiteres möglich.

Was ist denn dein Traum, was KI in einer fernen Zukunft leisten können müsste? Bewerbungsgespräche mit einem Roboter?

Für mich als Physikerin und Forscherin wäre das natürlich eine interessante Vision, die sogar viel früher Wirklichkeit werden könnte, als wir uns das vorstellen können. Allerdings würde ich mir und uns allen einen Roboter wünschen, der schon etwas „erwachsener“ wäre als zum jetzigen Zeitpunkt. Denn KI ist momentan in vieler Hinsicht noch auf dem Stand eines zwei- bis fünfjährigen Kindes. Und wer möchte bei einer wichtigen Entscheidung schon einen zweijährigen Interviewpartner haben?

Ein Roboter müsste in Zukunft fähig sein, eigene Grenzen zu erkennen und wissen, wann es Zeit ist, einen Menschen zu Hilfe zu rufen. Wie etwa im Krankenhaus. Der Roboter müsste – wie es die Krankenschwester tut – selbstständig erkennen, dass in einem bestimmten Fall nur ein Arzt entscheiden kann. Das könnte in Form einer Videokonferenz geschehen. Es müsste kein Arzt persönlich erscheinen. In dieser Hinsicht forschen wir. Davon abgesehen träume ich von einem „automatischen Gehirn“, das ein Gewissen hat, Gut von Böse unterscheiden kann und sich entsprechend verhält. Das ist etwas, das mich antreibt.

Olena, vielen Dank für das Gespräch!

COCON25

COPETRI CONVENTION