Kandidatenauswahl per Interview: ein effektives Vorgehen?

Immer wieder stellt sich heraus, dass etablierte Prak­ti­ken wirkungs­los oder sogar kontra-produk­tiv sind.

Nutz­lose Proze­du­ren halten sich über Jahr­zehnte, ohne jeden Nach­weis ihrer Effek­ti­vi­tät. Sie können den Status heili­ger Kühe haben. Bessere Entschei­dungs­stra­te­gien helfen, sie zu hinter­fra­gen. Sie, wenn sinn­voll, abzu­schaf­fen oder zu verän­dern. Wie Sie solche Entschei­dungs­re­geln entwi­ckeln, erfah­ren Sie in Semi­na­ren und Support mit SolidDecisions.

Bezo­gen auf die Perso­nal­aus­wahl veröf­fent­lichte der US-Forscher Jason Dana 2017 eine Studie. Sie auch in der New York Times, dort mit dem Titel “The Utter Usel­ess­ness of Job Inter­views”, veröffentlicht.

Die Studie ist meines Wissens die Erste, die die Nütz­lich­keit von Einstel­lungs­in­ter­views metho­disch robust (durch rando­mi­sier­tes Studi­en­de­sign) unter­sucht. Das Ergeb­nis: Unstruk­tu­rierte Inter­views verbes­sern die Entschei­dung nicht gegen­über einer Zufalls­aus­wahl. Statis­tisch sind sie der Zufalls­aus­wahl sogar leicht unter­le­gen. Struk­tu­rierte Inter­views schnei­den nur gering­fü­gig besser ab.

Trainings und Workshops

Kluges Entscheiden

Verbes­sern Sie die Entschei­dungs­kom­pe­tenz Ihrer Orga­ni­sa­tion. Redu­zie­ren Sie Entschei­dungs­kon­flikte, Fehl­ent­schei­dun­gen, Über­ana­lyse und Meetings ohne Resultate.

Gerade sozi­al­wis­sen­schaft­li­che Studien werden später oft rela­ti­viert oder gar wider­legt. Aber für den Moment ist dies — wie gesagt, nach meinem Wissen — die einzige zu dem Thema, die über­haupt wissen­schaft­lich solide ist.

Welcher Wert wird wohl — ganz grob — jedes Jahr in der Euro­päi­schen Union vernich­tet, wenn der Befund korrekt ist? Das Statis­ti­sche Bundes­amt gibt an, dass es in der EU insge­samt 234 (wir runden im Folgen­den auf 200 ab) Millio­nen Erwerbs­tä­tige gibt. 

Machen wir dazu folgende Annahmen:

  • Jede dieser Stel­len wird durch­schnitt­lich alle 6 Jahre neu besetzt.
  • Für jede Beset­zung werden durch­schnitt­lich 3 Kandi­da­ten interviewt.
  • Jeder Kandi­dat wird durch durch­schnitt­lich 2 Fach- und Führungs­kräfte interviewt.
  • Jedes Inter­view dauert durch­schnitt­lich 45 Minu­ten und wird 15 Minu­ten lang vorbereitet.
  • Die Arbeits­kos­ten für Inter­viewer betra­gen 50 € je Stunde

Also: 

Anzahl Stellenbesetzungen pro Jahr 

= 200 Mio. Stel­len x 1/6 Beset­zun­gen je Stelle je Jahr
= 100/3 Mio. Beset­zun­gen je Jahr

Aufgewandte Stunden pro Jahr

= 100/3 Mio. Beset­zun­gen je Jahr x 3 Kandi­da­ten je Beset­zung x 2 Inter­viewer x 1 Stunde je Inter­view
= 200 Mio. Stun­den je Jahr 

Anfallende Arbeitskosten pro Jahr

= 200 Mio. Stun­den je Jahr x 50 € je Stunde
= 10 Mrd. € pro Jahr

Wenn Sie meine Annah­men nicht teilen, setzen Sie einfach Ihre eige­nen ein. In jedem Fall wird am Ende ein enor­mer Betrag herauskommen.

Ein Unter­neh­men mit 5.000 Mitar­bei­tern vernich­tet demnach jähr­lich mindes­tens eine Vier­tel­mi­lion Euro — durch “utterly useless job interviews”.

Recru­ting-Exper­ten stellt sich natür­lich jetzt die Frage: “Sind wir betrof­fen? Oder sind — in unse­rem Falle — die Inter­views hilf­reich dabei, die Einstel­lung­ziele zu erreichen?”

Das Design des Auswahlprozesses überprüfen

Die Antwort kann Ihnen nur ein Expe­ri­ment liefern. Und zwar ein rando­mi­sier­tes Expe­ri­ment. Sie müssen also ein bißchen ins Risiko gehen, und eine Anzahl kommen­der Stel­len­be­set­zun­gen für ein Expe­ri­ment nutzen. 

Dabei lassen Sie für die Hälfte der Stel­len die Beset­zung durch die Inter­viewer entschei­den — und für die andere Hälfte durch das Los. Welche der Stel­len per Inter­view oder Los besetzt werden, muss eben­falls durch Losen entschie­den werden.

Wie viele Stich­pro­ben (aka Stel­len­be­set­zun­gen) brau­chen Sie für das Expe­ri­ment? Wahr­schein­lich weni­ger als Sie denken. Wenn Sie das Bayes-Theo­rem nutzen, können schon einige Stich­pro­ben die Wahr­schein­lich­keit, daß Sie aufs falsche Pferd setzen, bzw. eine inef­fi­zi­ente Methode verwen­den, deut­lich redu­ziert werden.

Nach einem und zwei Jahren fragen Sie dann, mit welcher Wahr­schein­lich­keit die einzel­nen Kandi­da­ten auch jetzt noch als gute Wahl bewer­tet würden. Dabei sind es natür­lich nicht die Inter­viewer, die diese Bewer­tung vorneh­men sollen. Denn die werden tenden­zi­ell die Kandi­da­ten besser bewer­ten, die sie selbst ausge­wählt haben. Das Design des Expe­ri­ments muss ausschlie­ßen, dass “self fulfil­ling prophe­cies”, sich selbst erfül­lende Prophe­zei­un­gen erzeugt werden.

Ist Ihnen das Experiment zu riskant? Welches Risiko bedeutet es für Ihr Unternehmen, es nicht zu machen???

Soweit, so gut. Nehmen wir an, Sie finden heraus, dass die Inter­views in Ihrer Orga­ni­sa­tion den Würfel nicht schla­gen. Bedeu­tet das, ab jetzt wird gewür­felt? Nicht notwen­dig. Sie haben die Chance andere Designs für die Erfül­lung der Entschei­dungs­auf­gabe zu entwi­ckeln und zu testen.

Beach­ten Sie dabei eine zentrale Regel:

Keep it simple! 

Versu­chen Sie nie, Unsi­cher­heit und Komple­xi­tät mit Kompli­ziert­heit zu über­win­den. Sie haben eine gute Chance ein Entschei­dungs­de­sign zu finden, das dem bestehen­den über­le­gen UND sehr viel schlan­ker ist.

Versu­chen wir es doch gemein­sam, indem wir einige Erkennt­nisse der Solid­De­cisi­ons-Methode anwenden.

Wir soll­ten …

  • irrele­vante Fakto­ren unwirk­sam machen (z. B. Geschlecht, Natio­na­li­tät, Ausse­hen, Stimme, Dialekt, Klei­dungs­stil, Tageszeit).
  • Defi­ni­tion und Anwen­dung von Entschei­dungs­re­geln perso­nell vonein­an­der trennen.
  • Refe­ren­zen zur Entschei­dung heranziehen.
  • Wahr­schein­lich­kei­ten schät­zen statt in ja-nein-Kategorien.

Ein alternatives Entscheidungsdesign

Statt persön­li­cher Inter­views, bei denen — unbe­wusst und unkon­trol­lier­bar — alle mögli­chen nicht entschei­dungs­re­le­van­ten Fakto­ren eine erheb­li­che Rolle spie­len, setzen wir Tele­fon oder ein Chat-Programm — even­tu­ell sogar einen Chat-Bot ein. Zwei Drit­tel der Fragen könn­ten struk­tu­riert sein und das dritte Drit­tel spontan-situativ.

Das Tele­fon- oder Chat-Proto­koll wird den Inter­view­ern später zur Beur­tei­lung übergeben.

Die “Inter­viewer” bekom­men als Refe­renz eine Beschrei­bung drei (virtu­el­ler) frühe­rer Kandi­da­ten. Alle drei wurden vor ca. drei Jahren (virtu­ell) einge­stellt. Eine Person wird als Top-Perfor­mer und eine weitere als guter Perfor­mer beschrie­ben. Die Dritte wurde nach der Probe­zeit nicht weiter beschäftigt.

Die Inter­viewer sollen nun, z. B. anhand des Chat-Proto­kolls, schät­zen, mit welcher Wahr­schein­lich­keit (in Prozent) jeder Kandi­dat in drei Jahren das Outcome jeder der drei Refe­renz­per­so­nen erreicht. Als Tabelle etwa so:

Kandidatenauswahl Einstellungsentscheidung

Dabei soll­ten die Inter­viewer ihre Beur­tei­lun­gen getrennt durch­füh­ren, um Grup­pen­ef­fekte zu vermeiden.

Dieses Design ist nur ein Beispiel. Es erfüllt auf jeden Fall das “Keep-it-simple”-Kriterium — Die Anwen­dung ist nicht aufwän­di­ger oder kompli­zier­ter als die von tradi­tio­nel­len Job-Interviews. 

Ausser­dem redu­ziert es die Wahr­schein­lich­keit von Entschei­dungs­ver­zer­run­gen durch irrele­vante Fakto­ren sowie die mit der Entschei­dung verbun­dene kogni­tive Last.

Die mögli­che Über­le­gen­heit des Entschei­dungs­de­signs muss sich natür­lich noch in rando­mi­sier­ten Tests bewei­sen. Das Design müsste dann bessere Ergeb­nisse brin­gen als tradi­tio­nelle Job-Inter­views sowie das Zufallslos.

Anschlie­ßend kann es durch Varia­tion und A/B‑Tests weiter verbes­sert werden.