인공지능 인재 채용 시스템

“AI 버블이 온다”라는 책을 읽고 있습니다. 읽으면서 깜짝 놀랐던 사실이 있는데, 기업에서 직원을 채용할 때 인사부서가 지원자를 면접하지 않고 인공지능 소프트웨어를 통해 지원자를 걸러내거나, 아예 직접 면접에서 지원자를 시험하기도 하는 사례가 상당히 많다는 사실입니다.

당연히 기업들은 이런 채용소프트웨어가 어떤 기준을 가지고 채용자를 구별하는지를 전혀 알려주지 않기 때문에 지원자들은 자신이 어떤 기준에 의해 판단되는지를 전혀 모릅니다. 여기까지는 그런가보다 하겠지만, 가관은 이후 지원자들이 보여주는 대응책(?)입니다.

지원자들은 불투명한 채용AI를 우회하기 위해 동원할 수 있는 거의 모든 수단을 사용하기 시작했습니다. 이력서를 사람은 볼 수 없지만 AI는 알아볼 수 있는 흰 글씨로 명문 대학교의 이름(당연히 지원자와 아무런 상관이 없는)을 추가하거나, 입사지원서에서 인기있는 핵심 키워드들로 가득 추가하기도 합니다. 또한, 지원서 안에 복잡하고 현학적인 단어를 사용해서 AI에게 잘 보이려 들기도 합니다.

문제는 지원자들의 그런 시도들이 인공지능에게 효과가 없다고 확신할 수 없다는겁니다.

https://interaktiv.br.de/ki-bewerbung/en/

위의 논문은 2021년에 발표된 리서치로 영상 면접기반 채용 소프트웨어를 제작하는 뮌헨 소재 스타트업인 레토리오에 관한겁니다. 놀랍게도 면접 영상에서 스카프나 안경을 착용하는 등 외모에 조금만 변화를 줘도 AI툴이 산정하는 면접 점수가 크게 달라졌습니다. 심지어 배경에 책꽂이나 그림을 추가해도 점수가 올라갔으며, 화면을 어둡게 하면 점수가 내려갔습니다. 다른 연구에서는 채용에 사용된 인성검사가 이력서 파일을 PDF에서 일반 텍스트로 바꾸는 것만으로도 인성점수가 달라졌다고 합니다.

왜 이런 일이 벌어졌을까요? 인공지능은 근본적으로 패턴을 추출하고, 그 패턴에 근거해서 예상값을 도출하는 프로그램입니다. 지원자들의 적성이나 신뢰도, 또는 인성을 판단하는데 통계적으로 유용할 것으로 추론할만한 어떤 “상관관계”도 여과없이 그러한 예상의 근거로 활용될 수 밖에 없습니다.

하지만, 그러한 상관관계가 인과관계를 의미하는 건 아닙니다.

통계적으로 유의한 상관관계가 입증된다고 해서 그걸 인과관계로 착각하면 절대 안된다는 걸 이해하기 어렵다면, 이걸 생각해봅시다. 우리가 불이 나는 화재현장에는 어김없이 소방차와 소방관을 보게 됩니다. 소방차와 화재발생 사이엔 강력한 “상관관계”가 존재한다는거지요. 그런데, 이런 상관관계를 인과관계로 착각하면 이런 결론을 내리게 됩니다.

“불이 나는 곳마다 소방차와 소방관이 보이니, 화재를 예방하기 위해서 소방차와 소방관을 없애자”

인공지능은 바로 이 부분, 즉 상관관계와 인과관계를 구분하는 능력이 전혀 없습니다. 애초에 그걸 구분할 수 있는 능력을 제시하는 건 불가능합니다. 그렇기 때문에, 이런 인재채용의 과정을 도와주는 인공지능 소프트웨어는 근본적으로 신뢰할 수 없으며, 신뢰도를 높이기 위해서는 반드시 사람의 판단력, 그것도 책임과 권한을 가진 사람의 판단력이 반드시 포함되어야 합니다. 이건 인공지능 소프트웨어가 아무리 학습을 많이 하고 세련된 추론과정을 거친다 해도 극복하기 어려운 부분입니다.

댓글 남기기