AI 면접과 표준화된 인간성: 기계는 어떤 사람을 뽑는가?
기계가 사람을 평가하는 시대
이제는 입사지원서뿐 아니라 면접조차도 AI가 담당하는 시대입니다. AI 면접은 지원자의 표정, 말투, 키워드 사용, 응답 속도, 시선 처리 등을 분석해 적합도 점수를 매기며, 기업은 이를 기준으로 최종 면접자를 결정합니다. 표면적으로는 공정하고 효율적인 시스템처럼 보이지만, 실제로는 어떤 사람이 ‘좋은 지원자’인지에 대한 기준이 기술적으로 설계되어 있다는 점에서 중립성을 의심받고 있습니다. 즉, AI는 인재를 ‘발견’하는 것이 아니라, 미리 정해진 기준에 따라 인간을 분류하고 표준화된 인간성을 요구하는 필터로 작동합니다.
정답을 아는 사람만 통과하는 구조
AI 면접은 학습된 데이터에 기반해 특정 언어 사용, 정서 표현, 비언어적 반응 등을 긍정적으로 평가합니다. 예를 들어 밝은 표정, 빠른 응답, 논리적인 말투, 높은 음성의 안정성 등이 우선시되며, 반대로 불안한 표현, 긴 침묵, 다층적인 맥락 제시는 감점 요소가 될 수 있습니다. 이는 단순히 면접 스킬이 부족한 것이 아니라, 다양한 정체성과 커뮤니케이션 방식이 배제되는 구조를 만들 수 있습니다. 사이보그 페미니즘은 이러한 평가 방식이 기술을 통한 인간성의 규격화이며, 특정 성격·정체성·배경을 가진 사람들만을 ‘정상’으로 간주하는 시스템이라 지적합니다.
기술은 어떤 인간을 선호하는가
AI가 선호하는 인간상은 비가시적으로 존재합니다. 대체로 ‘말 잘하고 빠르게 반응하며 에너지가 있어 보이는’ 사람, 즉 표준화된 커뮤니케이션 모델에 잘 맞는 사람이 높은 점수를 받습니다. 이는 내향적인 사람, 감정 표현이 익숙하지 않은 사람, 특정 언어나 억양에 제한이 있는 사람들에게 구조적인 불이익을 줄 수 있으며, 동시에 기업 문화에 ‘비슷한 사람들만 반복해서 들어오는 동질화 현상’을 강화합니다. 알고리즘이 추구하는 이상적인 인간상은 다양성과 예외를 제거하고, 기술 친화적인 효율성 중심 인간 모델만을 재생산합니다.
인간은 점수화될 수 있는가
AI 면접 시스템은 한 개인의 복잡한 삶과 경험, 사고의 맥락, 감정의 결을 수치화 가능한 항목으로 단순화합니다. 그 결과로 나온 점수는 객관적으로 보이지만, 실제로는 질문 구성, 카메라 각도, 분석 모델의 학습 데이터 등 기술적 요소에 크게 좌우됩니다. 이 점수에 따라 누군가는 다음 면접으로 가고, 누군가는 기회조차 얻지 못합니다. 우리는 기술이 만든 점수를 객관적이라 믿지만, 그 점수는 어떤 존재가 더 적합한지를 결정하는 기준을 인간이 만든 알고리즘이 정한 것에 불과합니다.
기술은 기준이 아니라 질문이 되어야 한다
사이보그 페미니즘은 AI 면접을 ‘기술의 진보’로 보지 않습니다. 오히려 이는 인간의 복잡성을 기술적으로 단순화하고, 다양성을 제거하며, 효율성을 중심으로 인간을 설계하려는 시도라고 봅니다. 중요한 건 어떤 기술을 쓰느냐가 아니라, 그 기술이 어떤 인간상을 이상으로 만들고, 누가 그 기준에서 배제되는지를 함께 묻는 것입니다. 기술은 사람을 판별하는 기준이 아니라, 사람이 어떻게 살아가고 말하며 느끼는지를 이해하기 위한 윤리적 질문이 되어야 하며, 우리는 기계가 아닌 관계와 가능성을 기준으로 사람을 만나는 사회를 상상할 수 있어야 합니다.
댓글
댓글 쓰기