젠더와 알고리즘: 기술은 누구의 몸을 기본값으로 삼는가?

기술은 중립적이지 않다

우리는 종종 기술을 객관적이고 공정한 도구로 상상하지만, 실제로 기술은 그것을 설계한 사회의 구조, 편견, 규범을 반영합니다. 특히 인공지능, 생체 인식, 음성 인식, 얼굴 인식 등 다양한 알고리즘 기반 기술은 특정한 성별, 인종, 신체 조건을 기본값으로 설계하며, 이로 인해 그 ‘기본값’에 포함되지 않는 몸은 오류나 예외로 처리됩니다. 사이보그 페미니즘은 이 지점을 기술의 한계가 아니라 기술이 이미 사회적 권력 관계를 코드화한 결과로 해석합니다. 즉, 기술은 ‘누구를 기준으로 설계되었는가’를 묻지 않는 한, 차별을 복제하고 정당화하는 도구가 될 수 있습니다.


알고리즘은 어떤 몸을 기준으로 학습하는가

많은 기술이 학습하는 데이터셋은 남성 중심, 백인 중심, 비장애인 중심의 이미지와 행동을 기반으로 합니다. 그 결과 얼굴 인식은 어두운 피부색을 잘 인식하지 못하고, 음성 인식은 높은 톤이나 억양이 섞인 목소리를 오류로 간주하며, 체형 인식 기술은 다양한 몸의 변형을 ‘비표준’으로 처리합니다. 이런 시스템 하에서 트랜스젠더, 논바이너리, 장애인, 비표준 신체 조건을 가진 사람들은 ‘기술적으로 인식되지 않는 존재’가 되기 쉬우며, 이는 단지 기술의 부정확성 문제가 아니라 사회적으로 ‘인식될 자격’의 문제로 이어질 수 있습니다.


젠더는 기술적 구성물이기도 하다

성별은 단지 생물학적 차이가 아니라, 사회적 규범, 시선, 법, 기술이 함께 구성하는 수행적 정체성입니다. 하지만 많은 기술 시스템은 여전히 이분법적 젠더 구조(남/여)를 전제하며, 그 이외의 존재는 선택지조차 주어지지 않는 경우가 많습니다. 성별 선택 버튼, 화장실 위치 탐색 알고리즘, 음성 피치 기반의 성별 판별 기능 등은 젠더를 단일하고 고정된 정보로 처리하고 있으며, 이는 기술을 사용하는 사람의 존재를 자동적으로 분류하고 규정짓는 기제로 작동합니다. 기술은 성별을 인식하는 것이 아니라, 성별을 정해진 구조 안에 다시 고정시키는 작업을 수행하는 셈입니다.


보이지 않는 존재를 만들지 않기 위해

기술이 ‘편리함’을 제공한다는 명목 아래 어떤 몸을 보이지 않게 만들고 있다면, 우리는 그것을 편리하다고만 말할 수 없습니다. 공공시설에서 생체 인식 출입 시스템이 트랜스젠더를 인식하지 못하거나, 병원 예약 시스템에서 성별을 변경하지 못하거나, 콘텐츠 추천 알고리즘이 특정 정체성의 콘텐츠를 배제할 때, 이는 단지 시스템 오류가 아니라 기술 설계에서의 정치적 무지 혹은 의도된 배제로 읽을 수 있습니다. 사이보그 페미니즘은 이런 문제를 ‘인권’이나 ‘포용’이라는 추상적 구호가 아니라, 기술 설계 단계부터 어떤 몸과 정체성을 기본값으로 둘 것인가에 대한 정치적 선택의 문제로 제기합니다.


기술은 젠더를 학습할 수 있는가

진정한 의미의 포용적 기술은 젠더를 감지하거나 분류하는 것이 아니라, 젠더가 고정된 정체성이 아니라 유동적이고 관계적인 구성물임을 인식하는 기술 감각을 포함해야 합니다. 우리는 기술이 젠더를 정의하지 않기를 바라야 하며, 대신 다양한 젠더 정체성이 기술 환경에서도 실질적으로 존중받을 수 있는 설계 기준을 요구해야 합니다. 사이보그는 인간과 기계의 혼종적 존재이자, 규범에서 벗어난 모든 존재가 살아남기 위한 감각적 윤리의 상징입니다. 기술은 누구를 인식하느냐 이전에, 누구를 배제하고 있는지를 먼저 물어야 합니다.

댓글

이 블로그의 인기 게시물

사이보그와 교육: 지식은 누구의 몸을 통해 전달되는가?

사이보그와 생체 윤리: 기술은 어디까지 인간을 바꿀 수 있는가?

사이보그와 생체 윤리: 기술은 어디까지 인간을 바꿀 수 있는가?