사이보그와 인종: 기술은 차별을 복제하는가?
기술은 중립적인가?
많은 사람들은 인공지능, 빅데이터, 알고리즘이 인간보다 더 객관적이고 공정할 것이라 기대합니다.
하지만 현실은 그렇지 않습니다.
얼굴 인식 기술이 특정 인종에게 더 많은 오류를 일으키고,
AI 채용 시스템이 백인 중심의 이력서를 선호하며,
번역 알고리즘이 인종적 편견을 그대로 반영하는 사례들은
기술이 얼마나 쉽게 기존의 차별을 학습하고 복제할 수 있는지를 보여줍니다.
사이보그는 단순히 인간과 기계의 결합이 아닙니다.
그 안에는 여전히 사회적 위계, 권력, 차별이 데이터와 설계 안에 코드화된 채 남아 있습니다.
기술은 어떻게 인종을 차별하는가
대표적인 예는 얼굴 인식 시스템입니다.
여러 연구에서 이 기술이 백인의 얼굴을 인식하는 데는 정확도가 높은 반면,
흑인, 아시아인, 특히 여성의 얼굴 인식률은 현저히 낮다는 결과가 반복적으로 나왔습니다.
이유는 단순합니다.
학습 데이터가 백인 남성을 중심으로 구성되었기 때문입니다.
결국 기술이 차별을 만드는 것이 아니라,
차별적인 데이터를 학습한 기술이 그 구조를 되풀이하는 것입니다.
AI는 ‘있는 그대로’를 학습합니다.
그리고 우리가 가진 편견과 위계가 데이터 속에 담겨 있다면,
기계는 그것을 ‘정상’으로 받아들이고 재생산합니다.
사이보그는 정말 경계를 넘을 수 있을까?
도나 해러웨이의 사이보그 선언은
인간과 기계, 남성과 여성, 자연과 인공의 경계를 해체하자고 말했습니다.
하지만 실제 기술은 경계를 허물기보다는
기존의 경계를 디지털 방식으로 더욱 정교하게 구분하고 있습니다.
이처럼 사이보그는 태생적으로 해방적일 수 있지만,
현실 속에서 구현되는 사이보그 기술은
사회적 구조 안에 위치하고, 그 구조를 반영할 수밖에 없습니다.
사이보그는 누구나 될 수 있는 존재가 아닙니다.
누가 사이보그가 될 수 있고, 어떤 기술에 접근할 수 있는가는
결국 인종, 계급, 젠더 등 사회적 조건에 따라 다르게 결정됩니다.
기술이 해방의 도구가 되려면
사이보그 페미니즘은 기술이 해방을 가능하게 할 수 있다고 봅니다.
하지만 그 전제는 ‘기술이 누구의 경험과 현실을 반영하고 있는가’에 대한 질문을 반드시 포함해야 합니다.
흑인 여성, 이주민, 유색인종의 삶을 중심에 두고
기술을 설계하지 않는다면,
그 기술은 결국 백인 중심적 현실만을 표준으로 삼는 시스템이 될 것입니다.
진정한 사이보그는 단지 기계와 연결된 존재가 아니라,
기술을 통해 사회적 억압 구조를 해체하려는 실천의 주체입니다.
포스트휴먼 사회에서 인종을 다시 묻는다
포스트휴먼 시대는 인간의 정의가 유동적으로 바뀌는 시대입니다.
하지만 그 유동성조차 누구에게나 평등하게 주어지지 않습니다.
기술이 인종, 계급, 젠더 차별을 그대로 반영할 때,
포스트휴먼은 인간다움의 확장이 아니라
소수자 배제의 또 다른 수단이 될 수 있습니다.
사이보그 페미니즘은 기술이 차별을 해체할 수 있다는 희망을 품되,
그 기술이 어떻게 만들어졌고, 누구를 기준으로 하고 있으며,
누구의 목소리를 지우고 있는지를 끊임없이 질문해야 한다고 말합니다.
댓글
댓글 쓰기