예측 알고리즘과 운명: 기술이 미래를 결정하는 사회
예측은 통제의 다른 이름인가 당신이 다음에 클릭할 광고, 들을 음악, 볼 영상, 구매할 상품은 이미 알고리즘에 의해 예측되고 있습니다. 보험료 책정, 범죄 가능성 평가, 학업 성공률 분석, 직원 이직 예측 같은 결정들 역시 기계가 과거의 데이터를 기반으로 당신의 미래를 추산한 결과 일 수 있습니다. 예측은 더 나은 선택과 효율을 위한 기술처럼 보이지만, 실상은 미래를 고정된 수치로 환원하고, 존재의 가능성을 줄이는 방식으로 작동 합니다. 사이보그 사회에서 ‘예측된 나’는 점점 더 ‘결정된 나’가 되며, 우리는 선택하는 대신 선택당하는 존재로 전환 됩니다. 알고리즘은 중립적이지 않다 예측 시스템은 과거 데이터를 기반으로 작동합니다. 하지만 그 과거는 이미 차별과 편견, 사회적 불균형이 내재된 세계 입니다. 예를 들어 특정 인종이나 지역이 높은 범죄율을 보인다는 데이터가 있더라도, 그것이 구조적 빈곤이나 차별 때문일 가능성은 기술이 반영하지 않습니다. 대신 알고리즘은 그 사실을 ‘패턴’으로 전환하고, 그것을 근거로 미래를 제한 합니다. 결과적으로 기존의 불평등은 기술을 통해 더욱 정교하게 반복되고 정당화됩니다. 사이보그 페미니즘은 이 구조를 기술을 통한 통제 사회의 윤리적 맹점 으로 간주하며, ‘예측은 권력’이라는 점을 강조합니다. 가능성의 정치학 기술이 말하는 미래는 확률적 미래입니다. ‘이럴 가능성이 높다’는 판단은 실제로는 ‘이런 식으로 판단하겠다’는 선언과 같으며, 이는 개인의 삶을 통계적으로 축소하고 그 너머의 가능성을 닫는 행위 일 수 있습니다. 누군가에게 대출이 거부되거나, 교육 기회가 차단되거나, 채용에서 배제되는 일이 일어났을 때, 그 근거가 ‘예측 점수’라면 우리는 미래를 살아보기도 전에 평가당하는 구조 속에 있는 것입니다. 예측은 편의를 제공하지만, 미래를 열어주기보다 닫아버릴 수도 있는 잠재적 위험 을 내포하고 있습니다. 기술에 저항하는 존재로서의 사이보그 사이보그는 기술과 결합된 존재이지만, 동시에 기술이 말하지 ...