디지털 애도: 우리는 어떻게 죽음을 기술로 통과하는가?

애도는 온라인으로 옮겨졌다 죽음을 마주하는 방식이 바뀌고 있습니다. 장례식에 직접 가지 못하는 사람들을 위한 실시간 중계, 고인의 SNS 계정을 추모 계정으로 전환하는 절차, AI 챗봇으로 재현된 고인의 목소리나 말투까지. 애도의 공간은 더 이상 제사상이나 공동체 모임이 아니라, 디지털 플랫폼 위에서 구성되는 감정의 구조물 이 되었습니다. 우리는 더는 함께 모여 울지 않아도 되고, 대신 댓글과 이모지, AI가 기억하는 메시지로 ‘애도의 수행’을 대신할 수 있게 되었습니다. 문제는 바로 그 순간, 죽음의 의미와 감정의 깊이가 기술에 의해 가공되고 있는지도 모른다는 사실입니다. 기억은 누구의 소유인가 고인의 사진, 영상, 문자 기록, 음성 파일은 클라우드에 남아 있고, 유족이나 지인이 원한다면 언제든 꺼내볼 수 있습니다. 나아가 일부 서비스는 생전에 축적된 데이터를 기반으로 고인의 화법과 감정을 재현해 ‘디지털 고인’을 생성 합니다. 그러나 이 기술은 ‘기억을 보존한다’는 명목 아래, 고인의 사적 감정과 관계 맥락을 탈맥락화한 상태로 재조립 하며, 죽은 자를 말하는 존재로 남기는 방식 으로 작동합니다. 사이보그 페미니즘은 이 과정을 기억의 민주화가 아니라, 기억의 기술적 재편성과 소유화 로 봅니다. 우리는 지금, 죽음을 추모하는 동시에 기술적으로 관리하고 있는 것 입니다. 애도는 감정이 아니라 절차가 되는가 디지털 애도는 ‘잊지 않음’의 방식을 바꾸었습니다. 기일마다 뜨는 SNS 알림, 시간 맞춰 자동으로 재생되는 추모 영상, 챗봇을 통한 대화 등은 감정의 자발적 흐름이 아니라 설정된 루틴에 따라 움직이는 감정의 자동화 로 이어질 수 있습니다. 우리는 실제로 슬퍼하고 있는가, 아니면 슬퍼하고 있다는 행동을 기술적으로 수행하고 있는가? 이 물음은 감정 자체가 문제가 아니라, 기술이 애도를 ‘형식화된 경험’으로 유도하고 있다는 점 에서 중요합니다. 감정이 진짜인지 아닌지를 따지려는 것이 아니라, 그 감정의 리듬이 누구에 의해 조정되고 있는지를 묻는 일...

기술과 돌봄: 우리는 기계를 신뢰할 수 있는가?

돌봄은 기술로 대체될 수 있는가 고령화 사회, 의료 인력 부족, 정서적 노동의 과중함 속에서 돌봄의 영역은 점점 기술에 의존 하게 됩니다. 노인을 위한 말벗 AI, 감정 반응 로봇, 치매 환자 관리 시스템, 아이 돌봄 CCTV 등은 돌봄을 더 효율적으로, 지속 가능하게 만든다는 명분 으로 확산되고 있지만, 실제로는 기술이 인간의 손길과 감각을 어떤 방식으로 재구성하고 있는지에 대한 질문 을 동반합니다. 사이보그 페미니즘은 돌봄을 단지 서비스나 기능이 아니라, 시간, 감정, 관계로 구성된 윤리적 실천 으로 바라보며, 기계가 그것을 수행할 수 있는가를 기술적으로가 아니라 존재론적으로 묻습니다. 기술은 누구를 돌보는가 AI 돌봄 시스템은 데이터를 기반으로 사용자 상태를 분석하고, 반응을 조율하며, 필요를 예측합니다. 하지만 이 기술이 **‘누구를 위해 설계되었는가’, ‘어떤 돌봄이 이상적인 것으로 간주되는가’**는 매우 중요합니다. 예를 들어 비장애인, 특정 언어 사용자, 중산층 이상을 기준으로 만들어진 시스템은 그 외의 존재들에게는 오작동하거나, 돌봄 자체를 제공하지 못할 수 있습니다. 돌봄 기술이 모두에게 공평하게 다가간다고 말할 수 없는 이유는, 그 설계 안에 포함되지 않은 몸과 삶이 너무 많기 때문입니다. 돌봄은 예측이 아니라 응답이다 AI는 데이터를 통해 예측하고, 미리 대응하려 합니다. 그러나 진짜 돌봄은 정해진 매뉴얼보다 돌발적 상황에 즉흥적으로 반응하는 감각 , 즉 ‘이 사람이 지금 왜 이런 표정을 짓는가’를 이해하려는 윤리적 감수성 에서 출발합니다. 기술은 효율적으로 돌볼 수는 있지만, 기계적으로 돌본다는 것 자체가 돌봄의 본질을 흐릴 수 있습니다. 사이보그적 존재는 돌봄을 기술의 대상이 아니라, 감정과 시간, 상호작용이 어긋나면서도 지속되는 ‘관계의 리듬’으로 이해합니다. 신뢰는 자동화될 수 없다 기술이 아무리 정밀해져도, 우리는 그것이 나를 ‘진짜로 이해하고 있는가’에 대해 의심 합니다. 왜냐하면 돌봄은 신뢰를 전제로 작동하...

디지털 거울: 알고리즘은 나를 어떻게 반영하는가?

알고리즘은 당신을 보고 있다 우리는 매일 알고리즘이 보여주는 세상을 마주합니다. 쇼핑 추천, SNS 피드, 검색 결과, 뉴스 큐레이션까지, **모든 화면은 당신의 과거 클릭, 시청, 좋아요에 기반하여 설계된 ‘개인화된 세계’**입니다. 이것은 마치 거울처럼 보입니다. 그러나 그 거울은 당신이 누구인지 있는 그대로 비추는 것이 아니라, 당신이 어떤 사람이어야 더 오래 머무를지 계산한 결과 를 비추고 있습니다. 사이보그 페미니즘은 이 알고리즘적 반영을 단순한 기술 현상이 아닌, 존재를 사회적으로 구성하고 통제하는 감각적 장치 로 해석합니다. 우리는 선택하는가, 선택당하는가 알고리즘은 사용자의 선택을 기반으로 작동한다고 말하지만, 실제로는 우리가 보지 못한 것, 선택하지 않은 것, 처음부터 제시되지 않은 것 에 의해 더욱 강하게 영향을 받습니다. 예를 들어 특정 성별, 인종, 지역에 따라 추천 콘텐츠가 달라지거나, 기존 클릭 패턴에 맞춰 비슷한 정보만 반복 노출될 때, 우리는 ‘선택하는 것처럼 보이지만 사실은 선택당하는 상황’에 놓입니다. 알고리즘은 우리의 존재를 고정된 범주로 분류하고, 그 범주 안에서 반복되는 이미지를 제공하며, 다양성과 우연성의 가능성을 제거한 채 ‘내가 기대되는 존재’로만 구성 합니다. 당신을 닮은 것이 아니라, 당신을 예측한 것 디지털 거울은 당신의 취향과 관심사를 보여주는 것처럼 보이지만, 그것은 실제의 당신이 아니라 당신이 과거에 남긴 흔적들의 통계적 예측 입니다. 이는 우리가 새로운 것을 시도하거나, 다른 삶의 방식을 상상하거나, 기존의 틀을 벗어나려는 시도 자체를 점점 더 어렵게 만듭니다. 알고리즘은 예외, 변칙, 실험, 모순을 제거한 일관된 사용자로서의 ‘당신’을 재생산하며 , 우리는 점점 과거의 반복으로 구성된 존재 로 살아가게 됩니다. 이처럼 기술은 가능성을 보여주는 거울이 아니라, 가능성을 닫아버리는 투사된 이미지 일 수 있습니다. 누구는 더 잘 반영되고, 누구는 왜곡되는가 모든 알고리즘이 공정하게 작동하는...

젠더와 알고리즘: 기술은 누구의 몸을 기본값으로 삼는가?

기술은 중립적이지 않다 우리는 종종 기술을 객관적이고 공정한 도구로 상상하지만, 실제로 기술은 그것을 설계한 사회의 구조, 편견, 규범을 반영합니다. 특히 인공지능, 생체 인식, 음성 인식, 얼굴 인식 등 다양한 알고리즘 기반 기술은 특정한 성별, 인종, 신체 조건을 기본값으로 설계 하며, 이로 인해 그 ‘기본값’에 포함되지 않는 몸은 오류나 예외로 처리 됩니다. 사이보그 페미니즘은 이 지점을 기술의 한계가 아니라 기술이 이미 사회적 권력 관계를 코드화한 결과 로 해석합니다. 즉, 기술은 ‘누구를 기준으로 설계되었는가’를 묻지 않는 한, 차별을 복제하고 정당화하는 도구가 될 수 있습니다. 알고리즘은 어떤 몸을 기준으로 학습하는가 많은 기술이 학습하는 데이터셋은 남성 중심, 백인 중심, 비장애인 중심의 이미지와 행동을 기반으로 합니다. 그 결과 얼굴 인식은 어두운 피부색을 잘 인식하지 못하고, 음성 인식은 높은 톤이나 억양이 섞인 목소리를 오류로 간주하며, 체형 인식 기술은 다양한 몸의 변형을 ‘비표준’으로 처리합니다. 이런 시스템 하에서 트랜스젠더, 논바이너리, 장애인, 비표준 신체 조건을 가진 사람들은 ‘기술적으로 인식되지 않는 존재’가 되기 쉬우며 , 이는 단지 기술의 부정확성 문제가 아니라 사회적으로 ‘인식될 자격’의 문제로 이어질 수 있습니다. 젠더는 기술적 구성물이기도 하다 성별은 단지 생물학적 차이가 아니라, 사회적 규범, 시선, 법, 기술이 함께 구성하는 수행적 정체성입니다. 하지만 많은 기술 시스템은 여전히 이분법적 젠더 구조(남/여)를 전제하며, 그 이외의 존재는 선택지조차 주어지지 않는 경우가 많습니다. 성별 선택 버튼, 화장실 위치 탐색 알고리즘, 음성 피치 기반의 성별 판별 기능 등은 젠더를 단일하고 고정된 정보로 처리 하고 있으며, 이는 기술을 사용하는 사람의 존재를 자동적으로 분류하고 규정짓는 기제로 작동 합니다. 기술은 성별을 인식하는 것이 아니라, 성별을 정해진 구조 안에 다시 고정시키는 작업을 수행 하는 셈입니다. ...

예측 알고리즘과 운명: 기술이 미래를 결정하는 사회

예측은 통제의 다른 이름인가 당신이 다음에 클릭할 광고, 들을 음악, 볼 영상, 구매할 상품은 이미 알고리즘에 의해 예측되고 있습니다. 보험료 책정, 범죄 가능성 평가, 학업 성공률 분석, 직원 이직 예측 같은 결정들 역시 기계가 과거의 데이터를 기반으로 당신의 미래를 추산한 결과 일 수 있습니다. 예측은 더 나은 선택과 효율을 위한 기술처럼 보이지만, 실상은 미래를 고정된 수치로 환원하고, 존재의 가능성을 줄이는 방식으로 작동 합니다. 사이보그 사회에서 ‘예측된 나’는 점점 더 ‘결정된 나’가 되며, 우리는 선택하는 대신 선택당하는 존재로 전환 됩니다. 알고리즘은 중립적이지 않다 예측 시스템은 과거 데이터를 기반으로 작동합니다. 하지만 그 과거는 이미 차별과 편견, 사회적 불균형이 내재된 세계 입니다. 예를 들어 특정 인종이나 지역이 높은 범죄율을 보인다는 데이터가 있더라도, 그것이 구조적 빈곤이나 차별 때문일 가능성은 기술이 반영하지 않습니다. 대신 알고리즘은 그 사실을 ‘패턴’으로 전환하고, 그것을 근거로 미래를 제한 합니다. 결과적으로 기존의 불평등은 기술을 통해 더욱 정교하게 반복되고 정당화됩니다. 사이보그 페미니즘은 이 구조를 기술을 통한 통제 사회의 윤리적 맹점 으로 간주하며, ‘예측은 권력’이라는 점을 강조합니다. 가능성의 정치학 기술이 말하는 미래는 확률적 미래입니다. ‘이럴 가능성이 높다’는 판단은 실제로는 ‘이런 식으로 판단하겠다’는 선언과 같으며, 이는 개인의 삶을 통계적으로 축소하고 그 너머의 가능성을 닫는 행위 일 수 있습니다. 누군가에게 대출이 거부되거나, 교육 기회가 차단되거나, 채용에서 배제되는 일이 일어났을 때, 그 근거가 ‘예측 점수’라면 우리는 미래를 살아보기도 전에 평가당하는 구조 속에 있는 것입니다. 예측은 편의를 제공하지만, 미래를 열어주기보다 닫아버릴 수도 있는 잠재적 위험 을 내포하고 있습니다. 기술에 저항하는 존재로서의 사이보그 사이보그는 기술과 결합된 존재이지만, 동시에 기술이 말하지 ...

감정 노동과 감정 알고리즘: 우리는 어떻게 느끼기를 요구받는가?

  감정은 일이 되었다 감정은 더 이상 사적인 것이 아닙니다. 고객 응대에서의 미소, 조직 내 긍정적인 태도, 영상 콘텐츠에서의 리액션, SNS에서의 공감 표현까지 우리는 느끼는 것뿐 아니라 ‘느끼는 방식’까지 요구받는 사회 에 살고 있습니다. 감정은 자발적 표현이 아니라, 측정되고 연기되며 평가받는 노동의 일부 가 되었고, 그 감정이 ‘진짜’인지 아닌지는 중요하지 않습니다. 중요한 건 얼마나 잘 ‘표현되었는가’이며, 우리는 점점 더 ‘느끼는 사람’이 아니라 ‘감정을 수행하는 사람’으로 살아가고 있습니다. 감정도 데이터가 된다 이제 감정은 분석되고 기록됩니다. 얼굴 표정 분석, 음성의 억양, 문장 속 감성 키워드 추출 등 다양한 알고리즘이 사람의 감정을 감지하고 분류하는 시스템 으로 작동합니다. 고객의 불만 여부, 직원의 스트레스 수준, 사용자 만족도는 감정 데이터를 기반으로 측정되며, 그에 따라 대응 방식이 결정됩니다. 그러나 감정은 맥락적이고 유동적인 것이며, 쉽게 분류할 수 있는 것이 아닙니다. 알고리즘이 분류하는 감정은 표준화된 모델에 불과하며, 다양한 문화적 표현, 개별적 상태, 관계적 의미 는 쉽게 누락됩니다. 사이보그 페미니즘은 감정 알고리즘이 기술의 중립성을 가장한 감정 규범화의 도구 가 되고 있음을 지적합니다. 우리는 어떤 감정을 강요받는가 감정 노동은 단순한 서비스 업종에만 국한되지 않습니다. 학교, 직장, 가정, SNS에서조차 우리는 ‘불쾌하지 않은 사람’으로 존재해야 한다는 압박 을 받습니다. ‘밝고, 긍정적이고, 열정적이며, 친절한’ 감정 표현은 점점 더 사회적으로 기대되는 표준 상태 가 되었고, 반대로 침묵, 무표정, 냉소, 분노, 슬픔 같은 감정은 ‘부정적’으로 분류되어 배제됩니다. 이처럼 기술과 사회는 감정의 위계를 만들고, 느껴야 할 감정을 선택하도록 요구 합니다. 감정의 자유는 표면적으로 존재하지만, 실질적으로는 사회적 생존을 위해 감정을 조절하고 연기해야 하는 구조 속에 있습니다. 감정은 계산될 수 ...

AI 교사와 학습의 미래: 교육은 누구의 언어로 이루어지는가?

교사는 기계가 될 수 있는가 AI 튜터, 자동 채점기, 학습 분석 플랫폼은 더 이상 낯설지 않습니다. 초·중등 교육부터 고등교육, 성인 자기계발까지 인공지능 기반 교육 도구는 ‘효율적이고 개인화된 학습’을 제공한다는 명목으로 빠르게 보급되고 있으며 , 이미 일부 학교에서는 교사 대신 AI가 수업의 일부를 대체하고 있습니다. 겉으로 보기에는 기술이 교육을 돕는 것처럼 보이지만, 실제로는 교육의 주체가 누구이며, 학습의 언어와 감각은 어떻게 구성되는가에 대한 근본적 질문을 발생 시킵니다. 교육이란 단지 지식을 전달하는 것이 아니라, 관계를 맺고, 감정을 나누며, 사고를 확장하는 복합적 경험의 장 이기 때문입니다. 맞춤형 교육은 누구를 기준으로 맞추는가 AI 교육 시스템은 학생의 데이터—성적, 반응 속도, 오답 패턴, 학습 시간 등을 기반으로 학습 유형을 분석하고, 이에 따라 콘텐츠를 조절합니다. 하지만 이 분석은 수치화 가능한 요소에 국한되며 , 사고의 과정, 감정의 흐름, 사회적 맥락은 고려되지 않습니다. 게다가 ‘맞춤형’이라는 말 뒤에는 사실상 표준화된 모델에 얼마나 잘 부합하느냐를 측정하는 방식 이 숨어 있습니다. 사이보그 페미니즘은 이러한 기술 기반 교육이 학습의 다양성을 억제하고, 인간 중심의 교육을 효율 중심으로 전환 시키는 구조를 비판하며, 진정한 교육은 학생의 고유한 삶의 경험과 맥락을 존중하는 과정 이어야 한다고 강조합니다. 학습의 언어는 감각적이다 AI는 언어를 문법, 어휘, 논리적 구조로 분석하지만, 인간의 언어는 침묵, 몸짓, 망설임, 눈빛, 목소리의 떨림 같은 감각적 층위까지 포함 합니다. 특히 교실에서 오가는 수많은 비언어적 신호는 학습자가 어떻게 느끼고 있는지, 무엇에 주저하고 있는지를 이해하는 데 결정적 역할을 합니다. 그러나 AI는 이 감각적 언어를 읽어내지 못하고, 정해진 틀 안에서 의미를 계산하고 반응 할 뿐입니다. 그 결과 학습은 점점 더 표준화된 표현과 논리만이 살아남는 공간 으로 축소되며, 다양한 사고 방식과 표...