늦은 밤, AI 관련 논문을 훑거나 새로운 앱을 테스트하다 보면 문득 떠오르는 질문이 있습니다.
“시몬 드 보부아르는 젠더 판별 알고리즘에 대해 어떻게 생각했을까?”
겉보기에 이 질문은 시대착오적으로 느껴질 수 있습니다. 그러나 놀랍게도, 그녀의 목소리는 여전히 오늘날의 정체성, 권력, 그리고 표현 방식에 관한 기술적 담론 속에서 유효하게 울려 퍼지고 있습니다.
특히 알고리즘이 목소리, 얼굴, 심지어 글의 스타일만으로 성별을 추정하려 들 때, 그녀의 철학은 더욱 강력한 의미를 지닙니다.
“여성으로 태어나는 것이 아니라, 여성이 되어간다”
이 문장은 시몬 드 보부아르의 대표작 『제2의 성』에 나오는 가장 유명한 구절입니다.
그녀의 본래 의도는 생물학적 성을 부정하는 것이 아니라, 우리가 ‘여성’ 또는 ‘남성’으로 살아가는 방식이 문화적, 사회적, 그리고 개인적 선택에 의해 구성된다는 점을 강조하는 것이었습니다. 그리고 바로 이 지점에서, 인공지능 기술과 충돌이 발생합니다.
왜냐하면 알고리즘은 문화도, 맥락도 이해하지 못합니다. 그저 패턴을 읽고 라벨을 붙일 뿐입니다. 그런데 그 라벨이 ‘성별’과 같은 깊이 있는 인간의 정체성에 관련된 것이라면, 이는 단순한 데이터 이상의 철학적 문제를 야기합니다.
저의 코드가 그녀의 사상과 충돌했던 순간
얼마 전, 재미삼아 텍스트 기반 성별 추정 알고리즘을 테스트한 적이 있습니다. 주어진 글을 분석해 작성자가 남성인지 여성인지를 추측하는 모델이었지요. 정확도는 꽤 높았습니다. 그러나 제가 직접 쓴 일기 일부를 입력하자, 그 알고리즘은 반복적으로 저를 ‘여성’으로 분류했습니다.
처음에는 웃어넘겼지만, 곧 의문이 들기 시작했습니다. 이 알고리즘은 어떤 언어를 ‘여성적’이라고 판단하고 있었던 것일까요? 그리고 누가 그 기준을 정했을까요?
그때 보부아르의 말이 다시 떠올랐습니다. 성별은 ‘사는 방식’이지, 몇 가지 데이터 포인트로 고정할 수 있는 것이 아니라는 점 말입니다.
알고리즘의 시선, 그리고 권력
보부아르는 ‘타자(the Other)’라는 개념을 통해, 여성이 스스로의 주체가 아니라 타인의 시선 아래 대상화되었다는 점을 지적했습니다. 그것은 권력의 문제이며, 인식의 문제였습니다.
오늘날 알고리즘은 새로운 ‘시선’을 형성하고 있습니다. 특정 방식으로 성별을 판별하거나 비(非)이분법적 정체성을 배제하는 것은 단순한 기술적 오류를 넘어서, 오랜 사회적 편견을 강화하는 행위입니다.
문제는 단지 기술이 ‘틀릴 수 있다’는 점이 아니라, 성별에 ‘정답’이 있다는 전제를 당연하게 받아들이고 있다는 데 있습니다. 그리고 이것이야말로 철학적 논쟁의 핵심입니다.
자유와 유동성, 그리고 선택의 주체로서의 인간
보부아르는 성별이 정해진 운명이 아니라, 선택과 경험을 통해 살아내는 자유라고 보았습니다. 반면 알고리즘은 그 자유를 박탈할 수 있는 잠재력을 지니고 있습니다. 특히 우리가 그것을 무비판적으로 받아들일 경우 더욱 그렇습니다.
‘남/여’로만 이루어진 성별 선택 항목, 바이너리 기반의 SNS 필터, 알고리즘에 맞추어 자신을 조정하는 사용자들. 이 모든 현상은 기술이 정체성을 규정하고자 하는 또 하나의 방식일 수 있습니다.
따라서 우리는 기술이 단지 ‘정확한 분류’를 목표로 삼는 것이 아니라, 인간의 정체성을 ‘지원’하는 방향으로 나아가야 한다는 점을 잊지 말아야 합니다. 보부아르는 우리에게 그 점을 지속적으로 상기시킵니다. “정체성은 데이터가 아니라, 결정이다.”
Q&A: 작지만 중요한 질문들
Q: 시몬 드 보부아르는 기술 비평가였나요?
직접적으로는 아니지만, 그녀가 젠더와 권력, 사회적 역할에 대해 제기한 질문들은 오늘날의 기술 설계와 응용에 매우 중요한 철학적 기준을 제공합니다.
Q: 젠더 판별 AI의 문제점은 무엇인가요?
정체성을 지나치게 단순화시키며, 잘못된 분류와 고정관념 강화를 유발하고, 논바이너리 정체성을 무시하는 경향이 있습니다. 특히 이러한 결과가 ‘객관적’이라 주장될 때 더욱 위험해집니다.
Q: 개인화나 분석 목적이라면 괜찮은 것 아닌가요?
그럴 수도 있지만, 작아 보이는 기능이 사용자 경험에 큰 영향을 미칠 수 있습니다. 분류 방식은 우리를 대하는 방식뿐 아니라, 스스로를 인식하는 방식에도 영향을 줍니다.
Q: AI가 성별을 ‘정확히’ 인식할 수 있을까요?
문화적 맥락, 자아 정체성, 유동성을 이해하지 못하는 한 그것은 불가능에 가깝습니다. 실제로 인간조차 이 문제에 대해 명확히 정의하지 못하고 있습니다.
Q: 핵심 메시지를 한 문장으로 요약한다면?
윤리적인 AI를 원한다면, 성별을 체크박스가 아닌 인간의 경험으로 인식하고, 기술은 이를 ‘규정’이 아니라 ‘지원’해야 한다는 인식이 필요합니다.
https://youtu.be/M47Mol1O1LM?si=sbzM0tzTzriUXQ6O