매거진
6분 읽기
AI 필터링은 인종과 종교에 따라 '차별'한다
"알고리즘 차별"은 AI가 훈련받는 데이터가 이미 특정 그룹에 대한 편견을 가지고 있어, 그들에게 불리한 결정을 내리게 될 때 발생한다고 전문가는 말합니다.
AI 필터링은 인종과 종교에 따라 '차별'한다
구글, 메타, 아마존이 이러한 자동 필터링 도구를 사용하는 것으로 알려져 있습니다. / 사진: AP
2025년 2월 8일

오늘날 채용 담당자들은 인공지능(AI)을 활용한 필터링 시스템을 사용하고 있으며, 이는 인종, 성별, 언어, 종교에 따라 사람들을 "알고리즘적으로 차별"한다고 알려져 있습니다.

이스탄불에 위치한 이븐 할둔 대학교의 민법 교수인 옐리즈 보즈쿠르트 굼뤽추오글루는 아나돌루 통신사와의 인터뷰에서 메타, 구글, 아마존과 같은 기술 대기업들이 이러한 자동 필터링 도구를 사용하고 있다고 밝혔습니다. 이러한 도구는 시간 효율성을 제공하기 때문입니다.

굼뤽추오글루 교수는 AI가 학습한 데이터가 특정 그룹에 대한 편견을 이미 포함하고 있을 경우 "알고리즘적 차별"이 발생한다고 설명하며, 이는 특정 그룹에 불리한 결정을 내리게 만든다고 말했습니다.

또한, 이러한 도구를 개발한 사람들의 편견도 AI 기반 채용 시스템의 불공정성을 악화시키는 요인이라고 덧붙였습니다. 그 결과, 유색인종과 여성들이 AI 필터링을 통과할 확률이 현저히 낮아진다고 주장했습니다.

이 문제는 이미 여러 나라에서 소송의 대상이 되었으며, 최초로 아마존과 관련된 사례에서 등장했다고 그녀는 언급했습니다.

그녀는 "아마존은 지난 10년 동안 채용된 지원자들의 데이터를 기반으로 채용 알고리즘을 개발했는데, 대부분이 남성이었습니다. 이 알고리즘을 실제로 사용했을 때 여성 지원자들을 자동으로 배제했습니다,"라고 말했습니다.

"페이스북 역시 2018년 미국에서 차별적인 필터링 사례로 문제가 되었으며, 덴마크 정부는 같은 이유로 이 소셜 미디어 플랫폼에 행정 벌금을 부과했습니다,"라고 그녀는 덧붙였습니다.

음악과 헤어스타일에 관하여

그러나 문제는 여기서 끝나지 않습니다. 굼뤽추오글루 교수는 일부 지원자들이 전통적으로 흑인 헤어스타일을 가졌다는 이유로, 이민자 밀집 지역에 거주한다는 이유로, 또는 특정 아티스트와 음악 장르를 듣는다는 이유로 채용 알고리즘에 의해 거부되었다고 지적했습니다.

그녀는 이러한 채용 필터링 도구를 개발하고 사용하는 기업들이 인권과 가치를 준수해야 하며, 관련 당국과 정부가 윤리적 위반 사항을 면밀히 감시해야 한다고 강조했습니다.

"예를 들어, EU는 이 분야에서 AI 사용의 위험성을 규제하기 위한 규정을 시행하기로 결정했습니다."라고 그녀는 말했습니다.

그녀는 AI가 채용 과정에서 차별을 방지하기 위해 글로벌 규제 기관이 필요할 수도 있다고 언급했습니다.

"우리의 데이터가 제대로 보호되지 않는 한, 우리의 디지털 흔적은 기업의 손에 넘어가며, 더 이상 이력서만으로 평가받지 않는 상황이 됩니다. 이는 튀르키예에서도 마찬가지입니다."라고 그녀는 말했습니다.

"필터링 알고리즘은 더 투명하게 개발되고, 그 결정에 대해 책임을 져야 합니다. 따라서 우리 앞에는 두 가지 선택지가 놓여 있습니다:

AI가 오늘날처럼 빠르게 발전하도록 둘 것인가, 아니면 윤리적 틀 안에서 천천히 앞으로 나아갈 것인가? 그 답은 앞으로의 시기에 밝혀질 것입니다."라고 그녀는 덧붙였습니다.

TRT Global을 엿보세요. 피드백을 공유해주세요!
Contact us