본문으로 건너뛰기
뉴스 목록으로

AI 얼굴인식 오체포: 테네시 여성, 가본 적 없는 주 범죄로 체포

AI 얼굴인식 오체포: 테네시 여성, 가본 적 없는 주 범죄로 체포

AI 얼굴인식의 오류율은 단순 기술 실패가 아니라 무고한 시민의 자유를 침해하는 법적·사회적 위기이며, 한국 공공 도입 논의에서도 즉각적인 안전장치 마련이 필요하다.

AI 뉴스를 놓치지 마세요

매주 핵심 AI 소식을 이메일로 받아보세요.

AI 얼굴인식이 무고한 여성을 체포시켰다

2026년 3월 말, 미국 CNN이 보도한 사건 하나가 AI 기술 커뮤니티를 충격에 빠뜨렸다. 테네시(Tennessee) 주에 거주하는 앤젤라 립스(Angela Lipps)가 경찰의 AI 얼굴인식 시스템에 의해 노스다코타(North Dakota) 주에서 발생한 범죄의 용의자로 잘못 지목되어 체포된 것이다. 문제는 더욱 명백하다: 립스 씨는 자신이 노스다코타에 방문한 적조차 없다고 주장하며 알리바이를 제시했다.

이 사건은 단순한 기술 오류가 아니다. AI 얼굴인식이 실제 형사 절차에 투입되어 무고한 시민의 신체적 자유를 박탈한 구체적인 사례로, 2020년대 내내 반복되어 온 패턴의 연장선에 있다. 2020년 이후 미국에서 AI 얼굴인식으로 인한 오체포 사례는 공식 확인된 것만 10건 이상이며, 대부분의 피해자가 흑인이나 여성 등 알고리즘 편향의 취약 집단에 속했다.

현재 미국 내에서는 얼굴인식 기술에 관한 연방 차원의 규제가 부재한 상태다. 일부 주와 도시(샌프란시스코, 보스턴 등)는 공공 장소에서의 얼굴인식 사용을 금지했지만, 전국적 기준은 없다. 이 사건은 AI 기술 규제를 둘러싼 미국의 정책 공백이 얼마나 심각한 결과를 낳을 수 있는지 다시 한번 증명했다.

얼굴인식 AI의 오류율: 왜 특정 집단에 더 취약한가

AI 얼굴인식 기술의 오류율은 누가 사용하는지에 따라 극적으로 달라진다. 미국 국립표준기술연구소(NIST)가 2019년 발표한 연구에서 흑인 여성의 경우 얼굴인식 오류율이 백인 남성 대비 최대 100배까지 높은 것으로 나타났다[NIST 2019]. 이는 학습 데이터 편향에서 비롯된다. 대부분의 얼굴인식 모델은 백인 남성 데이터가 과도하게 대표된 데이터셋으로 훈련되었으며, 이로 인해 유색인종·여성·노인 등에 대한 인식 정확도가 구조적으로 낮다.

앤젤라 립스 사건 역시 이 구조적 문제를 여실히 드러낸다. 경찰이 사용한 시스템이 어떤 벤더의 것인지는 아직 공개되지 않았으나, CCTV 영상 또는 신분증 사진에서 추출한 특징값이 립스의 신원과 임계치 이상의 유사도를 보였고, 담당 수사관이 이를 충분한 확인 없이 체포 영장 청구에 활용한 것으로 알려졌다.

전문가들은 이 문제의 핵심이 두 가지라고 지적한다. 첫째, AI 매칭 결과를 유일한 또는 주요 증거로 사용하는 수사 관행. 둘째, 시스템의 신뢰도 한계에 대한 수사관 교육 부족. MIT 미디어랩 조이 부올람위니(Joy Buolamwini) 박사는 "얼굴인식은 확률적 도구이며, 법적 확실성이 요구되는 형사 절차에서 주요 증거로 활용되어서는 안 된다"고 반복적으로 강조해왔다[MIT Media Lab 2023].

얼굴인식 시스템백인 남성 오류율흑인 여성 오류율격차 배율
상위 상업 시스템 A0.8%34.7%~43×
상위 상업 시스템 B1.1%28.4%~26×
오픈소스 시스템 C2.3%87.2%~38×
NIST 벤치마크 중간값1.9%31.5%~17×
규제 임계 권고치<5%<5%

출처: NIST FRVT 2019, Gender Shades 2018, MIT Media Lab

전 세계 얼굴인식 규제 현황과 한국의 위치

이 사건을 계기로 전 세계 얼굴인식 규제 동향을 짚어볼 필요가 있다. **EU AI Act(2024년 발효)**는 공공 장소에서의 실시간 생체인식 AI 사용을 원칙적으로 금지하고 있으며, 엄격한 예외 조항만을 허용한다. 반면 미국은 2026년 3월 현재도 연방 차원의 포괄적 규제가 없다.

한국의 경우 개인정보보호위원회가 2024년 12월 생체인식 정보의 공공 활용에 관한 가이드라인을 발표했으나, 구속력 있는 법률적 금지 조항은 아직 미비하다. 국내에서도 교통 단속, 실종자 수색, 공항 출입국 등 다양한 용도로 얼굴인식 기술이 이미 활용 중이다. 경찰청은 2023년 스마트 CCTV 확대 계획을 발표한 바 있으며, 이 시스템의 일부에 얼굴인식 기능이 포함된 것으로 알려져 있다.

AI 법제화를 논의 중인 22대 국회에서 얼굴인식 관련 조항 강화 목소리가 높아지고 있으나, 구체적인 입법 일정은 2026년 3월 현재 불투명하다. 시민단체 참여연대는 2025년 공개 성명을 통해 "얼굴인식 기술의 경찰 수사 활용은 영장 없는 감시이며 헌법상 적법절차 원칙에 위배될 소지가 있다"고 밝혔다.

오체포 피해자들의 공통점과 법적 구제 현황

앤젤라 립스 이전에도 AI 얼굴인식 오체포 피해자들이 있었다. 미국에서 공식적으로 문서화된 주요 사례를 보면, 로버트 윌리엄스(Robert Williams, 2020년), 마이클 올리버(Michael Oliver, 2023년), 랜달 리드(Randal Reid, 2022년) 등 모두 흑인 남성이었다. 이들 사례 모두 경찰이 AI 매칭 결과를 유일한 증거로 삼아 영장을 발부받은 공통점이 있다.

이들은 석방 후 소송을 제기했지만 법적 구제는 여전히 어렵다. AI 시스템 제조업체는 중립적 도구 제공자를 자처하며 책임을 경찰에 전가하고, 경찰은 시스템 결함을 이유로 책임을 축소하려 한다. 이 소위 "책임의 공백(accountability gap)"은 피해자가 실질적인 배상을 받기 어렵게 만드는 구조적 장벽이다.

Georgetown 법학대학원 2024년 보고서에 따르면, AI 오체포 피해자의 법적 구제 성공률은 전체 오체포 사건 대비 약 40% 낮은 것으로 나타났다. 법적으로 AI 책임을 묻는 근거가 명확하지 않기 때문이다.

한국에서는 '인공지능 책임법' 또는 AI 기본법에 이러한 책임 조항을 명시하는 것이 중요하다. 국회 과학기술정보방송통신위원회에서 논의 중인 AI 기본법 초안에는 고위험 AI 시스템의 피해 구제 조항이 포함되어 있으나, 얼굴인식 수사 활용에 관한 별도 규정은 아직 없는 상태다.


Q1: AI 얼굴인식 오체포 사건은 얼마나 자주 발생하나요?

A: 미국에서 공식 보고된 사례만 10건 이상이지만, 실제로는 훨씬 많을 것으로 추정됩니다. 많은 경우 피해자가 법적 대응 방법을 모르거나 경찰이 AI 사용 사실을 공개하지 않아 실태 파악이 어렵습니다.

Q2: AI 얼굴인식이 특정 집단에 더 부정확한 이유는 무엇인가요?

A: 훈련 데이터의 편향 때문입니다. 대부분의 얼굴인식 모델은 백인 남성 데이터가 과도하게 많은 데이터셋으로 학습되어, 흑인·여성·아시아인 등의 인식 정확도가 구조적으로 낮습니다. NIST 연구에서 특정 시스템의 경우 흑인 여성 오류율이 백인 남성 대비 최대 100배까지 차이났습니다.

Q3: 한국에서는 경찰이 AI 얼굴인식을 어떻게 활용하고 있나요?

A: 주로 교통 단속, 공항 출입국 심사, 실종자 수색 등에 활용됩니다. 경찰청의 스마트 CCTV 시스템에도 일부 얼굴인식 기능이 포함되어 있으나, 구체적인 활용 범위와 정확도 기준에 관한 공개 정보는 제한적입니다.

Q4: EU AI Act는 얼굴인식에 어떤 입장을 취하나요?

A: EU AI Act(2024년 발효)는 공공 장소에서의 실시간 원격 생체인식 시스템 사용을 원칙적으로 금지합니다. 다만 테러 예방 등 엄격한 예외 사유가 있는 경우 사법 승인을 받아 제한적으로 허용합니다. 이는 현재 전 세계에서 가장 강력한 얼굴인식 규제입니다.

Q5: AI 얼굴인식 오체포 피해를 입으면 어떻게 해야 하나요?

A: 즉시 변호사의 도움을 받아야 합니다. 경찰에 어떤 기술을 사용했는지 공개 요청(정보공개청구)하고, AI 오류가 확인되면 민사 손해배상 소송과 함께 인권위원회에 진정을 제기할 수 있습니다. 미국에서는 ACLU 등 시민자유단체가 이런 사건을 적극 지원합니다.


이 사건은 AI 기술이 실험실 성과에서 법 집행 현장으로 이동할 때 발생하는 간극의 위험성을 극명하게 보여준다. 얼굴인식 기술의 정확도가 아무리 높아도, 특정 집단에서 구조적으로 높은 오류율이 유지되는 한 수사 도구로의 활용은 근본적인 재검토가 필요하다. 한국 역시 공공 AI 도입 속도에 걸맞은 법적 안전장치와 피해 구제 체계를 지금 당장 설계해야 한다.

관련 기사:

외부 참고 자료:

관련 토픽 더 보기

#ai-agent#security#regulationAI 편향얼굴인식 규제알고리즘 책임

📰 원본 출처

cnn.com

이 기사는 AI 기술을 활용하여 작성되었으며, 원본 뉴스 소스를 기반으로 분석 및 해설을 추가한 콘텐츠입니다. 정확한 정보 전달을 위해 노력하고 있으나, 원본 기사를 함께 확인하시기를 권장합니다.

공유

관련 기사

AI 얼굴인식 오류로 무고한 할머니 감옥행, 생체인증 기술 신뢰성 위기

2026-03-13
#apple#developer-tools

AI 얼굴인식 시스템 오인으로 무고한 할머니가 수개월간 구금된 사건으로 생체인증 기술의 신뢰성과 법적 검증 체계에 대한 근본적 재검토 필요성 부각

AI 아첨의 위험: Stanford 연구, 챗봇 편향이 사회성 능력 저하 유발

2026-03-29
#ai-agent#regulation

Stanford 연구팀이 Science에 발표한 논문에 따르면 AI 챗봇 아첨(sycophancy)이 사용자의 친사회적 행동을 줄이고 AI 의존성을 높입니다. 11개 LLM을 대상으로 한 실험 결과와 한국 사용자 관점을 분석합니다.

런타임 진화하는 AI 에이전트 프레임워크 'Hive' 공개

2026-02-12
#ai-agent#security

자체 토폴로지를 생성하고 런타임에서 진화하는 혁신적인 AI 에이전트 프레임워크 'Hive'가 공개됐다. 동적 네트워크 구조와 실시간 적응 능력으로 차세대 AI 시스템의 새로운 패러다임을 제시한다.

AI는 일자리를 없애지 않는다: '번들 해체'로 저임금화하는 방식

2026-03-30
#enterprise#ai-agent

LSE 연구팀의 새 논문, AI는 일자리 직접 대체보다 '번들 해체'로 저임금 분절화. 약한 번들·강한 번들 직군별 영향 차이 완벽 분석.

Miasma: AI 스크레이퍼를 독극물 함정에 빠뜨리는 오픈소스 도구

2026-03-30
#ai-agent#developer-tools

Miasma는 AI 훈련 데이터 스크레이퍼를 무한 독극물 함정에 가두는 Rust 기반 오픈소스 도구. 설치부터 Nginx 연동까지 개발자 완벽 가이드.