AFRL 강연에서 설명된 안면 인식 편향을 줄이기 위해 클러스터된 데이터 포인트를 잘라냅니다.
홈페이지홈페이지 > 블로그 > AFRL 강연에서 설명된 안면 인식 편향을 줄이기 위해 클러스터된 데이터 포인트를 잘라냅니다.

AFRL 강연에서 설명된 안면 인식 편향을 줄이기 위해 클러스터된 데이터 포인트를 잘라냅니다.

Sep 01, 2023

Applied Face Recognition Lab의 가상 토크 시리즈의 일부로 진행된 최근 강연에 따르면, 얼굴 인식의 편견에 대한 공개 담론에서 많은 "강력한 타자"가 존재함에도 불구하고 문제의 본질과 그 원인에 대한 오해가 널리 퍼져 있습니다. .

메릴랜드 테스트 시설의 신원 및 데이터 과학 연구소의 수석 데이터 과학자인 John Howard는 '인간 및 기계 얼굴 인식의 편견 이해 및 완화'라는 제목의 프레젠테이션에서 이 문제를 자세히 조사했습니다.

컴퓨터 과학 및 머신 비전 분야에 종사하는 많은 사람들을 포함하여 많은 관찰자들은 생체 인식 알고리즘 성능에 대한 편견의 원인으로서 데이터의 역할을 강조하지만 Howard는 가능한 소스가 많다고 지적합니다.

"또한 데이터를 비난하는 것은 솔직히 더 어렵고 더 흥미로운 문제를 피하는 방법이라고 생각합니다"라고 Howard는 설명합니다. 이는 데이터 과학자들이 익숙하고 편안하게 받아들이는 해결책으로 이어지기 때문에 매력적인 경향입니다. 더 많은 데이터를 수집합니다.

손실 함수, 평가 편향, 사람이 기계와 관계하는 방식은 얼굴 인식의 편향 문제를 보다 완벽하게 이해하는 데 중요하다고 Howard는 주장합니다. 후자의 문제에는 투사 편향, 확증 편향, 자동화 편향이 포함됩니다. 즉, 사람들은 기계가 자신처럼 행동하고, 자신의 믿음을 확증하고, 검증할 필요가 없는 결과를 만들어내기를 기대하는 경향이 있습니다.

얼굴은 지문이나 홍채보다 덜 성숙한 생체인식 방식이며, "빅 3"의 두 가지 오래된 방식에서 교훈을 얻을 수 있다고 Howard는 말합니다. 그러나 "고유한 문제"는 얼굴 양식에 고유한 요소로 인해 나타날 수 있습니다.

예를 들어, 홍채 인식 알고리즘에 의해 생성된 허위 일치는 성별과 민족 간에 교차되는 경우가 많지만, 얼굴에 있는 사람은 그렇지 않습니다. 이로 인해 각 경우에 동일한 용어("거짓 일치 오류")가 사용됨에도 불구하고 사람들이 얼굴 일치에서 오류를 발견하기가 더 어려워집니다.

Howard는 편견이 얼마나 다른지를 보여주는 여러 연구 논문을 검토했습니다. 자동화 편향은 그리 크지 않으며 이상적인 상황에서는 예를 들어 사람들이 확신이 없을 때 주로 나타납니다. 사람들이 마스크를 쓰고 있는 경우처럼 상황이 덜 이상적일 때 사람들은 컴퓨터 평가에 특권을 부여할 가능성이 더 높습니다.

그는 또한 "광범위한 동질성"의 효과와 개별적으로 알고리즘의 편향을 평가하는 NIST의 FRVT Part 3의 결과를 검토했습니다.

궁극적으로 얼굴에는 인구 통계를 기반으로 유사하거나 '클러스터된' 데이터가 포함되어 있지만 Howard는 연구 결과에 따르면 클러스터링을 나타내지 않는 특정 데이터 포인트를 선택하여 특히 얼굴 생체 인식에서 편향을 초래하는 잘못된 일치 오류를 줄일 수 있다고 강조합니다. 인간이 루프에 있을 때. 이는 알고리즘이 갑자기 지문 및 홍채 인식과 더 유사해 보이는 후보 목록을 반환하기 때문입니다. 많은 경우 올바른 후보는 인간의 눈에 분명하게 보입니다.

정확성 | 생체 인식 편견 | 생체인식 | 얼굴 인식 | 메릴랜드 테스트 시설(MdTF)

이 사이트는 스팸을 줄이기 위해 Akismet을 사용합니다. 댓글 데이터가 어떻게 처리되는지 알아보세요.

계속 읽기