인공지능(AI)을 활용한 기업 경영, 즉 AX가 기업의 업무 효율을 높인다는 점은 누구도 부인할 수 없다. AI만을 믿고 기업이 모든 결정을 할 수는 없고, 특히 그것이 노동·고용과 관련된 파트라면 더욱 그러하다.
유럽연합(EU)은 AI법을 제정하면서 고위험 영역을 선정하고 이에 대한 규율을 체계화할 때 문제가 됐던 노동과 고용 관련 문제점으로 지적된 사례가 여전히 지금도 되풀이되거나, 지금 현실화되고 있다.
예를 들어, 지난해 미국 채용 플랫폼 기업 워크데이(Workday)의 AI 시스템은 11억개 이상의 이력서를 선별했는데 그 과정에서 특정 인종과 연령대에 속한 지원자들이 체계적으로 배제됐다는 이유로 집단 소송이 제기됐다.
![이근우 변호사. [사진=법무법인 화우]](https://image.inews24.com/v1/6295806881ab7d.jpg)
구글은 2025년 3월과 5월, 흑인 직원들에 대한 차별 혐의로 수천만 달러의 합의금을 지급해야 했다. 그 이유는 구글의 AI와 인사 시스템이 흑인 직원들을 낮은 직급에 배치하고, 더 낮은 임금을 지급하며, 불공정한 성과 평가를 내렸다는 주장이 제기됐기 때문이다.
이들 직원은 5년 이상 같은 직책에 머물렀고, 그사이 백인과 아시아계 동료들은 더 많은 급여 인상과 승진 기회를 받았다. 구글의 한 인사 담당자는 6년 동안 500명 이상의 흑인 학생을 채용하며 성과를 냈는데 정작 자신은 승진에서 배제됐다. 심지어 차별 문제를 제기하려 하자 2020년 결국 해고당하고 말았다.
우버의 기사들 또한 회사의 알고리즘이 부당하게 계정을 정지시켜 생계가 끊겼다고 주장했고, 호주 공정근로위원회는 이를 인정해 손실된 임금의 배상을 명령했다.
이는 EU AI법이 고위험 AI(대한민국의 인공지능기본법상 개념으로는 고영향 AI)라고 판단했던, 즉 AI의 활용영역 중 인간의 기본권에 중대한 영향을 끼칠 수 있는 영역에 대한 고찰이 이뤄지지 않은 상태에서 AI만을 신뢰해 이를 사용한 결과라고 할 수 있다.
AI는 데이터의 학습을 통한 추론을 거쳐 판단하는데, 학습의 기초인 데이터는 과거의 것이므로 과거의 잘못된 관행이 묻어 나올 수밖에 없으며, 특히 데이터 선별 과정에서 제대로 된 기준과 검증이 없을 경우 왜곡 현상을 야기할 수밖에 없다.
노동 또는 고용분야에서의 AI 사용은 채용, 급여 결정, 성과 평가, 승진 심사, 나아가 구조조정 대상 선정까지 확대된다. 미국의 한 고용 통계 기업 보고에 따르면, 2025년 1월부터 10월까지 AI 도입과 확산을 구조조정의 명시적 사유로 밝힌 사례가 4만8414건에 달했다.
특히 7월에는 1만375명이 AI로 인한 구조조정을 당해 월별 최고 수준을 기록했다. 우려스럽게도 해고 대상자 선정에서는 AI 알고리즘이 사용될 것이다. AI 알고리즘이 적정한 기준에 따라 투명하고 안전하게, 설명 가능한 수준에서 작동된다는 점에 대한 보장이 없을 경우 AI를 통한 자동화된 의사결정에는 항상 문제점 내지 의문점(또는 그에 대한 도전)이 존재할 수밖에 없다.
기업이 이를 제대로 통제하지 않으면 기업에 대한 법적 책임은 물론 기업의 경영 위기까지 초래될 수 있는 것이다.
AI를 근로감독에 사용하는 부분에서의 문제점 역시 간과할 수 없다. 감독 대상 근로자들은 그렇지 않은 근로자보다 정신 건강 문제를 1.5배 더 많이 호소한다.
프랑스에서는 AI가 창고 노동자들의 스캔 속도가 1.25초 미만인 경우까지 오류로 기록하며 초 단위로 노동을 통제했고, 프랑스 데이터 당국(CNIL)은 이를 ‘과도한 감시’라며 3200만 유로의 과징금을 부과했다. 생산성을 높이기 위한 AI를 사용한 잘못된 감독이 직원의 인권과 기업 신뢰도를 오히려 해친 경우라 할 것이다.
기업의 AX는 거스를 수 없는 추세이다. 다만 AX를 제대로 해야 하며, 이를 위해서는 AI와 관련된 규제사항을 잘 살펴보고 최소한 그에 맞추는 조치가 필요하다.
그러한 AI 컴플라이언스의 기준으로 우선 EU AI법은 2025년 2월부터 차별적 AI를 금지하고 있으며, 고위험 AI 시스템에 대한 본격 규제가 2026년 8월부터 시작된다. 규정을 위반한 기업은 최대 3500만 유로의 벌금을 부과받는다.
우리나라도 국가인권위원회가 2024년 ‘AI 인권영향평가 도구’를 공개했으며, 72개 문항의 실무 도구로 기업이 AI 도입 전 인권 위험을 사전 진단할 수 있도록 설계했다.
또한 세계에서 2번째로 만들어져 2026년 1월 22일 시행예정인 대한민국의 인공지능기본법도 EU AI법의 고위험 AI와 유사한 개념으로 고영향 AI를 규정하면서 “채용, 대출 심사 등 개인의 권리ㆍ의무 관계에 중대한 영향을 미치는 판단 또는 평가”를 고영향 AI 영역으로 규정하고 있다.
이러한 고영향 AI에 대해서는 투명성, 안전성, 신뢰성을 확보하기 위해 특정한 의무 내지 책무가 존재한다.
AX를 하면서도 AI 컴플라이언스, 특히 노동 또는 고용 분야에서 AI 컴플라이언스를 잘하기 위해서 기업이 구체적으로 무엇을 할 수 있을지 몇 가지 제시해 본다.
첫째, AI 도입 전 인권영향평가를 필수화해야 한다. 채용과 평가 시스템을 도입할 때 특정 집단에 미치는 차별적 영향을 사전에 분석하고 설명가능성이 확보될 수 있는지 점검하는 것이 앞으로 발생할 소송 비용을 절감하고 평판 하락을 예방할 수 있다.
둘째, 인간에 의한 감독과 설명 가능성을 제도화해야 한다. AI가 중요한 인사 결정을 독단적으로 하도록 해서는 안 된다. 이미 글로벌 전자 또는 IT 기업은 AI 윤리 원칙에서 ‘국제 인권 기준 준수’와 ‘설명 가능성’을 명시하고 있다.
셋째, 감독 기술의 범위를 제한하고 직원에게 투명하게 공개해야 한다.
넷째, AI 정책을 수립할 때 직원 대표, 노조, 인권 전문가와의 협의를 통해 하는 것이 필요하다. 이러한 이해관계자 참여는 도입 전 우려 사항을 파악하고 문제 발생 시 신속하게 대응할 수 있는 메커니즘을 만드는 일에 도움이 된다.
인권경영과 기업 성과는 상충하지 않는다. 공정하고 투명한 기업이 더 좋은 인재를 확보하고, 신뢰할 수 있는 기업이 고객의 신뢰를 얻는다.
반대로 AI 인권 침해로 소송에 휘말리는 기업들의 명단은 점점 길어지고 있으며, 그 대가는 상당하다. AI 시대의 진정한 경쟁력은 기술에 걸맞은 신뢰이며, 그 신뢰는 인권경영에서 비롯된다.
이근우 파트너 변호사(법무법인 화우 ESG센터) klee@yoonyang.com
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기