뉴스룸
빅테크 주도 AI, 효율성 중시 속 노동자·취약계층 보호는 뒷전
페이지 정보

빅테크 주도 AI, 효율성 중시 속 노동자·취약계층 보호는 뒷전
본문
인공지능은 산업과 일상 전반에 큰 영향을 미치면서 세상을 변화시키고 있다. 하지만 사회적 약자 보호 영역은 예외거나 오히려 악화하고 있다는 지적이 나온다. 노동자 보호, 가난한 이들을 위한 복지 정책 명목으로 도입된 인공지능은 ‘효율성’만을 중시해, 약자의 인권과 삶의 개선에는 무관심하다. 인공지능은 철저히 빅테크의 이해를 대변하고 있기 때문이다.
이같은 우려 속, 저명한 사회권 연구자로 유엔 빈곤·비사법적 처형 특별보고관을 지낸 필립 알스톤 뉴욕대 로스쿨 교수는 지난 16일 국가인권위원회 주최로 열린 2025 국제 인권 콘퍼런스 기조연설에서 “인공지능 기술은 결코 중립적이지 않으며, 빅테크는 효율성을 핵심 가치로 추구하기 때문에 약자의 인권과 충돌할 가능성이 크다”고 말해 눈길을 끌었다.
알고리즘에 포획된 노동
인공지능이 노동과정에 도입되면 불필요한 잡무나 갈등을 걷어내 노동의 질이 나아질까? 인공지능 알고리즘이 도입되면서 전통적인 고용 관계가 변화하고 노동의 경계 자체도 흐릿해지고 있다. 쿠팡 노동자와 같은 배달, 택배 노동자가 대표적 사례다. 쿠팡은 주문을 예측하고, 물건을 확보해, 다음날 새벽에 안전하게 도착할 수 있도록 하는 기술로 급성장을 이뤘다. 하지만 잦은 산업재해, 강도 높은 업무와 감시 등으로 노동자를 착취한다는 비판이 끊이지 않는다. 실제 알고리즘의 촘촘한 통제 속에서 노동자들은 수면 시간은 물론 화장실 갈 시간도, 물 마실 시간도 확보하기 어렵다.
예컨대, 물류센터에서 일하는 노동자들은 상·하차 작업을 포함해, 오토소터(자동분류시스템)를 따라 물건들을 스캔하고, 소분하고, 옮기는 일을 하는데, 그 속도는 전적으로 오토소터의 속도에 따라 결정된다. 빅데이터를 기반으로 하는 인공지능 알고리즘은 효율성을 위해 속도를 높이고, 그 결과 노동강도도 세진다.
신기술에 따른 작업장 변화를 연구해온 이승윤 중앙대 사회복지학과 교수는 2025 국제 인권 콘퍼런스에서 “플랫폼 자본주의 하에서, 직업은 프로젝트로 쪼개지고, 작업은 테스크(세부작업)으로 세분화되면서 표준화된 고용관계에 기반한 전통적인 노동자는 줄어들고, 디지털 플랫폼을 통해 초단기 계약 형태로 일하는 긱(Gig)노동자가 증가하고 있다”고 말했다. 이를 가능하게 하는 것이 알고리즘에 의한 미시적 통제다.
알고리즘이 설계한 작업 배정, 평점 시스템, 자동화된 수익·벌점 산정 등은 노동자들이 상당한 자율성을 갖는 듯한 착시효과를 야기하지만, 실제로는 알고리즘에 포획시키고 있다. “인간관리자는 가시적인 데 반해 알고리즘은 보이지 않기 때문에, 장기간 노동, 과도한 업무량을 통한 자기착취가 심해지고 있다”는 게 이 교수의 진단이다. 이로인해 “노동자들이 지녔던 기술도 약화하고 노동자 정체성, 교섭력도 약화한다.”
인공지능으로 인한 가장 큰 위협은 일자리 소멸 보다 노동 환경의 악화라는 지적이 나오는 이유다. 기존의 정형화되고 안정적인 고용관계, 근무시간, 작업장 등 노동의 경계가 사라지고, 노동의 형태 자체가 유동적·불명확하게 변하고 있다. 이 교수는 이를 ‘액화노동’으로 정의하면서 취약해진 노동자의 기본권을 인공지능으로부터 지키는 것이 급선무라고 강조했다.

AI와 결합한 사회복지
지난 8월 한 간담회에서 이재명 대통령이 ‘(복지)신청주의는 잔인한 제도’라고 말한 뒤 디지털 기술을 활용한 복지급여 자동지급을 둘러싼 논란이 이어지고 있다. 인공지능 기술을 활용해 ‘자격있는’ 사람들이 혜택에서 배제되는 일이 없도록 도울 수도 있지만, 오히려 ‘자격없는’ 사람들의 부정수급을 적발하는 데 집중적으로 활용된다는 반박도 나온다.
2019년 30여 개 나라의 사례를 취합해 디지털 사회복지 관련 특별보고서를 작성한 알스톤 교수는 복지에서 인공지능 도입은 약자들의 삶을 악화시킬 가능성이 매우 크다고 짚었다. “디지털 복지 시스템은 복지 신청자의 속임수와 비리를 드러내기 위해 여러 출처의 데이터들을 교차 분석해 설계되었기 때문에 감시와 침해 가능성이 매우 크다”는 것이다.
6년이 지난 지금의 상황은 어떨까? “디지털 사회복지는 개인이 권리 보유자가 아니라 신청자라는 가정에서 시작하기 때문에, 자신이 자격있음을 입증해야 한다”며 이 과정에서 취약한 개인은 훨씬 더 불리해질 수 있다고 알스톤 교수는 꼬집었다. 인공지능이 도입되면서 수혜자 선발 과정이 더 까다롭고, 어려워졌을 뿐만 아니라 사람들의 삶에도 훨씬 더 많이 개입하고 있다.
특히 눈길을 끄는 대목은 정부가 도입하는 인공지능은 빅테크에 의해 만들어지며, 빅테크의 가치는 인권의 가치와 충돌할 가능성이 높다는 점이다. 기술의 목표는 권리 증진에 있지 않고, 부정수급 방지, 빈곤층 서비스 비용 감축 등 효율성에 있기 때문이다. 알스톤 교수는 “빅테크는 하위 20%의 가난한 사람들은 고려하지 않고, 단순히 문제가 있는 대상으로 보아 인공지능을 통해 추적 감시하는 데 초점을 맞추고 있다”고 비판했다.
한국도 부정수급 문제 해결에 인공지능이 본격적으로 활용되고 있다. 지난 2월 개최된 ‘AI 시민사회포럼’에서 진보네트워크센터 활동가 희우는 ‘사회복지 분야의 AI 현황과 문제점’을 주제로 한 발표에서 “기획재정부는 세금계산서를 발행한 후 취소하거나, 가족 간 거래 등 의심스러운 패턴을 알고리즘을 이용·탐색해 부정수급을 찾아내는 시스템을 도입했다. 한국전력도 취약계층의 전기요금 할인 혜택을 부당하게 이용하는 사례를 적발하기 위해 인공지능 기술을 활용했다”고 말했다. 인공지능이 도입되면서 취약계층에 대한 옥죄기가 강화되어 보호대상에서 밀려나거나 불안감이 더욱 커지고 있다는 지적이다.
약자들을 위한 AI의 가능성
이처럼 디지털 기술은 복지 수급자, 노동자 등 약자들에게 불리하게 작용하며, 불평등과 차별을 깊이 각인시킨다. 기술은 결코 중립적이지 않기 때문이다.
인공지능이 약자들을 돕도록 하기 위해서는 어떻게 해야 할까? 장여경 정보인권연구소 이사는 “인공지능은 대다수 사람들에게 영향을 미치기 때문에, 그로부터 영향을 받는 인권이 무엇인지 식별하는 것이 중요하다”고 말한다. 인공지능 생태계에 정부, 기업, 연구자를 포함해 다양한 이해관계자가 들어가 있지만, 막상 인공지능 도입으로 인해 중대한 영향을 받는 이들은 배제되어 있다. “영향을 받는 이들이 의견을 제시하고 이들이 중요한 의사결정과정에 직접 참여할 수 있어야 한다”고 장 이사는 강조한다.
예컨대, 콜센터 노동자의 경우 인공지능이 도입될 경우 심대한 고용의 위협을 받지만 이 과정에서 거의 목소리를 내지 못하고 있다. 민간부문은 물론 공공부문에서도 점차 주요한 의사결정이 인공지능을 통해 이뤄지고 있는 상황에서, 인공지능으로부터 영향을 받는 대상들의 인권이 어떤 것인지 식별할 수 있어야 한다는 것이다.
한편, 알스톤 교수는 인공지능으로부터 인권을 지키기 위해서는 빅테크에 대한 통제가 중요하다고 거듭 강조했다. “빅테크는 자율로 인권을 보장할 수 있다고 하지만 이는 환상에 불과하다”면서 “빅테크는 ‘트라이 퍼스트’, 즉 자신들이 개발한 기술이 어떤 영향을 미칠지에 대해서는 생각하지 말고 우선 시도해보자고 외치는데, 이것이야말로 반인권적 접근이다”고 말했다. 우리는 빅테크의 낙관적 비전을 그대로 가져오면서 막상 인류를 위한 인공지능은 어떤 것이어야 하는지에 대한 비전을 가지지 못했다는 것이다.
알스톤 교수는 “디지털 사회복지는 과학적 진보의 필연적 결과물이 아니라 인간의 정치적 선택의 결과”라고 거듭 강조하면서 “중요한 것은 인권 존중에 대한 정부의 강한 의지와 책임이며, 인공지능의 영향을 받아 권리를 침해당한 개인을 구제하는 것”이라고 말했다.
한귀영 사람과디지털연구소장 hgy4215@hani.co.kr
관련링크
- 이전글박영선 “마지막 골든타임…융합 AI로 우리만의 길 열어야” 25.10.13
- 다음글AI는 어떻게 나르시시즘, 확증편향을 증폭하나? 25.09.15