뉴스룸
“플랫폼 알고리즘의 사회 분열 조장…책임을 물어야 바뀐다”
페이지 정보

“플랫폼 알고리즘의 사회 분열 조장…책임을 물어야 바뀐다”
본문
“알고리즘의 목표가 우리를 계속 플랫폼에 머물게 하는 한, 우리의 최악의 본능과 인간적 약점을 자극하는 독을 계속 먹게 된다.”
오는 25일 서울 중구 대한상공회의소에서 ‘인공지능(AI) 알고리즘은 민주주의를 어떻게 해킹하는가’를 주제로 열리는 제4회 한겨레 사람과디지털포럼에서 기조연설을 맡은 야엘 아이젠스타트는 한겨레와의 전자우편 인터뷰에서 소셜미디어 플랫폼의 구조적 문제를 경고했다.
지난 25년간 극단주의, 분열, 반민주적 행동에 맞서 온라인과 오프라인에서 활동해온 아이젠스타트는 현재 뉴욕대학교 탠던공과대학 ‘민주주의를 위한 사이버보안’(Cybersecurity for Democracy)의 정책·영향 총괄을 맡고 있다.
‘소셜미디어, 알고리즘 그리고 민주주의: 누가 책임져야 하는가?’라는 주제의 기조연설에 나설 계획인 그는, “온라인에서는 거짓말이 진실보다 더 많은 관심을 끌며, 사실에 기반한 논리보다 자극적인 내용이 더 쉽게 퍼진다”고 경고했다. 민주주의를 지키기 위해 정부와 시민사회가 더 큰 역할을 해야 한다고 강조하며, 책임성과 투명성 강화 등 실질적 해법도 제시했다.

알고리즘 목표는 오직 ‘이용자 붙들기’
―가짜뉴스는 왜 진실보다 빠르게 퍼지는가?
“소셜미디어 플랫폼의 비즈니스 모델이 선정적이고 감정에 호소하는 콘텐츠에 보상을 주기 때문이다. 이들은 허위정보나 노골적인 거짓말일 경우가 적잖다. 알고리즘의 목표가 이용자 참여 극대화일 때, 극단적 콘텐츠가 확산하는 것은 이미 입증됐다. ADL(Anti-Defamation League: 미국 반혐오연맹) 재직 때 진행한 연구에서 주요 소셜미디어 플랫폼과 검색엔진이 자체 도구를 활용해 온라인 증오·극단주의 확산에 기여하는 사례를 확인했다.”
―소셜미디어가 알고리즘을 통해 취약 집단을 어떻게 표적화하는가?
“소셜미디어 플랫폼은 광고주에게 타기팅 도구(광고를 더 효과적으로 노출할 수 있도록 지원하는 다양한 데이터 기반의 설정·분석·자동화 도구)를 제공한다. 이를 통해 광고주는 특정 집단에 맞춤형 광고를 보낼 수 있는데, 이는 정치 및 선거 광고에도 사용된다. 분열적 메시지를 통해 취약 집단을 표적화하고 더 큰 분열과 증오를 조장하는 데 활용되기도 한다.
최근 실험에 따르면, 인스타그램 알고리즘이 13살로 설정된 가상 계정에 선정적인 콘텐츠를 반복적으로 추천한 사례가 확인됐다. 직접 성적 콘텐츠를 검색하지 않았는데도 일어난 일이다. 청소년은 플랫폼 성장에 있어 매우 중요한 시장이기에, 플랫폼의 알고리즘이 이들의 관심을 오래 붙잡기 위해 이같이 작동한 것으로 보인다.”
아이젠스타트는 미국 정보기관에서 정보담당관으로 출발해, 외교관으로서 14년간 전세계를 돌며 극단주의 영향에 취약한 공동체와 긴밀히 소통해왔다. 소셜미디어가 분열, 양극화 문제를 야기한다는 사실을 깨닫고 기술 분야로 전향한 그는, 2018년 페이스북(현 메타)에 합류해 정치 광고의 글로벌 선거 신뢰성 보장 활동을 총괄했다. 그러나 선거와 민주주의를 위해 필요한 변화를 이끌기 어렵다는 점이 분명해지자 6개월 만에 회사를 떠났다.
플랫폼 기업들, 개선 방법 알지만
―페이스북에서 왜 떠났나?
“2018년 케임브리지 애널리티카 스캔들(영국 데이터분석 회사가 페이스북 이용자 수천만명의 개인정보를 동의 없이 수집해 정치 광고와 선거 캠페인에 활용한 사건) 이후, 최고경영자(CEO)인 마크 저커버그가 선거 신뢰성 확보를 약속했을 무렵 페이스북에 입사했다. 나는 정치 광고에 대한 팩트체킹이 왜 이루어지지 않는지 먼저 질문했다. 미국 중간선거를 앞두고 투표 방법·장소·시기에 대한 거짓 정보가 광고에 포함되지 않도록 유권자 차별 및 배제 방지 전략을 수립해 제안했지만, 격렬한 논쟁 끝에 거부됐다. 당시엔 회사 운영 때문인 것처럼 보였으나, 지금은 명백히 경영진의 정치적 결정이었다고 판단한다.”
―알고리즘 문제를 개선하려면 무엇을 해야 하나?
“기업이 알고리즘 설계의 인센티브를 바꾸고, 시스템에 ‘마찰’(friction)을 더하면 허위정보 확산을 줄일 수 있다. 트위터(현 엑스)는 2020년 미국 대선을 앞두고 콘텐츠 리트위트 전 경고 라벨을 붙이고, 기사 읽기 확인 및 의견 추가를 유도하는 등 다양한 마찰을 도입했다. 트위터는 선거 관련 허위정보 확산을 줄이는 데 이러한 조처가 기여했다고 밝혔다. (하지만 마찰 정책은 이후 폐기됐다.) 이처럼 기업은 알고리즘 우선순위를 조정할 수 있지만, 실질적 인센티브가 부족한 것이 문제다. 플랫폼은 여전히 이용자 참여에 집중해, 신뢰성을 높이려는 조처에는 소극적이다.”
―인공지능의 발전이 민주주의에 가져올 위험과 기회는?
“모든 기술이 그렇듯 인공지능도 장단점이 함께 있다. 인공지능이 발전하면 콘텐츠 검증이나 팩트체크를 더 잘할 수 있지만, 한편으로는 합성 영상이나 음성 같은 도구를 통해 허위정보가 더 쉽게 퍼질 수 있다. 중요한 것은 ‘소셜미디어 규제 실패의 경험’을 인공지능에도 적용할 수 있는지다. 하지만 현재 상황으로는 인공지능의 좋은 점과 위험을 잘 조절하기가 쉽지 않아 보인다.”
공공의 건강·안전 충분히 고려 안해
―정부와 시민사회는 어떤 역할을 해야 하나?
“소셜미디어 기업은 ‘표현의 자유’를 내세우지만 실제로는 이용자 참여 극대화를 우선시한다. 공공의 건강, 안전, 민주적 담론은 충분히 고려되지 않는다. 이런 기업의 비즈니스 결정이 우리 삶과 사회에 어떤 영향을 미치는지 정확히 파악하는 것이 입법, 교육, 소비자 행동 개선에 꼭 필요하다. 이를 위해 플랫폼의 투명성을 높이고, 연구자와 언론인이 데이터에 접근할 수 있도록 해야 한다.”
―이번 포럼의 기조연설 내용을 소개해달라.
“소셜미디어, 알고리즘, 민주주의가 맞닿는 지점에서 책임의 소재를 살펴볼 예정이다. 특히 2024년 미국 대선에서 인공지능으로 생성된 콘텐츠가 어떤 파급효과를 일으켰는지 집중적으로 다룰 것이다.”

인간을 위한 디지털 기술을 논의하는 국제포럼인 사람과디지털포럼이 다음달 25 일 열립니다. 4회 째인 올해 주제는 'AI 알고리즘은 민주주의를 어떻게 해킹하는가?' 입니다.
일시 : 6 월 25 일(수) 오전 8시30분~오후 4시
장소 : 대한상공회의소 국제회의장
주최 : 한겨레신문사
주관 : 한겨레경제사회연구원 사람과디지털연구소
문의 : 사람과디지털포럼 사무국 (02-2152-5006, 2025hdf.regist@gmail.com)
등록신청 : 누리집 (www.lifeindigitalforum.org)
정은주 한겨레경제사회연구원 기자 ejung@hani.co.kr
관련링크
- 이전글“빅테크가 ‘만능기술’로 포장한 AI…이주자·난민 공격도구로 악용” 25.06.16
- 다음글투표율과 인증샷 문화 [유레카] 25.06.09