뉴스룸
“알고리즘, 마찰 정책 도입하면 허위정보 확산 줄인다”
페이지 정보

“알고리즘, 마찰 정책 도입하면 허위정보 확산 줄인다”
본문
“알고리즘이 극단주의 확산과 직접적 관련이 있다.”
‘소셜 미디어, 알고리즘 그리고 민주주의: 누가 책임져야 하는가’를 주제로 제4회 사람과디지털포럼의 첫 번째 발표자로 나선 야엘 아이젠스타트 민주주의를 위한 사이버보안 이사(뉴욕대학교 탠던공과대학 산하)는 페이스북 내부를 연구한 사람의 발언을 인용해 “독일 극단주의 단체 가입자의 64%가 플랫폼의 추천 알고리즘을 통해 유입됐다”고 말했다. 유튜브도 어린 남자아이들의 게임 계정을 총기와 음모론 관련 콘텐츠로 유도하는 사례를 들며, 그는 알고리즘이 극단주의를 부추겨 민주주의를 흔드는 증거들은 도처에 널려 있다고 덧붙였다.
지난 25년간 극단주의, 분열, 반민주적 행동에 맞서 온라인과 오프라인에서 활동해온 아이젠스타트는 현재 뉴욕대학교 탠던공과대학 ‘민주주의를 위한 사이버보안’(Cybersecurity for Democracy)의 정책·영향 총괄을 맡고 있다.

아이젠스타트는 이날 소셜미디어 플랫폼이 단순히 표현이 흘러가는 ‘중립적 송유관’이 아니라 특정한 목적을 염두에 두고 설계되었다는 점을 강조했다. 다시 말해, 플랫폼 기업들이 자신의 이익 추구를 위해 사용자가 최대한 오래 머물도록 참여를 극대화하는 방식으로 알고리즘을 설계해 선정적이고 자극적이며 혐오를 유발하는 표현이 집중적으로 강조·추천되고 있다는 것이다.
실제로 플랫폼에서는 진실보다 허위정보, 진보보다 보수 게시물이 알고리즘을 통해 더 많이 퍼진다는 점이 여러 연구 결과에서도 드러난 바 있다. 이는 인간의 취약한 본성과도 관련이 깊다. 공중 보건, 공공 안전, 시민 담론 등과 같이 정작 중요한 논의들은 알고리즘으로 인해 외면될 가능성이 크다.
그럼에도 변화는 가능하다. 아이젠스타트는 알고리즘을 바꿀 수 있는 사례로 트위터가 도입한 ‘마찰정책’을 꼽았다. 트위터는 2020년 미국 선거 전, 사람들이 기사를 읽거나, 코멘트를 남기기 전에 경고 라벨을 도입해 기사를 읽고, 한 번 더 생각하도록 했다. 1~2초 정도라도 사용자에게 도달하는 시간을 늦추자 실제로 선거 관련 허위정보가 감소했다. 하지만 선거가 끝난 후 마찰정책은 사라졌다. 아이젠스타트는 이날 “플랫폼이 정보 전달을 조금이라도 늦추면 수익이 줄어들기 때문”이라고 그 이유를 추정했다. “플랫폼 기업들은 자체 알고리즘을 조정해 선한 콘텐츠로 유인할 수 있다”며, 이를 기업이 자율규제를 할 수 있도록 인센티브를 제공하는 방안도 제안했다.

“AI의 전방위적 위험, 인간의 이익 추구에서 발생”
‘생성형 AI 시대, 알고리즘의 책임성 어떻게 확보할 수 있을까’를 주제로 기조발제 한 마티아스 슈필캄프 ‘알고리즘워치’(독일) 이사는 “인공지능의 위험은 전방위적이고 체계적”이라며, “그 위험이 인공지능 자체에서 비롯된 것이 아니라 인공지능을 이용해 자신의 이익을 극대화하는 조직, 개인에 의해 발생한다”고 말했다.
슈필캄프는 독일의 알고리즘 감시기구 ‘알고리즘워치’를 공동 설립한 뒤 지금까지 책임지고 있다. 2016년 설립된 알고리즘워치는 자동화된 의사결정 시스템과 알고리즘의 사회적 영향, 투명성, 책임성을 감시하고 연구하는 유럽 내 대표적 시민사회 조직으로 주목받고 있다.
슈필캄프는 인공지능을 ‘마법 같은 기술’로 포장해 “기업이 간섭받지 않고 마음껏 일하도록 놔두면 인공지능이 모든 문제를 해결해줄 것”이라고 주장하는 빅테크로 인해 민주주의가 위협받고 있다고 진단했다. 기술은 복잡하지만 우리의 선택에 따라 인간을 위한 기술로 향하도록 통제력을 행사할 수도, 그 반대일 수도 있다는 것이 그의 일관된 생각이다. 인공지능으로 인한 불안정성의 극대화에 맞서 현실적이고 구체적인 접근이 중요하다는 점도 거듭 강조했다.

슈필캄프는 ‘선의를 위한 인공지능’을 내세우는 빅테크의 프로젝트가 지닌 양면성도 짚었다. 예컨대 구글은 신속하고 정확한 홍수 예측, 마이크로소프트는 ‘지구를 위한 인공지능’ 등 환경문제 해결을 내세우고 있지만, 현실에서는 구글의 물 사용으로 인해 우루과이의 식수가 부족 문제, 오픈에이아이(AI)의 케냐 노동자 착취 등 폐해가 심각하다고 말한다. 디지털 성폭력, 편향된 사법 결정 등과 같은 구조적 문제도 곳곳에서 드러나고 있다. 슈필캄프는 이처럼 인간을 넘어서는 범용인공지능(AGI)이 초래할 재앙보다 현재 당면하고 있는 구조적 위험이 훨씬 더 중요하다고 강조했다.
“인공지능이 기계가 인간을 고된 노동에서 해방해줄 것이라고 보는 유토피아, 인간의 일자리를 뺏고 세상을 지배할 것이라는 디스토피아의 양극단적 접근으로는 과거의 인공지능 발전을 제대로 이해하지 못하고, 미래 역시 대처할 수 없다”고 슈필캄프는 강조했다. 그는 “권력구조를 바꾸고 싶다면, 더 많은 아이디어가 필요하다. 빅테크의 힘을 제어하려면 통제하고 압박해야 한다”고 말하며, 자신이 책임자로 있는 독일 시민단체 ‘알고리즘워치’가 수행한 조사와 옹호(로비활동) 활동을 소개했다. 2023~2024년 독일 주의회 선거 당시 마이크로소프트의 인공지능 챗봇에 선거 정보에 대한 질문을 입력해 답변 데이터세트를 구축하고 분석한 결과 약 30%가 부정확한 답변이라는 점을 밝혀냈다. 또한 유럽연합선거위원회를 압박해 플랫폼을 위한 선거 가이드라인에 이 사례를 포함했다.
한귀영 사람과디지털연구소 소장 hgy4215@hani.co.kr
관련링크
- 이전글“디지털 기술은 민주주의 진화를 이끄는 사회적 도구” 25.06.25
- 다음글‘인류 운영체제’ 위협하는 인공지능, 어떻게 대처해야 할까 25.06.25