진짜 가짜 식별 어려워진 AI시대, ‘신뢰 감별사’ 뜨다 > 뉴스룸

본문 바로가기
사이트 내 전체검색
한겨레경제사회연구원 바로가기

뉴스룸

뉴스룸

진짜 가짜 식별 어려워진 AI시대, ‘신뢰 감별사’ 뜨다

페이지 정보

profile_image
작성자 최고관리자
댓글 0건 조회 12회 작성일 25-09-15 10:46

진짜 가짜 식별 어려워진 AI시대, ‘신뢰 감별사’ 뜨다

작성일 25-09-15 조회수 12

본문

공유하기

  • 구글플러스로 공유
  • 페이스북으로 공유
  • 트위터로  공유

챗지피티(GPT), 구글 제미나이, 미드저니 등 생성 인공지능 서비스가 보급되면서 일자리 불안이 커지고 있다. 지난해 한국개발연구원(KDI)은 ‘인공지능으로 인한 노동시장의 변화와 정책방향’ 보고서에서 “2030년이면 현재 형태의 일자리 90%에서 직무의 90% 이상이 자동화될 수 있을 것”이라고 전망했다. 인공지능은 수많은 일자리를 소멸 위기로 몰아가지만 새로운 직업도 생겨나고 있다. 인공지능 환경에서 신뢰와 책임을 담보하는 ‘에이아이(AI) 진위 감별사’가 그 중 하나로, 인공지능 때문에 상상하지 못한 문제들이 생겨나는 까닭이다.

AI로 인한 새로운 리스크

2023년 2월13일 미국 미시건주립대에서 총기 난사로 3명이 숨지는 일이 벌어졌다. 그 직후 테네시주의 밴더빌트대 피바디 단과대학은 모든 학생들에게 희생자를 추모하고 안전하고 포용적 환경을 만들자는 이메일을 보냈는데 이 메일은 대대적인 분노를 불러왔다. 이메일 끝에 챗지피티로 작성했다는 내용이 들어 있었기 때문이다.

미국의 신뢰받는 지역 일간지 ‘시카고 선타임스’는 지난 5월18일 여름 추천도서 15권을 소개한 기사를 실었다. 유명 작가들이 포함돼 있었지만, 목록중 9권은 아예 존재하지 않는 책이었고 제목과 내용도 허구였다. 인공지능으로 만든 기사를 실은 신문사는 사과하고 정정했다.

심각한 피해 사례도 나오고 있다. 시드니 오페라하우스 설계에 참여한 영국의 세계적 구조설계회사 에이럽은 지난해 1월 2500만 달러(350억원)를 사기범 계좌에 입금했다. 영상통화에서 틀림없는 회사 경영진의 얼굴과 음성이었는데, 알고 보니 딥페이크 조작 영상이었다.

2023년 6월22일 뉴욕 맨해튼 연방지방법원은 변호사 2명과 소속 법무법인에 각각 5000달러(700만원)씩의 벌금을 부과했는데, 소송을 진행하던 두 변호사가 가짜 판례를 판사에게 제출한 게 재판 과정에서 들통났기 때문이다. 두 변호사는 챗지피티를 이용해 소송 문서를 작성했고, 가짜 판례가 여섯 건 넘게 서류에 포함된 걸 몰랐다. 영국, 프랑스, 오스트레일리아 등 각국에서 변호사가 가짜 판례를 사용했다가 적발돼 징계를 받은 사례가 여럿이다.

캐나다 최대항공사 에어캐나다는 지난해 2월 상담 업무에 인공지능 챗봇을 활용했는데, 구매자에게 잘못된 환불 정책을 안내했다. 항공사는 환불을 요청하는 고객에게 “챗봇이 잘못 답변했다”며 환불을 거부했지만, 법원은 전적으로 항공사 책임이라고 판결했다.

 AI리스크가 만들어낸 새 직업들

이처럼 인공지능으로 위험에 처하는 사례들이 늘어나자 이에 대응해 새로운 직업군이 등장하고 있다. 미국 ‘엔비시(NBC) 뉴스’는 지난달 31일 인공지능이 만들어낸 신종 직무를 소개했다. 실직을 걱정하던 디자이너, 콘텐츠 편집자들에게 인공지능이 만든 ‘엉성한 결과물’을 수정하고 진위를 검증하는 일이 쏟아지고 있다고 보도했다. ‘뉴욕타임스 매거진’도 지난 6월17일 인공지능 확산으로 인해 신뢰와 책임을 다루는 직업군이 폭발적으로 늘어날 것이라고 보도했다. 인공지능이 직무에 광범하게 활용되고 파급 효과가 커짐에 따라 각 기업에서 진위 감별, 신뢰 관리, 인공지능 윤리를 다루는 전문가의 역할이 필수적이 됐다. 일부 대기업들이 법규, 윤리, 사회적 책임 등을 담당하는 준법감시(컴플라이언스) 조직을 꾸려왔는데, 앞으로는 ‘에이아이(AI) 컴플라이언스’ 전문가가 필요해지는 상황이다.

인공지능의 오류를 바로잡는 업무는 그동안도 사람이 맡아왔다. 거대언어모델은 확률 통계적 방법으로 문장과 단어 사이의 관계를 파악해 작동하는데, 질문에 대해 황당한 답변을 하는 환각현상이 나타나곤 했다. ‘인간 피드백 기반의 강화학습(RLHF)’은 환각과 오류 등 인공지능의 잘못된 답변을 사람이 바로잡아, 챗지피티 등 거대언어모델의 성능 향상을 가져온 대표적 기술이다. ‘좋은 글’ ‘유익한 내용’ ‘민감하고 위험한 답변’ 등 수치화하기 어려운 기준을 인간 평가자의 피드백을 통해 직접 인공지능에 학습시키는 방식이다.

페이스북, 유튜브 같은 소셜미디어에서도 부적절한 콘텐츠를 관리하는데 알고리즘만으로 충분치 않아 사람 손길이 필수적이다. 기계적 판단이 어렵거나 민감한 내용은 콘텐츠 관리자가 처리한다. 포티투닷(42.dot), 쿠팡 등 국내 기업들도 인공지능 모델, 콘텐츠 품질 평가자를 뽑고 있다.

기존의 소셜미디어와 커뮤니티 관리자의 업무는 기본적으로 이용 규정을 위반한 게시물을 처리하는 것인데 비해 인공지능 신뢰와 관련한 신종 직무는 예측 불가능성, 광범함, 기술적 전문성이 특징이다. 이제껏 진위 검증, 사기 판별 등 팩트체크를 핵심으로 하는 직무는 기자, 수사관, 감사담당자 정도였는데, 인공지능으로 인해 새로 주목받는 직업군이 등장하고 있는 셈이다.

또한 기존 팩트체크, 콘텐츠 관리는 실무자가 담당했다면, 향후 인공지능을 사용한 결과의 신뢰를 보증하는 직무는 책임있는 전문가가 맡는다는 게 다르다. 인공지능의 영향력이 조직의 명운을 가를 정도로 막대하기 때문이다. 이처럼 첨단 기술로 새로운 문제가 발생하고 이에 대응해 신종 직업이 등장하는 현실은 신기술로 인한 실직을 지나치게 걱정할 필요가 없다는 점을 보여준다.

구본권 선임기자 starry9@hani.co.kr

목록으로 이동

회원로그인

회원가입