“AI는 무엇도 책임지지 않는다”…인간의 고삐 시급한 이유 > 뉴스룸

본문 바로가기
사이트 내 전체검색
한겨레경제사회연구원 바로가기

뉴스룸

뉴스룸

“AI는 무엇도 책임지지 않는다”…인간의 고삐 시급한 이유

페이지 정보

profile_image
작성자 최고관리자
댓글 0건 조회 783회 작성일 23-11-29 16:41

“AI는 무엇도 책임지지 않는다”…인간의 고삐 시급한 이유

작성일 23-11-29 조회수 783

본문

공유하기

  • 구글플러스로 공유
  • 페이스북으로 공유
  • 트위터로  공유
[챗지피티 6개월-AI의 두얼굴] 석학 4명 인터뷰
해악이 이익 넘어설 가능성…윤리적·법적·정책적 문제 만연

지난 4월 인공지능(AI) 분야의 교수와 연구자 등 3만여명이 “인공지능 개발 실험을 6개월만이라도 멈추자”는 공개서한을 발표했다. 첨단 인공지능 시스템을 방치할 경우 허위 정보와 가짜 뉴스가 사회의 신뢰를 훼손시키고, 차별과 편견을 증폭시킬 수 있으며 값싼 생화학·사이버 무기 개발로 국가 안보가 위협받으리라는 우려에서다.

 

5월 말에는 인공지능 업계를 대표하는 경영자·연구자·개발자 350여명이 인공지능으로 인한 인류 멸종의 위험을 경고하는 데 동참하고 나섰다. 챗지피티(ChatGPT) 출시 이후 요동치는 세계에서 인공지능 최고 전문가들은 인공지능 기술의 이면에서 대중들은 알지 못한 어떤 진실을 본 것일까?

 

<한겨레>는 인공지능 분야 석학 네명을 서면으로 인터뷰했다. 이 중 피터 스톤 미국 텍사스대 컴퓨터공학과 교수와 미국 스탠퍼드대 인간중심 인공지능연구소 부소장인 제임스 랜데이(스탠퍼드대 컴퓨터공학과 교수)는 ‘개발 중단’ 서한에 이름을 올렸다. 프랭크 패스콸리 미국 브루클린대 로스쿨 교수와 드루 헤먼트 영국 에든버러대 미래연구소 교수는 서명에 참여하지는 않았지만 이들의 경고를 무시해서는 안 된다고 했다.

 

인터뷰에 응한 교수들은 인공지능이 머지않은 미래에 위험을 초래할 것이라고 봤다. “인간에 의한 악용”(피터 스톤), “대량의 사기와 허위 정보 범람”(제임스 랜데이)에 대한 우려가 가장 컸다. 

 

피터 스톤 텍사스대 컴퓨터공학과 교수
피터 스톤 텍사스대 컴퓨터공학과 교수

30년 동안 인공지능 연구를 해온 피터 스톤 교수는 “인공지능 기술이 악용될 가능성에 대한 관심을 불러일으키고, 직면한 위험을 통제하기 위한 노력을 촉구하기 위해” 공개 서한에 서명했다고 밝혔다. 그는 “인공지능 시대에는 우리 눈에 진짜처럼 보이는 텍스트와 이미지, 영상들이 기계가 만든 가짜일 수 있다. ‘보는 것이 곧 믿는 것’(Seeing is believing)이 될 수 없는 세상이 된 것”이라고 했다. “챗지피티 이용자라면 인공지능이 텍스트를 생성하고, 놀랍도록 사실적인 이미지를 제공하는 경험을 했을 것이다. 인공지능은 인간의 지능을 복제하는 수준에 근접했다.”

 

또 그는 “인공지능을 쓰는 사람들로 인한 사회·경제·정치적 해악이 이익을 넘어서게 될 가능성을 최소화하는 정책을 시급히 찾아야 한다”고 했다. “(인공지능 규제를 맡는) 관료들은 정책의 긍정적 영향과 부정적 영향에 대해 잘 알아야 한다. 안전 등의 분야에 대한 기술적 전문성이 충분하지 않으면 공무원들은 매우 유망한 애플리케이션을 거절하거나, 제대로 심사하지 않은 민감한 애플리케이션을 허가해줄 수 있다.”

 

그는 “사회·경제·정치적 피해가 발생할 가능성을 최소화하기 위한 ‘가드레일’을 하루빨리 세워야 한다”고 강조했다. 그가 가장 규제가 시급하다고 꼽은 분야는 정치 담론의 허위 정보와 지식재산권 분야였다. “보호장치를 두지 않으면 순식간에 인공지능을 악용하려는 자들의 판이 될 것”이라고도 했다.

 

제임스 랜데이 스탠퍼드대 컴퓨터공학과 교수
제임스 랜데이 스탠퍼드대 컴퓨터공학과 교수

제임스 랜데이 교수는 “인공지능을 이용해 누구나 허위 정보(Misinformation)를 손쉽게 만들 수 있는 점이 가장 걱정”이라며 “2016년 미국 대선과 브렉시트(영국의 유럽연합 탈퇴) 캠페인 기간에 러시아 요원들이 했던 것처럼 내년 미국 대선 등에선 인공지능을 활용해 훨씬 적은 비용으로 대량의 허위 정보를 만들어낼 것”이라고 우려했다. 그는 “어떤 형태로든 즉각적인 규제가 필요하다. 최소한 인공지능을 훈련할 때 사용한 데이터의 출처를 제시하도록 의무화해서 연구자들이 인공지능이 해롭거나 편향된 특정 결과를 내는 이유를 이해할 수 있도록 해야 한다”고 말했다 또 “제3자가 인공지능의 편향성 등을 감시하게 하고 이런 문제가 해결될 때까지 해당 인공지능을 제한하는 방법을 마련할 수도 있다”고 덧붙였다.

 

미국 인공지능 자문위원회 위원인 프랭크 패스콸리 교수는 단순히 규제만 빨리 만든다고 문제가 해결되진 않는다고 강조했다. 그는 “생성 인공지능 개발을 멈추는 게 현명하다고 본다”며 “해결해야 할 윤리적·법적·정책적 문제가 많이 남아 있기 때문”이라고 말했다. 하지만 서한에 서명한 일부 인사들은 동기가 의심스럽다고 했다. 앞서 서명에 참여한 몇몇 개인과 기업은 인공지능 피해를 줄이려는 규제에 반대 입장을 밝히기도 했다. “이들이 약한 수준의 규제를 서둘러 통과시킨 뒤 문제가 해소됐다고 선언하면 그때는 어떻게 할 것인가?”라고 반문했다.

 

그는 “편견, 차별, 과잉 의존, 허위·가짜 정보, 데이터 보안 위험, 지식재산권 침해, 사생활 침해 등 생성 인공지능으로 인해 발생할 수 있는 폐해는 너무 많고 이러한 피해 중 상당수는 이미 수년 전에 예견됐다”고 말했다. 패스콸리 교수는 인간에 대한 중요 의사결정이 불투명한 알고리즘에 의해 이뤄지게 될 미래를 비판하는 <블랙박스 사회>의 저자다.

 

프랭크 패스콸리 미국 브루클린대 로스쿨 교수
프랭크 패스콸리 미국 브루클린대 로스쿨 교수

그는 인공지능이 빨아들이는 데이터의 문제점을 강조한다. “생성 인공지능 개발에 사용되는 데이터가 통제되고 있는지, 보상은 충분한지, 어떤 데이터들을 학습시키는지 투명성을 확보할 수 있는 근본적인 평가가 이뤄져야 한다.” 인공지능을 학습시킨 데이터의 출처나 내용을 알 수 없고, 인간 창작물이 아무런 보상을 받지 못한 채 복제의 샘플로 활용되는 문제를 짚은 것이다.

 

그는 알고리즘이 투명하고 공정해야 하며 알고리즘으로 불리한 영향을 받는 사람들이 이에 대해 이의를 제기할 수 있는 길도 열려 있어야 한다고 주장했다. 사람과 달리 알고리즘은 ‘책임’을 지지 않는다.

 

“알고리즘은 사람의 자질을 평가하는 평판 알고리즘, 웹사이트를 포함한 콘텐츠의 순위를 매기는 검색 알고리즘, 돈과 관련해 많은 기능을 수행하는 금융 알고리즘 등 세가지로 분류할 수 있다. 공정한 알고리즘은 사람이 지속적으로 검토하고 개선하는 경우에만 가능하다. 그러나 완전히 공정하기란 어렵다. 이 때문에 알고리즘으로 부당하고 불리한 대우를 받은 이들이 정부에 알고리즘의 개선을 요구할 수 있어야 한다.”

 

드루 헤먼트 영국 에든버러대 미래연구소 교수
드루 헤먼트 영국 에든버러대 미래연구소 교수

드루 헤먼트 영국 에든버러대 미래연구소 교수는 ‘인공지능 시대’가 예술의 가치나 예술가의 역할을 바꿀 것으로 전망했다. 헤먼트 교수는 인공지능이 예술가들을 단순 작업에서 해방시킨다는 점은 긍정적으로 평가하면서도 인공지능의 훈련에 쓰인 창작물에 대한 지식재산권 문제가 해소될 필요가 있다고 강조했다. 실제 생성 인공지능 등장 이후 이미지 기업이나 예술가가 이미지 생성 인공지능 기업을 상대로 소송을 거는 사례가 생기고 있다. 이미지 플랫폼 기업인 게티이미지는 사진 생성 인공지능 서비스 ‘스테이블 디퓨전’의 개발사 ‘스태빌리티 에이아이’를 상대로 1조8천억달러(약 2311조원)에 이르는 지식재산권 침해 소송을 제기했다.

 

드루 헤먼트 교수는 “우리는 지금 혁명적인 순간에 있다”며 “인공지능은 긍정적인 동시에 부정적인 ‘야누스의 얼굴’을 가졌다”고 했다. 그는 “인공지능이 인터넷에서 수집한 방대한 이미지와 뉴스 등의 데이터를 기반으로 훈련하는데, 원창작자의 허가를 받지도, 그에 대해 정당한 보상을 하지도 않고 있다”며 “이는 명백하게 잘못된 것”이라고 지적했다.

 

수많은 전문가의 우려에도 인공지능 개발은 당분간 멈출 수도 없고, 멈추지도 않을 것이다. 경고했던 이들조차 그것이 가능하리라 생각하진 않는다고 했다. 다만 지금은 인공지능의 악용 가능성을 제어할 방법을 찾아 인류가 한시바삐 머리를 맞대야 할 때라고 이들은 말한다.

 

정혜민 임지선 기자 jhm@hani.co.kr 

목록으로 이동

회원로그인

회원가입