더 인간답게…인공지능 개발 때부터 ‘윤리’에 주목하자 > 뉴스룸

본문 바로가기
사이트 내 전체검색
한겨레경제사회연구원 바로가기

뉴스룸

뉴스룸

더 인간답게…인공지능 개발 때부터 ‘윤리’에 주목하자

페이지 정보

profile_image
작성자 최고관리자
댓글 0건 조회 913회 작성일 23-11-29 16:16

더 인간답게…인공지능 개발 때부터 ‘윤리’에 주목하자

작성일 23-11-29 조회수 913

본문

공유하기

  • 구글플러스로 공유
  • 페이스북으로 공유
  • 트위터로  공유
제2회 사람과디지털포럼 기조연사
제임스 랜데이 스탠퍼드대 HAI 부소장

챗GPT가 몰고올 사회적 부작용
사후비판보단 예측·예방 중요해
‘인간중심’ 기술이 나아갈 방향

개발과정 윤리학자 등 참여 통해
다양한 가치 염두에 두고 설계
기계가 일자리 대체하기보다
노동자 돕는 쪽에 초점 맞춰야


빌 게이츠는 지난 3월 발표한 ‘인공지능 시대가 시작됐다’는 글에서 “인생에서 만난 혁명적 기술이 두 가지인데, 첫번째는 1980년 그래픽사용자환경(GUI)이고, 두번째가 오픈에이아이의 챗지피티”라는 말로, 챗지피티의 영향력과 파장을 예고했다. 그래픽사용자환경의 윈도 운영체제 덕분에 프로그램 언어를 모르는 사람도 누구나 컴퓨터를 사용하게 되면서 정보화 혁명이 실질적으로 시작된 것처럼, 인공지능을 자연어로 조작하게 해주는 기술의 등장은 인공지능을 만인이 다양한 용도로 사용하는 충격적 세상이 열릴 것이라는 예언이다. 챗지피티가 세상을 휩쓸고 있는 가운데 스탠퍼드대학의 인간중심 인공지능연구소(HAI) 제임스 랜데이 부소장이 제2회 사람과디지털포럼에서 기조연사로 나선다. 랜데이 부소장은 이 연구소의 공동설립자로, 인간-컴퓨터 환경(HCI) 분야 최고의 전문가인 스탠퍼드대 컴퓨터공학 교수다. ‘선한 인공지능으로는 충분하지 않은 이유: 인간중심 인공지능의 사례’를 주제로 발표할 랜데이 부소장을 이메일로 사전 인터뷰했다.

-당신은 인간 중심 인공지능은 사람 두뇌에서 아이디어를 얻어야 한다고 주장했다. 인간 두뇌를 본따 개발된 인공지능은 위험한 인간형 로봇(휴머노이드)가 되어 인간을 대체하거나 위협할 수 있지 않을까?


“스탠퍼드 인간중심 인공지능연구소의 연구는 세 가지 원칙 준수를 요구한다. 첫째, 인류에게 미치는 인공지능의 영향이 크기 때문에 처음부터 학제간 전문가를 참여시켜 인공지능 개발의 모든 단계에 참여시키고, 모든 과정에 윤리와 사회적 영향에 대한 이해를 반영해야 한다. 둘째, 인공지능은 노동자를 대체하기보다는 노동자의 능력을 증강하는 방향에 초점을 맞춰야 한다. 셋째, 딥러닝이 현재의 심화신경망 같은 더 정교한 시스템과 기반 기술을 개발할 때 새로운 아이디어와 알고리즘에 대한 영감을 얻기 위해 인간의 뇌에서 영감을 얻어야 한다는 원칙이다.”


-당신은 사회과학자들이 인공지능이 널리 사용된 뒤 사후에 비판하는 방식의 한계를 지적했다. 사전 개발과 기획 단계에서부터 인공지능에 윤리를 적용하자는 ‘내장형 윤리시스템(임베디드 에틱스)’를 강조하는데 그 구체적 방법은?

“사회과학자나 언론인이 인공지능 알고리즘이 공개된 뒤 뒤늦게 문제점을 찾아내는 방식이 되어서는 안된다고 생각한다. 물론 언론이 사후에라도 이런 문제를 지적해야 하지만, 개발과 기획 단계에서 애초 발생할 수 있는 많은 문제를 예방할 수 있는 방법에도 초점을 맞춰야 한다. 스탠퍼드대학에선 별도 윤리 과목에서만 이를 다루는 게 아니라 ‘자연어 처리 고급과정’ 같은 기존 과목에 짧은 윤리 수업을 포함하고 있다. 또한 임베디드 에틱스 자체로 충분치 않아, 전체 인공지능 개발 설계과정에 윤리 문제를 고려하는 포괄적 접근이 필요하다.”

-인간중심 개발을 말하지만, 사용자와 집단마다 요구가 다르고 각 사회마다 추구하는 가치와 기준이 다르다. 다양한 맞춤화가 필요한가 아니면 보편적인 요구와 가치가 더 우선되어야 하나?

“오늘날 대부분의 사용자 중심 설계는 특정 집단 맞춤형이다. 넓은 의미에서 소프트웨어 국제화는 여러 국가에 걸쳐 소프트웨어 설계를 적용하려는 기술인데, 안타깝게도 제품 설계에 내재된 근본적 가치에 주목하기 보다 제품 사용법을 보편적으로 적용하는 것 정도에 머물고 있다. 진정으로 인간 중심 인공지능을 만들려면 커뮤니티와 사회 수준에서 이러한 다양한 가치를 파악하고 적절한 가치를 염두에 두고 인공지능을 설계할 수 있는 방법을 써야 한다. 일부 보편적인 요구와 가치가 있을 수 있지만, 많은 경우 그것만으로는 충분하지 않을 것이다.”

-인공지능이 가져올 일자리 불안에 대한 우려가 높은데?

“정보기술을 많이 다루는 직업은 필수적으로 인공지능을 사용하게 될 것이다. 인공지능을 배우지 않고 활용하지 않는 노동자는 직장을 잃거나 경력을 쌓는 데 어려움을 겪을 위험이 크다. 지식 노동에 종사하는 이들은 경쟁력을 유지하기 위해 업무에 인공지능을 적용하는 방법을 배워야 한다.”

-대화형 인공지능은 이용자환경 측면에서 어떤 변화를 가져올 것인가?

“기존 인간-컴퓨터 상호작용 사례에서 보듯 대화형 인터페이스가 이전 세대의 모든 경우를 대체하지는 않을 것이다. 컴퓨터에 말하거나 타이핑하는 것이 더 좋은 환경일 때가 있는 반면, 그것이 최선의 선택이 아닌 상황(집의 방 구조를 그리거나 운전 중 지도를 사용하여 현재 위치를 보여줄 때 등)도 있다. 또한 특정한 대상을 직접 지시하면서 언어를 함께 사용할 때, 한 가지 방법만 쓸 때보다 효율적이기도 하다.”

-<소셜딜레마>에도 출연한 ‘인도적 기술센터(CHT)’ 설립자인 트리스탄 해리스는 소셜 미디어에 적용된 알고리즘이 수익을 위해 이용자의 중독적인 사용을 유도하도록 설계되었다고 비판한다. 인간-컴퓨터 사용자 환경의 악용 사례다. 인간 중심 인공지능이 이러한 문제를 개선하는 데 도움이 될 수 있나?

“안타깝지만 인간 중심 인공지능이나 임베디드 에틱스 교육이 모든 문제를 해결하지는 못한다. 업계의 자율 규제도 마찬가지다. 일부 문제를 개선하기 위해서는 정부 정책과 법률도 필요하다. 허위 정보와 폭력을 조장하거나 부추기는 등 사회에 부정적 영향을 미치는 의도적 유해 알고리즘의 기술 오용을 막고 방지하기 위해 법적 규제책이 필요하다.”

-수만 명의 사람들이 인공지능 연구 개발을 6개월간 유예하고 안전 규약을 마련할 것을 촉구하는 삶의미래연구소(FLI)의 공개 서한에 당신도 서명했다.

“나도 인공지능의 위험에 대한 우려로 서명했다. 하지만 인공지능이 결국 모든 힘을 갖게 되어 잠재적으로 인류 문명의 종말을 초래할 것이라는 일부 주장에는 동의하지 않는다. 이 서한은 ‘기계가 인터넷을 선전과 거짓으로 가득 채우도록 내버려둬야 하는가?’와 같은 인공지능의 단기적 위험을 언급하는 것으로 시작하는데, 나는 이런 위험이 진짜 중요하다고 생각한다. 서한에 담긴 일부 극단적 예측에 동의하진 않지만, 인공지능의 위험성에 대중이 관심을 갖도록 하는 것이 중요하다고 생각했고 편지가 그 목표를 달성했다고 생각한다.”

구본권 사람과디지털연구소장 starry9@hani.co.kr

☞ 스탠퍼드대 인간중심 인공지능연구소(HAI)란

미국 스탠퍼드대학이 2019년 설립한 인간중심 인공지능연구소(Human-Centered AI Institute, HAI)는 인공지능(AI) 학제간 연구를 선도하는 세계적 연구기관이다. 연구소는 대학·기업·정부·시민사회를 비롯한 글로벌 인공지능 공동체 측면에서 첨단 기술로 인해 발생하는 문제를 예측하고 해결하기 위해 광범한 학제간 연구와 접근을 목표로 내걸었다.

페이페이 리 교수(컴퓨터공학)와 존 에체멘디 교수(철학)가 공동소장을, 제임스 랜데이 교수(컴퓨터공학)가 부소장 겸 연구책임자를 맡고 있다. 연구소가 2020년부터 해마다 발간해오고 있는 ‘스탠퍼드 인공지능 연례보고서’는 널리 인용되며 학계와 산업계에 큰 영향력을 지닌다.

공동설립자인 페이페이 리 소장은 설립 당시 “인공지능은 더이상 기술적인 분야가 아니다. 우리가 공동의 미래를 위해 최선의 결정을 내리려면 기술자, 비즈니스 리더, 교육자, 정책 입안자, 언론인을 비롯해 사회 각 분야가 인공지능에 정통하고 자신의 시각을 공헌해야 한다”며 인공지능 분야의 기술적 전문성만이 아니라 다양한 분야의 논의와 협력을 추구하는 연구소가 될 것이라고 밝혔다.

 

목록으로 이동

회원로그인

회원가입