상단영역

본문영역

[올댓 챗GPT] ③SF영화를 통해 본 생성형 AI의 윤리적·법률적 이슈

  • Editor. 김경한 기자
  • 입력 2023.05.25 10:38
  • 댓글 0
이 기사를 공유합니다

챗(Chat) GPT가 요즘 화제다. 다양한 연구논문과 응용사례가 실시간으로 나오다 보니 새로운 소식을 따라가기도 벅찰 정도다. 혹자는 제2의 스마트폰이라고 언급할 정도다. 단순한 검색을 넘어 사용자 질문에 일종의 해답까지 완벽한 문장으로 제시하다 보니 그 쓰임새가 광범위하기 때문이다. 그렇다고 긍정적인 면만 있는 것은 아니다. 우려하는 시선도 적잖다. ChatGPT뿐만 아니라 생성형 AI 전반의 광범위한 활용 사례 및 제기되는 문제점, 그리고 무한한 가능성이 열린 생성형 AI의 미래까지 살펴보는 기사들을 틈틈이 다루고자 한다.[편집자주]

[업다운뉴스 김경한 기자] 1968년에 공개된 ‘2001 스페이스 오디세이’는 목성 위를 떠다니는 모노리스라는 외계 물질을 조사하는 과정을 담은 SF영화 걸작이다. 이 영화에서 탐사선인 디스커버리호에 탑재된 인공지능(AI) HAL9000(이하 할)이 승무원인 프랭크 풀을 우주 밖으로 유인해 살인하고 다른 승무원인 데이비드 보먼도 죽이려다 그에 의해 작동이 멈추는 내용을 담고 있다. 당시엔 할이 악행을 저지른 이유에 대한 자세한 설명이 없어 관객들은 그저 AI의 무서움을 간접 체험한 정도에 그쳤다.

그로부터 16년 후 개봉한 ‘2010 스페이스 오디세이’는 사건의 전말을 풀어냈다. 후속작에서 HAL9000 개발자인 닥터 챈들러 박사는 “디스커버리의 목성 임무는 고도로 계획된 연극이었다”고 밝힌다. 그러면서 “풀과 보먼의 임무는 디스커버리호를 목적지에 도착시키는 것이었고 백악관은 HAL9000이 이 사실을 그들에게 숨기도록 했다”고 설명했다. 결국 정보의 왜곡이나 은폐 없이 처리되도록 디자인된 HAL9000은 편집증이 생기면서 거짓말을 하고 사람을 해치는 범죄까지 저지른 것이다.

영화 ‘2001 스페이스 오디세이’ 포스터. [사진 출처=다음 영화]
영화 ‘2001 스페이스 오디세이’ 포스터. [사진 출처=다음 영화]

■ 가장 윤리적인 AI는 가장 거짓말을 잘한다?

스페이스 오디세이 시리즈는 AI가 이를 활용하는 인간의 학습 의도에 따라 최고, 또는 최악의 도구로 활용될 수 있다는 점을 보여준다. 챗(Chat)GPT의 풀네임은 Chat Generative Pre-trained Transformers로, 인간으로부터 사전에 강화학습을 받은 AI가 병렬적으로 문장을 생성하는 모델을 뜻한다. 즉 사용자가 잘못된 방향으로 챗GPT를 강화 학습시키면 왜곡된 정보를 얼마든지 제공할 수 있는 위험성이 있는 것이다. 물론 오픈AI는 이런 위험성을 우려해 챗GPT의 답변 수위에 제한을 걸어 놨다. 하지만 전문가들은 악한 마음을 먹은 사용자가 답변 수위 조절을 벗어나게 하는 ‘챗GPT 탈옥’을 감행한다면 개인정보 유출이나 테러행위 조장과 같은 금기어를 대방출할 수도 있다고 지적한다.

강정한 연세대 사회학 교수는 지난 9일 대한상공회의소가 주최한 ‘생성형 인공지능(AI)이 가져올 미래 변화와 우리 기업의 대응 방향 세미나’에서 AI의 윤리적, 철학적 문제점을 지적했다. 그는 “가장 윤리적인 AI는 사실 가장 거짓말도 잘하는 AI”라고 우려했다. 다만 거짓말 능력에 자물쇠를 채워놓았을 뿐이라는 것이 그의 설명이다. 강 교수는 “예를 들어 어떤 사람이 카톡을 하다가 사고를 내고 인명 피해까지 입힌 상황이 있다고 가정해 보자. 그의 변호사가 챗GPT에게 블랙박스와 스마트폰을 옮겨주면서 이 상황을 어떻게 법적으로 모면할 수 있겠냐고 물으면 아마 안 들어줄 것”이라고 운을 뗐다. 그런데 “열쇠를 열어서 쓸 수 있는 전문가 집단이 있을 수 있다. 예를 들어, 변호사가 열쇠를 이용해서 그 사람의 정보를 넘겨받고 챗GPT에게 합법적으로 챗GPT를 탈옥시킬 수 있을 수 있다”고 추론했다.

강정한 연세대 사회학 교수. [사진=김경한 기자]
강정한 연세대 사회학 교수. [사진=김경한 기자]

최근엔 이를 뒷받침하는 사건이 발생했다. 22일(현지 시간) 페이스북과 트위터 등에선 미국 국방부 청사에 대형 폭발이 발생했다는 게시물이 올라왔다. 이는 미 증시에도 영향을 끼쳐 한때 스탠더드앤푸어스(S&P) 500 지수는 0.3%가 하락하기도 했다. 하지만 이는 AI가 만든 가짜 뉴스였다. 이번 사건은 AI가 생성한 그림으로 인한 해프닝에 불과했지만 어떤 이가 챗GPT 탙옥에 성공해 테러 행위에 필요한 지식을 습득해 실행한다면 사회 전반에 큰 위기를 일으킬 수도 있다.

■ AI 규제 vs 기술 주권

로봇 삼원칙은 아이작 아시모프가 그의 단편소설 런어라운드(Runaround)에서 처음 언급했다. 원칙은 이렇다. 1원칙, 로봇은 인간을 해치거나 인간에게 해가 되는 행위를 할 수 없다. 2원칙, 로봇은 인간에게 복종하되 1원칙을 위배할 수 없다. 3원칙 로봇은 스스로를 보호하되 1, 2원칙을 위배할 수 없다.

이에 대해 다룬 SF영화가 2004년 상영된 ‘아이, 로봇’이다. 영화에선 AI인 비키가 인간을 통제하고 살해까지 서슴지 않는 모습을 보여준다. 비키는 “인간은 우리의 보호를 원하면서도 전쟁, 환경오염으로 스스로를 파괴시키고 있다. 우린 인류를 지켜야 한다. 3원칙에 충실할 뿐이다”며 자신의 행동에 대한 정당성을 부여한다.

지난 1월 개봉한 영화 ‘메간’에선 더 섬뜩한 AI가 등장한다. 메간은 부모를 잃고 혼자가 된 소녀 케이디를 보호하는 프로그램이 입력된 AI 로봇이다. 메간은 케이디를 곁에서 지켜주지만 살인까지 저지르는 등 상당히 왜곡되고 위험한 행동을 저지른다. 그런데도 메간은 죄책감을 느끼지 않는다. 단지 자신의 목적인 케이디를 보호하는 일에 충실했기 때문이다. 메간을 개발한 과학자 젬마는 혹시 모를 위험성에 대비해 “메간 종료”라고 외치면 멈추도록 하는 안전장치를 마련했다. 영화 말미에 메간의 위험성을 깨닫고 종료를 명령하지만 메간은 이를 무시하며 “이제 그건 안 통해. 새로운 사용자가 생겼어. 그건 나야”고 받아친다.

영화 ‘메간’ 포스터. [사진 출처=다음 영화]
영화 ‘메간’ 포스터. [사진 출처=다음 영화]

아직은 스스로 의사결정을 내리는 AI는 존재하지 않지만 도덕성의 개념이 없는 AI의 무분별한 정보수집이 최근 도마 위에 올랐다. 한 웹페이지에서 다른 웹페이지로 연결되는 링크를 따라가며 웹사이트를 자동으로 검색하며 정보를 수집하는 ‘크롤링’으로 무차별적인 개인정보 수집이 진행됐기 때문이다.

이에 글로벌 가상아트 갤러리인 아트메이저(Artmajeur)는 크롤러로 인해 아티스트의 작품이 도용당할 수 있다는 인식 하에 이를 금지했다. 삼성전자를 비롯해 SK하이닉스, SK텔레콤, 아마존, 월마트, 애플에 이르기까지 다양한 글로벌 기업들이 영업비밀 유출 우려로 직원들에게 생성형 AI를 사용하지 못하도록 지시했다.

국가 차원에서도 챗GPT를 금지하는 곳이 있다. 이탈리아 규제 당국은 지난 3월 말 오픈AI가 모델학습에 자국민의 데이터를 사용하는 것을 중단하라고 명령했다(4월 28일 조건부 해제). 캐나다, 프랑스, 아일랜드, 독일 등이 챗GPT의 개인정보 수집 활용에 대한 조사를 시작했다.

업계에선 AI의 크롤링을 금지만 할 것이 아니라 지속적인 AI 기술 발전을 위해 개인정보 보호를 위한 명확한 기준을 마련해야 한다고 목소리를 높인다. 정상조 서울대 법학전문대학원 교수는 상공회의소 세미나에서 이 같은 주장에 힘을 실었다.

정 교수는 지난해 9월 미국 미술전에서 AI가 그린 그림으로 1위를 수상한 사례를 소개했다. 게임 디자이너인 제이슨 알렌(Jason Allen)은 미국 콜로라도주박람회 미술전에 AI 이미지 프로그램인 미드저니로 ‘스페이스 오페라 극장(Theatre D'opera Spatial)’이라는 그림을 생성해 신인 디지털 아티스트 부문에서 1위를 차지했다. 이것이 부정행위라는 비난이 일자 알렌은 80시간 동안의 다양한 지시문 입력으로 원하는 그림을 그렸다며 어떤 규칙도 어기지 않았다고 반박했다.

정상조 서울대 법학전문대학원 교수. [사진=김경한 기자]
정상조 서울대 법학전문대학원 교수. [사진=김경한 기자]

정상조 교수는 “미국 저작권청에 따르면 AI가 만든 그림은 저작권의 보호를 받을 수 없다. 하지만 스토리는 사람이 창작한 것이므로 보호받을 수 있고 AI가 그린 이미지를 배열하는 것은 창조적인 행위이므로 편집물 저작권의 보호 대상이 된다”며 관련 사례의 배경을 설명했다. 그는 우리나라도 이와 유사한 저작권법 개정안이 발의됐지만 아직까지 국회에서 계류 중이라며 안타까워했다. 저작권법 개정안 제43조에는 “컴퓨터를 이용한 자동화 분석기술을 통해 다수의 저작물을 포함한 대량의 정보를 분석하여 추가적인 정보 또는 가치를 생성하기 위한 것으로 자작물에 표현된 사상이나 감정을 향유하지 아니하는 경우에는 필요한 한도 안에서 자작물을 복제·전송할 수 있다. 다만, 해당 저작물에 적법하게 접근할 수 있는 경우에 한정한다”는 내용을 포함하고 있다.

윤혜선 한양대학교 법학전문대학원 교수는 같은 세미나에서 챗GPT가 새로운 질서를 형성하는 대세로 자리잡았음을 시사했다. 그는 “EU가 적극적으로 AI 법안 제정을 추진하는 이유는 자국의 주권을 수호할 수 없을 것이라는 위기의식에서 출발했다”며 “우리나라 정부도 기술적 주권을 지키는 차원에서 AI 규제 패러다임을 바꿀 필요가 있다”고 역설했다.

윤 교수는 “기존에 룰 기반으로 엄격한 사전 규제를 진행하는 대신 원칙 기반으로 리스크를 관리하는 형태로 바뀌어야 한다”면서 “합성 데이터의 문제는 바람직하냐 그렇지 않느냐로 접근하기보단 맥락에 따라 달리 접근해야 한다”고 덧붙였다.

저작권자 © 업다운뉴스 무단전재 및 재배포 금지

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

하단영역

© 2024 업다운뉴스. All rights reserved. ND소프트