본문 바로가기

뉴스

푸틴·트럼프가 챗GPT를 좌우한다면? AI로부터 민주주의를 지켜라!

챗GPT 만든 CEO도 "'AI 통제' 푸틴 발언, 너무 소름 끼쳤다"

대중과 시장이 인공지능(AI) 챗봇인 '챗GPT'에 환호하고 있는 가운데, 적절한 규제가 도입되지 않을 경우 인공지능 기술이 민주주의를 무너뜨릴 수 있다는 지적이 나와 주목된다.

인공지능 전문가이자 베스트셀러 작가인 게리 마커스(Gary Marcus)는 지난 14일(현지시간) <애틀랜틱>에 기고한 "왜 우리는 인공지능 위기가 발생하도록 내버려두고 있나?"(Why Are We Letting the AI Crisis Just Happen?)라는 글을 통해 "만약 우리가 지금 이 싸움을 시작하지 않는다면, 민주주의는 잘못된 정보와 그에 따른 양극화에 의해 압도될 수도 있다"며 "2024년 (미국) 선거는 우리가 이전에 본 어떤 것과도 다를 수 있다"고 경고했다.

그는 "챗GPT와 개선된 MS의 빙 검색 등 새로운 인공지능 시스템은 대중들을 완전히 사로잡았다. 챗GPT는 역사상 가장 빠르게 성장하는 온라인 애플리케이션이며, 그 이유는 당연하다. 텍스트를 입력하면 웹 링크를 다시 가져오는 대신 선택한 주제에 대해 제대로 구성된 대화형 응답을 얻다는 것은 부인할 수 없는 매력"이라고 지적했다.

그러나 그는 대중들과 거대 기술 기업들만이 빅 데이터에 기반한 이 대화형 챗봇에 주목하는 것이 아니라면서 "'악당'(bad actors)들도 그 기술에 주목하기 시작했다"고 강조했다. 

"극우 소셜네트워크 '가브'(Gab)의 앤드루 토르바 대표도 최근 자신의 회사가 '기독교 세계관을 퍼뜨리고 정권의 검열과 맞서 싸우기 위해' AI 도구를 적극적으로 개발하고 있다고 밝혔다. 이념만이 동기가 되는 것은 아니다. (…) "빨리 부자기 되고 싶은" (소셜미디어에서 활동하는) 인플루언서들도 홍보 수단으로 이 기술을 활용할 수 있다. 챗GPT의 등장으로 테크 회사들은 과거 제품들의 문제가 무엇인지 잘 알려진 이후에도 새롭게 유행하는 인공지능 제품들을 출시하기 위해 서두르고 있는 지금은 엄청난 위험의 순간이다." 

그는 "기술의 주류화와 데이터의 규모의 확장은 여러 면에서 상황을 악화시켰다"며 "단적인 사례로 지난해 11월에 메타(구 페이스북)가 출시한 갤럭티카(Galactica)가 '2018년 테슬라 자동차 사고로 일론 머스크가 사망했다'고 주장했다고 알려졌다"고 지적했다. AI는 수많은 데이터에 기반한 확률적인 답을 내놓는 방식으로 작동하기 때문에 '2018년 테슬라 사고'와 테슬라와 연관해서 가장 많이 등장하는 CEO '일론 머스크'가 조합돼 오류가 발생하게 된 것이다. 이처럼 개별적인 차원의 사실을 조합해 만들어내는 오류인 '환각'(hallucination)은 잘 알려져 있지만 이를 방지할 수 있는 대응책 마련의 속도는 새로운 모델이 개발되는 속도에 비해 느리다고 마커스는 우려했다. 

문제는 '환각'이 단순한 오류에 그치지 않을 수 있다는 사실에 있다. 데이터 저널리즘을 전공하는 메리디쓰 크로사드 뉴욕대 교수와 사피야 노블 UCLA 교수는 인공지능이 어떤 방식으로 인종적 편견을 복제하고 강화하는지에 대한 연구를 수행한 바 있다. 또 최근 트리스턴 그린 기자는 갤럭티카를 통해 "분쇄된 유리를 섭취하는 것의 이점에 대한 연구"를 제목으로 상세하고 과학적인 형식의 연구 보고서 작성이 가능하다는 사실을 보여주면서 "이런 '환각'을 통해 구체적 연구 내용, 동물 실험, 화학적 설명 등이 조작 가능하다"고 지적했다. 

▲"분쇄된 유리 섭취의 이점에 대한 연구"라는 제목으로 인공지능을 통해 연구 결과 조작이 얼마든지 가능하다는 사실을 지적한 기자의 트위터. ⓒ트위터 화면 갈무리
 

'환각' 현상은 '악당'들에 의해 무궁무진하게 악용될 수 있다는 것이 마커스의 주장이다. 대화형 인공지능이 상용화되기 이전에도 이미 소셜 미디어를 통해 여론을 조작해 원하는 결과를 얻어낸 사례는 2016년 영국의 브렉시트 국민투표, 2016년 미국 대선과 이를 통해 당선된 도널드 트럼프 전 미국 대통령의 '트위터 정치' 등 무수히 찾아낼 수 있다.

시간이 지날수록 악화되는 경제적 양극화와 이에 기반해 계속 강화되는 정치적 양극화는 이미 전 세계적인 현상이 됐다. 이제 챗GPT와 같은 대화형 챗봇으로 특정 경제적, 정치적 이익에 기반한 조작된 정보가 '더' 빠르게, '더' 대규모로 만들어져 유포될 수 있게 됐다. 

챗GPT를 개발한 오픈AI(OpenAI)의 CEO 샘 올트먼(Sam Altman)도 지난 17일(현지시간) ABC뉴스와 인터뷰에서 "우리는 권위주의 정부에서 인공지능을 개발하고 활용하는 것에 대해 많이 걱정한다"고 말했다. 진행자가 "블라디미르 푸틴 러시아 대통령이 이전에 인공지능 경주에서 이기는 사람이 인류를 통제하게 될 것이라고 말한 바 있다"고 지적하자 올트먼은 "매우 소름끼치는 발언이었다"며 "이런 이유로 저는 다수가 서로 다른 방식으로 사용할 수 있는 더 강력한 시스템을 성공적으로 개발할 수 있기를 바란다"고 말했다. 

그는 "인공지능이 우리 사회를 재구성할 것이고, 인류가 지금까지 개발한 가장 위대한 기술이 될 수도 있다"면서도 "아주 나쁜 결과들의 집합도 가능하다. 내가 특히 걱정하는 것은 이 모델들은 대규모 허위 정보에 사용될 수 있다. 또 컴퓨터 코드를 쓰는데 점점 더 능숙해지는 이 시스템들이 사이버 공격에 사용될 수도 있다"고 우려되는 부작용들에 대해 언급했다.  

▲인공지능의 '환각' 현상을 통해 원하는 거짓 정보를 얼마든지 생산하고 확산시킬 수 있다는 사실은 인공지능에 대한 규제가 시급함을 보여준다. ⓒ<애틀랜틱> 화면 갈무리