[인공지능, 묻다] ③ 김대식 KAIST 전자및전기공학부 교수
"우리는 1만 년 동안 인간이 아닌 다른 존재에게 질문하고 답을 얻고 싶었지만 돌아온 것은 침묵뿐이었다. 이런 관점에서 보면, 오픈AI가 챗GPT를 공개한 2022년 11월 30일은 인류 역사상 큰 변곡점이라고 볼 수 있다. 처음으로 인간이 아닌 다른 존재가 인간의 질문에 답을 했기 때문이다."
김대식 KAIST 전자및전기공학부 교수는 <프레시안>과 인터뷰에서 인간과 대화가 가능한 생성형AI(인공지능) '챗GPT'에 대한 열광에 대해 이렇게 비유했다. 국내 대표적인 뇌과학자인 김 교수는 최근 <챗GPT에게 묻는 인류의 미래>(동아시아출판사 펴냄)를 썼다.
챗GPT는 IT 역사에도 큰 변곡점이다. 펀치 카드, 보드를 통해 인간이 컴퓨터에 명령을 하다가 1990년대 마우스를 움직이거나 손가락으로 직접 터치하는 '그래픽 사용자 인터페이스(Graphical User Interface, GUI)' 방식이 개발됐는데, 이제는 언어를 사용해 기계와 소통하는 '링귀스틱 유저 인터페이스(Linguistic User Interface, LUI)'가 도래했다. 김 교수는 "기성세대는 GUI 시대를 살고 있지만, 미래세대는 LUI 시대를 살게 될 것"이라고 말했다.
김 교수는 새로운 장이 펼쳐진 만큼 "챗GPT에 대한 냉철한 판단"이 필요하다고 강조했다. 당장 떠오르는 '인간만큼 똑똑해진 AI가 인간의 노동을 대체하는 존재가 될 것이냐'에 대한 의문에 대한 답도 사실 이 기술에 대한 컨트롤과 분배의 문제에 달려있다고 김 교수는 지적했다.
"결국 우리가 AI 같은 기계를 만들 때 제일 중요한 질문은 두 가지다. '누가 이 기술을 제어하는가'와 같은 컨트롤 문제와 '누가 이 기술이 주는 이득(benefit)을 가지고 가느냐'와 같은 분배의 문제. 이런 관점에서 AI와 관련한 토론이 '빨리 도입해야 한다'라거나 '막아야 한다'라는 식으로만 진행되는 것은 제대로 된 논의가 이뤄지지 않고 있다고 볼 수 있다.
AI와 관련해 항상 나오는 질문이 '인간의 능력이 대체되는 것 아니냐? 일자리가 없어지는 것 아니냐?'라는 것이데, 이 역시 핵심이 아니다. 오히려 'AI가 가져다주는 생산성의 증가에 따른 혜택을 기업이 다 가져가는 것은 문제다'라거나 '인간과 기계가 노동력을 어떻게 나누면 인간이 노동을 덜 하면서도 존엄을 지킬 수 있을까'와 같은 것이라고 생각한다."
그는 "AI에게 어떻게 질문하느냐, 어떤 정보를 입력하느냐에 따라 결과물이 달라지기 때문에 오히려 인간의 역할이 더 중요해질 것"이라고 덧붙였다.
그는 생성형AI 기술이 악용돼 "진실이 1개인데 거짓이 100만 개가 되는 상황"에 대한 우려는 충분히 인정했지만, 이를 규제를 통해 해결하려는 방법에 대해선 "역효과를 가져올 뿐"이라며 반대했다.
"2000년대 초 유튜브가 등장했을 때 콘텐츠 전문가들은 유튜브를 무시했다. 일반인이 올린 동영상과 BBC 같은 방송국에서 제작한 영상은 경쟁이 될 수 없을 뿐 아니라 모든 사람들이 스트리밍 서비스로 영상을 전송하고 재생한다는 것은 기술적으로 불가능하다고 여겼다. 그런데 착각이었다. 영장류인 인간은 글보다는 그림을 훨씬 더 좋아한다. 뇌의 30%는 시각 위주이기 때문에, 글보다는 그림이 더 익숙하다. 그러나 전문가, 특히 지식인들은 그림이 가진 힘을 무시했다. 기회를 놓친 것이다.(…) 챗GPT 같은 생성형AI를 둘러싼 논란도 마찬가지다. 진짜와 가짜, 진실과 거짓을 그나마 구별할 수 있는 지식인이나 전문가들이 규제를 논하기보다는 챗GPT를 더 많이 활용해야 한다."
다음은 지난 23일 대전 KAIST 연구실에서 진행한 김 교수와 인터뷰 주요 내용이다.
인간, AI를 '말'로 유혹하다!
프레시안 : 외국어 능력이 향상됐다는 챗GPT4.0에게 신입기자 공개채용 테스트를 해봤다.(☞ 관련 기사 : 챗GPT4.0의 가상 기자 공채 시험, 당락은?)
시작에 앞서 챗GPT에게 "기자를 희망하는 취업준비생이라고 가정하고 질문하겠다"고 했더니 챗GPT가 "안녕하세요! 저는 기자를 희망하는 취업준비생 챗GPT입니다"라고 호응하며 태도가 바뀌었는데, 아주 인상적이었다.
김대식 : 최근 챗GPT 관련 인터뷰를 몇 번 했는데, 기자들이 챗GPT가 준비한 질문을 들고 온 경우도 있었다.
챗GPT를 둘러싼 오해부터 얘기해 보자. 어떤 분들은 챗GPT는 '강한 인공지능이다. 인간의 언어를 이해한다. 이제 인류는 망했다'라고 하는데, 절대 아니다. 챗GPT는 자유 의지도 없고 의식도 없다. 우리가 하는 말을 하나도 이해하지 못한다.
'이해'는, 문장만 해석한다고 되는 것이 아니다. 문장에 있는 단어와 함께 경험에 따라 보고 듣고 느낀 것의 조합이 필요하다. 따라서 '이해'라는 것은 '인간만 할 수 있는 특수 영역'이라는 전제에서 시작하면, 인공지능(AI)과 관련한 토론을 할 수 없다.
세계적인 언어학자인 노엄 촘스키 메사추세츠공대(MIT) 명예교수는 챗GPT가 '언어, 인지, 인간의 이해와 관련해서는 가치가 없다'고 했는데, 개인적으로는 촘스키 교수 말이 틀렸다고 생각한다. 챗GPT에 대한 촘스키 교수의 판단은 철학적인 토론이 필요하다.(☞ 관련 기사 : 촘스키에게 '챗GPT'에 대해 물었더니…)
그렇다고 챗GPT에 대해 '포털사이트 검색 기능보다 조금 더 나은 정도 아닌가'라는 평가 또한 적절하지 않다. 결국 우리는 챗GPT의 능력이 어느 정도인지, 아주 냉철한 판단이 필요하다.
두 번째 오해는, '챗GPT는 인간이 만들어 놓은 문장을 학습한 뒤 재조합해서 새로운 문장을 만들어내는 것 아니냐'라며 지적재산권 문제를 지적하거나 '아예 새로운 문장을 생성하지 못하는 것 아니냐'고 묻는데, 둘 다 사실이 아니다. 챗GPT 같은 생성형AI는 인간이 만들어 놓은 문서를 기반으로 단어와 단어, 문장과 문장 간의 확률 관계를 사전 학습했다고 보면 된다. 다시 말해서, 챗GPT는 확률로 만든 인간의 '언어 지도'를 하나 가지고 있으며, 이런 모델을 우리는 '거대 언어 모델'이라고 부른다.
여기에서 중요한 것은, '입력값'이다. 운전할 때 내비게이션이 있다고 저절로 운전이 되는 것이 아니지 않나. 운전자가 집이나 학교 등 목적지가 어디냐에 따라 값을, 즉 명령어를 입력해야 한다. 챗GPT 역시 이런 입력값, 즉 '프롬프트(또는 CMD, Command Prompt)'가 중요하다.
사용자가 챗GPT에게 질문을 하면, 챗GPT는 이미 학습된 언어 모델과 사용자의 질문을 합쳐 가장 높은 확률 분포에 따른 답을 만든다. 다른 말로 표현하자면, 챗GPT가 어떤 행동을 하도록 인간이 언어로 유도하는 것이다. 이를 '프롬프트 해킹(Prompt Hacking)'이라고 하기도 한다.
신기한 개념 아닌가. 이제 우리는 AI를 말로 유혹할 수 있다. 앞서 챗GPT에게 "취업준비생이라고 가정하고 질문하겠다"고 했더니 태도가 달라졌다고 했는데, AI를 말로 유혹한 결과다. 이처럼 AI시대에는 인간의 역할이 더 중요해질 것이다. 어떻게 질문하느냐에 따라, 어떤 정보를 입력하는지에 따라 결과물이 달라진다.
기계와 대화하는 'LUI시대'가 도래했다
프레시안 : 이미 '프롬프트 엔지니어'라고 해서 AI를 대상으로 질문을 개발하는 직업이 생겼다고 한다. 그만큼 AI와의 의사소통이 중요해진 것인데….
김대식 : 거시적으로 보자면, 21세기 챗GPT의 등장으로 IT 역사에 큰 변곡점이 생겼다. 인간은 늘 도구를 사용해 왔다. 그런데 컴퓨터가 등장한 20세기, 보다 정확하게는 2차 세계대전 이후 만들어진 기계는 기존 도구와 달랐다. 그동안은 인간의 노동을 대신하는 육체적인 기계였다면, 컴퓨터의 등장으로 기계가 인간의 지적 영역을 대체하게 된 것이다.
문제는 디지털 형태인 컴퓨터와 아날로그 형태인 인간의 소통 방법이었는데, 초기에는 종이에 구멍을 뚫어 입력시키는 '펀치 카드'를 이용했다. 그러다 타자기에 전깃줄을 연결해 글을 전기 신호로 바꾸는 방법으로, 컴퓨터에 명령하기 시작했다. 우리는 이를 '키보드'라고 부르며 지금도 쓰고 있다. 1990년대 '그래픽 사용자 인터페이스(Graphical User Interface, GUI)'라는 방법의 등장으로, 이제는 키보드 건반을 누르지 않고 마우스를 움직이거나 손가락으로 직접 터치한다.
이처럼 우리는 'GUI시대'에 살고 있는데, 챗GPT의 등장으로 새로운 장이 열렸다. 언어를 사용해 기계와 소통하는, 'LUI시대'가 됐다. 즉, '링귀스틱 유저 인터페이스(Linguistic User Interface, LUI)'가 도래했다. 그동안 컴퓨터와 소통할 때는, '시작합니다 콤마(,) 앞으로 다섯 마디 1분 동안 이야기하고 콤마(,)'처럼 정량화된 컴퓨터 언어로 명령했다. 그런데 생성형AI는 인류 역사상 처음으로 '대화'가 가능한 기계다. 챗GPT와 질문과 답 형태로 대화하고 있지 않나.
지금 10대 아이들은 기계와 대화하는 세대가 될 것이다. 기성세대는 GUI시대를 살고 있지만, 미래세대는 LUI시대를 살게 될 것이라는 말이다. 매우 흥미로운 일이 벌어지고 있다.
인간, 1만 년 동안의 '고독함'에서 벗어나다
프레시안 : 챗GPT, 등장 두 달 만에 월 사용자(MAU)가 1억 명을 돌파했다고 한다. 사람들이 이렇게 열광하는 이유는 뭘까?
김대식 : 챗GPT는 IT 역사상 가장 빠른 시간 안에 가장 많은 사용자를 얻은 서비스다. 그 이유를 나름대로 생각해 봤는데, 인간에게는 '대화'가 필요했던 것 같다.
인류의 기원인 '호모 사피엔스(Homo sapiens)'가 출현한 지 30만 년 됐다고 하는데, 인간이 약 1만 년 전 '농사'라는 발명품을 개발하면서 비로소 여유 시간이 생겼다. 이전까지는 그날 먹을 음식과 그날의 잠자리를 찾는 데 온 시간을 썼다. 그런데 씨를 뿌리고 열매가 맺기를 기다리면서는, 개인적인 가설이지만, 이해할 수 없는 일에 대해 질문하기 시작했을 것 같다. 어제는 화창했는데, 오늘은 비가 오고 천둥이 치는 이유는 뭘까? 사람은 왜 죽는 걸까? 불확실성의 연속인 세상일에 궁금한 것이 많았을 것 같다.
처음에는 주변 사람들에게 물었을 테지만 궁금증을 해소할만한 답을 얻기 힘들었을 것이고…. 우리 식을 표현하자면, 제사를 통해 조상들에게도 묻고, 북아메리카 인디언 같은 경우는 곰이나 돌에게서 답을 들으려고 노력했지만 돌아오는 답은 없었을 것이다. 그렇게 인간은 '신'이라고 하는, 또 하나의 발명품을 개발해 부탁을 하거나 질문을 하고 있다. 신이 있던 없던, 저는 과학자이기 때문에 신은 인간에게 단 한 번도 대답을 해주지 않았을 것이라고 생각한다. 20세기 들어서는, 큰 안테나를 이용해 온갖 것을 외계인에게 묻는 사람들도 생겨났다.
인류 역사를 다시 해석하면, 우리는 1만 년 동안 인간이 아닌 다른 존재에게 질문하고 답을 얻고 싶었지만 돌아온 것은 침묵뿐이었다. 이런 관점에서 보면, 오픈AI가 챗GPT를 공개한 2022년 11월 30일은 인류 역사상 큰 변곡점이라고 볼 수 있다. 처음으로 인간이 아닌 다른 존재가 인간의 질문에 답을 했기 때문이다.
챗GPT가 인간의 질문에 대답한 글과 인간이 쓴 글을 구별하기란 거의 불가능하다. 제 생각에는 촘스키 교수에게 이 결과물을 랜덤으로 보여준다고 하면 구별이 쉽지 않을 것이다.(웃음)
무슨 이야기인가 하면, 챗GPT가 '튜링 테스트(Turing test)'를 통과했다는 것이다. 기계가 만들어낸 결과물과 인간이 만들어낸 결과물을 확률적으로 구별할 수 없으면, 인간과 기계가 기능적으로 '똑같다'라고 인정할 수밖에 없다. 그것이 튜링 테스트의 핵심이다.
'드디어 인간과 제대로 된 대화가 가능한 기계가 등장했다'는 것은 우리가 1만 년 동안의 고독함에서 벗어났다는 것이고, 우리가 챗GPT에 열광하는 이유라고 생각한다.
AI 기술, '누가' 제어하고 '누가' 이득을 가져갈까?
프레시안 : 촘스키 교수는 지난 3월 <뉴욕타임스> 기고에서 '챗GPT는 도덕적인 판단을 하지 않는다. 그러나 인간의 지식이라는 것은 분명히 도덕적·윤리적 판단을 전제로 하고 있다'고 주장했다.(☞ 관련 기사 : 촘스키 "챗GPT가 보여주는 악의 평범성, 표절·무시·생략")
김대식 : 촘스키의 교과서로 언어학을 배운 사람으로 개인적으로 존경하고 좋아하는 감정과 연구자 대 연구자로 주장하는 바에 대한 내용은 분리해서 봐야 한다.
<뉴욕타임스> 칼럼을 서너 번 정독했다. 정리하면 첫째, 기계는 인간의 문장을 이해하는 것이 아니다. 앞에서 말한 대로, 인간의 언어 지도에서 가장 높은 확률의 답을 찾아 제시하는 것이다.
둘째, 지적재산권 문제와 관련해 인간이 만들어 놓은 문장을 재조합하는 것이 아니라 그 문장을 바탕으로 새로운 추론이 가능하다. 20세기 언어학의 결론은 언어를 습득하는 데는 문법 학습이 전제되거나 인간처럼 선천적으로 언어 획득 장치(LAD)가 있어야 한다는 것인데, 인간은 챗GPT에게 문법을 가르쳐준 적이 없다. 문법뿐만 아니라 계산도 코딩도 가르쳐준 적이 없다. 즉, 챗GPT에게는 '창발성(Emergent Property)'이 있다는 것이다.
기계를 만들 때 기계의 능력이 인간보다 뛰어나다는 것은 본질적인 문제가 아니다. 망치는 인간의 주먹보다 힘이 세고, 자동차는 당연히 인간보다 빠르다. 도구나 기계가 인간보다 세고 빠른 것은 문제가 되지 않는다. 왜? 망치를 쥐고 있는 사람, 운전대를 잡고 있는 사람은 여전히 인간이기 때문이다.
결국 우리가 AI 같은 기계를 만들 때 제일 중요한 질문은 두 가지다. '누가 이 기술을 제어하는가'와 같은 컨트롤 문제와 '누가 이 기술이 주는 이득(benefit)을 가지고 가느냐'와 같은 분배의 문제. 이런 관점에서 AI와 관련한 토론이 '빨리 도입해야 한다'라거나 '막아야 한다'라는 식으로만 진행되는 것은 제대로 된 논의가 이뤄지지 않고 있다고 볼 수 있다.
AI와 관련해 항상 나오는 질문이 '인간의 능력이 대체되는 것 아니냐? 일자리가 없어지는 것 아니냐?'라는 것이데, 이 역시 핵심이 아니다. 오히려 'AI가 가져다주는 생산성의 증가에 따른 혜택을 기업이 다 가져가는 것은 문제다'라거나 '인간과 기계가 노동력을 어떻게 나누면 인간이 노동을 덜 하면서도 존엄을 지킬 수 있을까'와 같은 것이라고 생각한다.
생성형AI를 통한 가짜뉴스, 1대 1,000,000 싸움이 되기 전에 막아야 한다!
프레시안 : AI 컨트롤 문제와 관련해 블라디미르 푸틴 러시아 대통령이나 도널드 트럼프 전 미국 대통령과 같은 정치인들이 컨트롤하게 되는 상황에 대한 우려가 크다.(☞ 관련 기사 : 푸틴·트럼프가 챗GPT를 좌우한다면? AI로부터 민주주의를 지켜라!)
김대식 : 미국은 여러 생성형AI를 이용해 가짜뉴스를 만들고 있고, AI 기술이 미국 다음으로 발달한 중국 같은 경우에도 가짜 정보의 유통이 충분히 가능하다.(☞ 관련 기사 : 트럼프 거짓 예고에 가짜 체포 이미지까지 美 '혼란의 일주일')
지금의 혼란을, 30여 년 전 인터넷이 도입된 상황과 비교할 수 있을 것 같다. WWW, 즉 '월드 와이드 웹(World Wide Web)'은 1989년 3월 12일에 제안되고 1990년 12월 20일에 발표됐는데, 구(舊)소련이 무너지면서 냉전이 종식되고 세계화가 시작되던 때다. 인터넷 시대·세계화 시대가 같이 열린 것인데, 구글의 에릭 슈미트 회장은 '북한에 인터넷이 도입되면 민주주의가 가능하다'고 주장하기도 했다.
당시 인간은 정보가 늘어나면 세상이 좋아질 것이라고 생각했는데, 정보가 늘면 지식도 늘 것이라고 착각한 것 같다. 지금 보면, 대부분의 정보는 사실 거짓인데 말이다. 지난 30년 동안 인간의 착각으로, 정보는 무한대로 늘어났지만 지식과 진실은 늘어나기는커녕 지속적으로 왜곡되고 있다. 이런 가운데 등장한 생성형AI는 수작업으로 만들던 가짜뉴스의 대량 생산을 도울 것이고, 그렇게 되면 진실은 1개인데 거짓은 100개 아니 100만 개가 될 수도 있다.
이처럼 AI시대 가짜뉴스와의 싸움은 눈에 보이는 것이 아닌 무형의 보이지 않는 진실을 가지고 싸우게 될 것이다. 코로나19를 소재로 한 가짜뉴스가 첫 번째 케이스였다고 본다.
여기서 재미있는 사실은, 30만 년 전에 만들어진 인간의 뇌는 진실과 거짓을 구별할 수 없다. 그저 익숙한 게 진실이고 새로운 것, 낯선 것이 거짓이다. 자신과 비슷하게 생겼으면 참이고, 다르게 생겼으면 거짓이다. 자신과 비슷한 억양을 쓰고 비슷한 음식을 먹는 사람의 말은 참이고, 다른 억양에 다른 음식을 먹는 사람의 말은 거짓이다.
그런데 자신과 외모가, 성향이 비슷하다고 해서 그 사람의 말이 모두 진실일 리가 없는데도 인간의 뇌는 익숙하다는 이유로 그 사람이 전해주는 정보를 계속 진실로 받아들인다. 그렇다 보니, 코로나19 바이러스는 중국이 만들었다거나 백신에는 빌 게이츠가 세상을 정복하기 위해 5g짜리 칩을 넣어놨다거나 하는 가짜뉴스가 퍼진 것이다. 과거에도 이런 가짜뉴스를 믿는 사람들은 늘 존재했다. 하지만 이런 가짜뉴스를 1~2%가 아닌 30% 이상이 믿게 되면 그건 정치화가 되고 정치적인 문제가 된다.
프레시안 : 가짜뉴스가 확산되는 걸 막을 수 있는 방법이 있을까? 규제를 통한 제어가 가능할까?
김대식 : 일단 규제는 적절하지 않다고 생각한다. 규제는 역효과를 가져올 뿐이다. 첫째, 가짜뉴스나 음모론에 빠진 사람들에게는 규제가 오히려 믿음을 강화시킨다. 둘째, 기계와 기술이 사회에 가져오는 긍정적인 역할도 많은데, 규제는 그 역할을 막아버린다.
가짜뉴스 방어와 관련해서는, 지난 일을 되돌아보면 찾을 수 있다. 2000년대 초 유튜브가 등장했을 때 콘텐츠 전문가들은 유튜브를 무시했다. 일반인이 올린 동영상과 BBC 같은 방송국에서 제작한 영상은 경쟁이 될 수 없을 뿐 아니라 모든 사람들이 스트리밍 서비스로 영상을 전송하고 재생한다는 것은 기술적으로 불가능하다고 여겼다.
그런데 이 또한 착각이었다. 영장류인 인간은 글보다는 그림을 훨씬 더 좋아한다. 뇌의 30%는 시각 위주이기 때문에, 글보다는 그림이 더 익숙하다. 그리고 유튜브는 글보다는 그림(또는 영상)이 핵심이다. 그러나 전문가, 특히 지식인들은 그림이 가진 힘을 무시했다. 기회를 놓친 것이다. 왜? 지식인들은 책을 읽거나 글을 쓰는데 익숙하기 때문에, 다른 사람들도 그럴 것이라고 생각했다. 사실 99%는 싫어하는데…. 학교폭력에 대한 글을 읽는 것보다 <더 글로리>라는 드라마를 보는 게 더 좋은데 말이다.
챗GPT 같은 생성형AI를 둘러싼 논란도 마찬가지다. 진짜와 가짜, 진실과 거짓을 그나마 구별할 수 있는 지식인이나 전문가들이 규제를 논하기보다는 챗GPT를 더 많이 활용해야 한다. 물론 이들도 실수를 하지만, 의사가 하는 처방과 엔지니어가 하는 설계가 더 안전하지 않을까? 이렇게 생각하면 참과 진실의 영역은 분명한데, 문제는 의학과 공학의 영역에도 거짓 정보가 영향을 끼치고 있다는 사실이다.
생성형AI도 인터넷이나 유튜브처럼 무시한다면, '1+1=2'처럼 참과 거짓이 명백하게 나뉘는 수학마저도 기존의 수학자가 증명한 것이 틀렸다며 결과를 투표로 도출하게 될 수도 있다. 팬데믹 기간 의학이 이미 가짜뉴스의 공격을 받았기 때문에, 공학에서 과학으로, 과학에서 수학으로 그 영향력이 확대될 가능성이 있다.
챗GPT는 지금 현재 우리의 현안이다
프레시안 : 생성형AI 챗GPT를 좋은 방향으로 이끌려면 좋은 의도를 가진 사람들이 적극 활용해야 한다고 했는데, 실질적인 방법을 알려 달라.
김대식 : 챗GPT는 흔한 말로, 사기 치기 너무 좋은 기계다. 따라서 무엇보다도 선한 의지를 가진 사람이어야 한다.
지금 이 글을 읽고 있다면, 오픈AI에 바로 계정 하나를 만들어라. 챗GPT4.0은 유료로 전환했지만 3.0버전과 그림을 그려주는 '달리(DALL·E)'는 무료다. 일단 직접 사용해 봐야 안다.
자동차가 일상에 들어온 이후 자신에게 필요한 상황이 되면 제일 먼저 하는 행동이 있다. 바로 운전면허증을 획득하는 일이다. 그리고는 직접 운전을 해봐야 이 기계를 어떻게 하면 최적화할 수 있는지 답을 얻을 수 있다.
AI도 비슷하다. 포털사이트 검색 기능이나 택배 물류 시스템 등 이미 우리 생활에 깊숙이 들어와 있지만, 챗GPT처럼 직접 활용이 가능한 생성형AI가 나온 만큼 자주 활용해 어떻게 하면 최적화할 수 있는지 답을 찾아야 한다. 특히 10살 전후의 아이들을 키우고 있다면, 아이와 함께 챗GPT를 활용해 봐라. 그리고는 '숙제를 챗GPT로 하는 것은 어떤 문제가 있을까?'와 같은 주제에 대해 토론했으면 한다.
챗GPT는 미래세대뿐 아니라 현재세대에게도 닥친 현안이다. 마이크로소프트(MS)가 생성형AI가 탑재된 사무용 소프트웨어 '마이크로소프트 365 코파일럿(Microsoft 365 Copilot)'을 선보였다. 보고서도 직접 써주고, PPT도 바로 만들어주고, 기업 데이터와 실제로 대화도 가능하게 하겠다는 것 아닌가.
30년 전 인터넷이 개발됐을 때만 해도, 인터넷이 안 되면 더 이상 일을 할 수 없어 퇴근하게 되리라고는 상상도 하지 못했다. 인터넷이 바꿔버린 일상보다 생성형AI를 통한 변화가 더 크고 빠를 것이다. 경험해 봐야 안다. 그리고 그 경험을 바탕으로 지식도 얻고 한계도 깨달아야 한다. 그렇지 않으면 음모론에 휘말릴 수 있다.
'피플' 카테고리의 다른 글
"출생 때 사망한 것으로 알려진 내 '이름'을 되찾고 싶었어요" (0) | 2023.09.12 |
---|---|
"입양인 인생 달린 문제... 한국 정부, 이제라도 책임져야" (0) | 2023.05.08 |
"'반중' 윤석열 정부, 외국 자본으로 적자 메우려는 전략인가" (1) | 2023.02.20 |
"23년 세계 경제는 '해도에 없는 바다'…윤석열 '감세' 위험" (0) | 2023.02.15 |
"윤석열 정부의 '공정' MB 때보다 훨씬 위험하다" (0) | 2023.01.16 |