당신의 직업은 안녕하십니까? [챗GPT 혁명]
스크롤 이동 상태바
당신의 직업은 안녕하십니까? [챗GPT 혁명]
  • 정진호 기자
  • 승인 2023.04.01 17:32
  • 댓글 0
이 기사를 공유합니다

빌 게이츠 “챗GPT는 1980년 이후 가장 중요한 기술적 발전”
활용 가능성 무궁무진…챗GPT 적응력이 경쟁력 가를 듯
아직은 완벽하지 못한 기술…장기적으론 인간 대체할 수도

[시사오늘·시사ON·시사온= 정진호 기자]

챗GPT는 출시된 지 넉 달 만에 전 세계에 충격을 던지고 있다. ⓒ시사오늘
챗GPT는 출시된 지 넉 달 만에 전 세계에 충격을 던지고 있다. ⓒ시사오늘

농업 장비 운영자, 운동선수, 요리사, 레스토랑 종업원, 벽돌공, 도로 포장 장비 기사, 타이어 수리공….

현지 시각으로 3월 20일. 오픈AI와 오픈리서치, 펜실베니아대는 ‘대규모언어모델(LLM)이 노동 시장에 미치는 영향에 대한 초기 조사(An Early Look at the Labor Market Impact Potential of Large Language Models)’라는 연구 결과를 발표했다.

이 연구에서, 농업 장비 운영자와 운동선수, 요리사, 레스토랑 종업원 등 인적 상호작용이 중요한 직종이나 신체 활용성이 큰 34개 직업군은 챗GPT 발전에 거의 영향을 받지 않을 것으로 전망됐다. 반면 전체 직업의 80%는 적어도 한 가지 업무가 챗GPT 발전에 따라 영향을 받을 것으로 나타났다.

특히 통역사, 번역가, 시인, 작사가, 작가, 수학자, 회계사, 세무사, 법률비서, 언론인 등은 챗GPT 발달이 작업 방식에 큰 변화를 가져올 것으로 예측됐다. 어떤 방향이 될지는 아무도 알 수 없지만, 대다수 사람들이 챗GPT발(發) ‘대격변’의 바람에 휘말리게 된다는 뜻이다.

그렇다면 대체 챗GPT는 지금까지 존재했던 AI와 뭐가 다르기에 인간의 역할을 대신할 수 있다는 걸까. 챗GPT가 할 수 있는 일은 무엇이고, 어느 정도까지 해낼 수 있을까. 정말 인간은 AI에게 일자리를 빼앗기게 될까. <시사오늘>이 알아봤다.

 

인간보다 더 인간 같은 AI, 챗GPT


오픈AI·오픈리서치·펜실베니아대의 연구는 챗GPT의 영향권에서 자유로울 수 있는 직업이 거의 없음을 보여준다. ⓒ오픈AI·오픈리서치·펜실베니아대 공동연구 논문
오픈AI·오픈리서치·펜실베니아대의 연구는 챗GPT의 영향권에서 자유로울 수 있는 직업이 거의 없음을 보여준다. ⓒ오픈AI·오픈리서치·펜실베니아대 공동연구 논문

2016년 3월 15일. 전 세계가 충격에 빠졌다. 구글 딥마인드가 제작한 AI 바둑 프로그램 ‘알파고(AlphaGo)’가 이세돌 9단을 4승 1패로 꺾는 ‘대 사건’이 벌어졌기 때문이다. 그리고 이 충격파는 약 7년이 흐른 후 챗GPT의 등장으로 재연됐다.

챗GPT는 Chat과 Generative Pre-trained Transformer의 합성어다. 우리말로는 ‘사전 훈련된 생성 변환기’ 정도로 번역된다. 학습된 데이터를 바탕으로 인간의 질문에 답하는 일종의 ‘챗봇(Chat Bot)’이라고 할 수 있다.

챗GPT의 기본 원리는 알파고와 같다. 알파고가 사람의 기보를 보고 바둑을 두는 법을 배웠듯, 챗GPT도 인터넷을 통해 인간이 쓰는 각종 문장을 학습(지도 학습·supervised learning)했다. 또 알파고가 기보에 없는 수를 스스로 두면서 이길 확률이 높은 방법을 찾았듯, 챗GPT도 이전에 없던 새로운 문장을 만드는 과정(강화 학습·reinforcement learning)을 거쳤다.

그런데 챗GPT 이전에도 대규모 언어 모델과 지도·강화 학습을 활용해 만들어진 AI는 많았다. 인터넷에 존재하는 방대한 분량의 텍스트 데이터를 학습시키면 사람이 쓰는 것과 유사한 문장을 만드는 건 그리 어려운 기술이 아니기 때문이다.

챗GPT가 혁신적인 이유는 이전의 AI가 가지고 있던 △질문자의 의도와 무관한 답변 △잘못된 사실 기술 △편향된 답변 등의 한계를 상당 부분 극복했다는 데 있다. 오픈AI는 인간 피드백 기반 강화 학습(RLHF·Reinforcement Learning from Human Feedback)이라는 기술을 통해 이전의 AI가 가진 이 같은 한계점을 상당 부분 제거해냈다.

RLHF는 말 그대로 학습 과정에 사람이 개입해 AI에 ‘인간의 가치’를 담을 수 있도록 하는 기술이다. RLHF는 세 단계에 걸쳐 챗GPT의 교육에 개입한다. 첫 단계는 SFT(Supervised Fine-Tuning step)다. 챗GPT 개발사인 오픈AI는 인터넷에 있는 방대한 언어 데이터베이스에서 고품질 데이터만 따로 추출해 AI에게 학습시켰다.

다른 AI가 인터넷에 존재하는 모든 데이터를 학습함으로써 신뢰할 수 없는 답변을 내놓는 경우가 많았다면, 챗GPT는 ‘모범 답안’이 주어진 상태에서 데이터를 수집해 학습했다. ‘고품질 데이터’가 무엇인지는 인간이 판단했다.

두 번째 단계는 보상 모델(reward model)이다. 보상 모델은 SFT 단계에서 정제된 데이터 중, 사람이 직접 질문을 던져 옳은 대답을 골라내면 가중치를 주는 방식이다. 이 과정을 반복하면서 AI는 어떤 질문에 어떤 답변을 해야 인간이 만족하는지를 통계적으로 파악했다.

마지막 단계는 PPO(Proximal Policy Optimization)다. 보상 모델 단계에서 AI가 ‘옳은 대답’을 골라내는 법을 학습했다면, 마지막으로는 PPO 알고리즘을 통해 답변의 정확도를 높이는 작업이 이뤄진다. 실제로 언어 모델이 작동하는 동안 생긴 문제점을 미세하게 조정하는 과정이다.

이렇게 만들어진 챗GPT는 사용자의 질문을 얼마나 잘 파악하고 적절한 답변을 내놨는지, 데이터를 조합해 가짜 답변을 만들어내진 않았는지, 인종차별이나 성차별 같은 편향성을 가진 답변을 내놓진 않았는지를 인간에 의해 평가받는다. 지금도 챗GPT는 이 절차를 반복하며 하루하루 성능 개선을 이뤄내고 있다. 챗GPT가 이전 AI와 달리 인간에 가까운 모습을 한 이유다.

 

시도 쓰고 코딩도 할 줄 안다


빌 게이츠는 챗GPT를 ‘1980년 이후 가장 중요한 기술적 발전’이라고 극찬한다. ⓒ연합뉴스
빌 게이츠는 챗GPT를 ‘1980년 이후 가장 중요한 기술적 발전’이라고 극찬한다. ⓒ연합뉴스

챗GPT 개발사 오픈AI는 현지 시각으로 3월 14일 GPT-4를 공개하면서 “미 변호사 시험에서 298점으로 상위 10%, SAT 수학 시험에서 700점으로 상위 11%, 미 생물학 올림피아드에서 87점으로 상위 1%에 해당하는 성적을 올렸다”고 발표했다.

이 결과가 갖는 함의는 작지 않다. 미 변호사 시험에서 가장 큰 비중을 갖는 건 주어진 사례에 법률과 판례를 적용, 문서를 작성하는 PT(Performance Test)다. 즉, 적절한 질문만 던질 줄 알면 챗GPT를 통해 법률문제도 해결할 수 있다는 의미다.

실제로 콜롬비아 후안 마누엘 파딜라 판사는 자폐 아이의 부모가 저소득을 이유로 의료비 면제를 청구한 사건에서 챗GPT를 활용해 판결문을 작성했다고 고백했다. 판결문을 쓰는 과정에서 챗GPT에 “미성년자 자폐증 환자가 치료비를 면제 받을 수 있느냐”고 물었고, 챗GPT가 “그렇다. 콜롬비아의 규정에 따르면 자폐증 진단을 받은 미성년자는 치료비 수수료를 면제받는다. 이 혜택은 2015년 법률에 명시돼있다”고 답한 것을 참고했다는 것이다.

CNN에 따르면, 미국 부동산 중개업소에서는 이미 매물과 시세를 정리하는 작업에 챗GPT를 동원하고 있다. 투자자들도 주택담보대출 상품을 비교하고 이자율과 기간을 고려해 가장 유리한 상품을 찾는 데 챗GPT를 활용하고 있다. 세금을 계산해 가장 유리한 ‘세테크’ 방법을 제시하는 역할도 AI의 몫이다.

‘기계가 흉내 낼 수 없는 인간의 영역’이라던 창작과 예술 분야에서도 챗GPT 바람이 거세다. 최근 국내의 한 출판사는 챗GPT가 쓰고 파파고(Papago)가 번역한 책을 출판했다. 이 출판사에 따르면, 챗GPT가 ‘그럴 듯한’ 수준의 원고를 생성하고 이를 번역한 뒤 검수하는 데까지 걸린 시간은 겨우 3일에 불과했다.

이뿐만 아니다. 얼마 전 국내 한 언론사는 현직 과학기자와 AI에게 ‘특허’라는 같은 주제로 기사를 쓰도록 했다. 기사를 읽은 대다수 사람들은 어떤 기사가 과학기자의 것이고 어떤 기사가 AI가 쓴 것인지 구분하지 못했다. 오히려 해외의 사례까지 쉽게 찾아낼 수 있는 AI가 더 풍부한 내용을 담아냈다는 평가를 받기도 했다.

정치적 활동을 수행한 사례도 있다. 지난 1월 25일 미국 <워싱턴포스트>는 매사추세츠주 상원의원인 배리 파인골드가 챗GPT를 활용해 개인정보 보호 관련 법안 초안을 만들었다고 보도했다. 파인골드 의원은 “시행착오도 있었지만, 챗GPT는 70% 수준의 초안을 작성했다”면서 “비식별화 문제, 데이터 보안과 같은 일부 주제에 대해서는 합리적 아이디어도 제시하는 등 독창적 기여도 했다”고 설명했다.

비 내리는 길을 걸어가며 / 마음 젖어든 채 생각에 잠긴다 / 하지만 그 소리는 봄의 시작 / 기다렸던 미소가 번져 퍼진다

챗GPT에게 비 오는 날을 주제로 한 짧은 시 한 편을 부탁하자, 이런 시를 써서 들려줬다. 같은 원리로 챗GPT는 노래 가사, 소설 내용, 영화 시나리오 내용 등도 뚝딱 만들어냈다. 소설을 영화 시나리오로 바꿔달라는 요구 역시 눈 깜짝 할 새 현실이 됐다.

심지어 챗GPT는 코딩도 척척 해낸다. 윤석빈 서강대 정보통신대학원 특임교수는 “미완성이라는 챗GPT의 프로그램 개발 능력이 이제 막 학부를 졸업한 개발자보다 뛰어난 것으로 평가된다”고 했다.

테슬라에서 인공지능 연구를 이끌었던 안드레아 카르파티(Andrej Karpathy)는 다보스 포럼 인터뷰에서 자신이 작성하는 코드의 80퍼센트를 챗GPT 전신인 ‘GitHub Copilot’을 사용해서 작성한다고 밝히기도 했다.

기존에 존재하던 업무 솔루션에 챗GPT를 결합한 시도도 속속 등장하고 있다. 최근 마이크로소프트는 GPT-4를 기반으로 한 AI 업무 자동화 도구 ‘M365 코파일럿(Copilot)’을 발표했다. 워드(Word), 엑셀(Excel), 파워포인트(PowerPoint) 등에 탑재되는 코파일럿은 사용자가 ‘워드 내용을 요약해 파워포인트로 제작해 달라’고 입력하는 것만으로도 PPT 발표 슬라이드를 만들어내고, 복잡한 함수를 몰라도 전문가 수준의 데이터 분석을 할 수 있게 도울 예정이다.

이밖에도 챗GPT를 활용할 수 있는 분야는 무궁무진하다. 마이크로소프트 창업자 빌 게이츠는 챗GPT를 ‘1980년 이후 가장 중요한 기술적 발전’이라고 극찬하면서 몇 가지 아이디어를 제시했다. 빌 게이츠는 “AI를 사용해 에이전트가 예약과 통신, 전자 상거래에 도움을 주도록 할 수 있다”며 “모델을 훈련하고 계산을 실행하는 데 드는 비용 때문에 개인 에이전트를 만드는 것은 아직 실현 가능하지 않지만, 최근 AI의 발전 덕분에 이제 현실적인 목표가 됐다”고 밝혔다.

또 건강관리와 의료분야를 개선할 수 있는 방안도 소개했다. 그는 “AI의 부상으로 사람들은 소프트웨어에서 결코 할 수 없는 일, 예를 들어 교육과 환자 돌보기, 노인 지원 등을 할 수 있게 될 것”이라면서 “의료 종사자가 보험과 관련된 서류처리, 의사방문 메모 작성과 같은 특정 작업을 대신해 시간을 최대한 활용할 수 있도록 도와줄 수 있기 때문에 이 분야에서 많은 혁신이 있을 것으로 기대된다”고 언급했다.

의료 발전에도 도움을 줄 것으로 내다봤다. 빌 게이츠는 “생물학의 데이터양은 매우 많아 인간이 이를 모두 추적하기가 어렵다”면서 “그러나 AI는 데이터를 보고, 경로가 무엇인지 추론하고 병원균에 대한 표적을 검색해 그에 따라 약물을 설계할 수 있는 소프트웨어가 있어, 일부 회사는 이러한 방식으로 현재 개발 된 항암제를 연구하고 있다”고 전했다.

 

당신의 직업은 안녕하십니까


오픈AI 창업자이자 CEO인 샘 알트만은 GPT-4 역시도 완벽하지는 않은 기술이라고 경고한다. ⓒ연합뉴스
오픈AI 창업자이자 CEO인 샘 알트만은 GPT-4 역시도 완벽하지는 않은 기술이라고 경고한다. ⓒ연합뉴스

이토록 유능한 챗GPT는 인간도 대체할 수 있을까. 장기적으로는 충분히 가능하다는 게 전문가들의 시각이다. 미국 실리콘밸리에서는 ‘가까운 시일 내에 AI가 인간의 노동력을 완전히 대체할 경우를 대비해 기본소득 도입을 준비해야 한다’는 주장이 나온 지 오래다. 이미 자비를 들여 기본소득을 시험하고 있는 기업도 있다.

그러나 단기적으로는 ‘No’라는 쪽에 무게가 실린다. 오픈AI 창업자이자 CEO인 샘 알트만은 GPT-4 출시를 앞두고 미국 ABC와 한 인터뷰에서 새 기술이 여전히 완벽하지 않다고 인정하며 “사람들에게 가장 주의를 주고 싶은 건 할루시네이션(hallucination)”이라고 말했다. 그러면서 “이 모델이 완전히 지어낸 이야기를 사실인 것처럼 내세울 수 있다”고 경고했다.

할루시네이션은 자신이 잘 모르는 질문에 대한 답변도 그럴 듯하게 생성해내는 현상이다. 챗GPT는 ‘대한민국 대통령이 누구냐’고 묻는 질문에 ‘2023년 3월 현재 대한민국 대통령은 이재명 대통령’이라고 답했다. 할루시네이션은 학습 과정에서 가짜뉴스나 잘못된 정보를 학습했을 경우 나타나는 것으로, 해법은 AI 학계의 연구거리다. 쉽게 말해 ‘아직까지는’ 챗GPT가 내놓은 답변을 100% 신뢰하기는 어렵다는 뜻이다.

신뢰도가 100%에 도달하지 못한다는 건 우리 삶에서 중요하고 심각한 문제에 당면할수록 더 큰 문제를 야기한다. 샌드위치 레시피(recipe)를 잘못 알려주는 것과 병을 진단하고 치료할 때 오류를 일으킬 가능성이 있는 건 완전히 다른 문제기 때문이다.

3월 24일 <시사오늘>과 만난 한 국내 대기업 AI 개발자는 “챗GPT가 인간 일자리를 다 빼앗아 갈 거라는 주장에는 공감하기 어렵다”면서 “인생이 걸린 소송을 하는데 챗GPT 말만 듣고 소송을 진행할 사람이 얼마나 되겠나. 챗GPT가 가짜 데이터를 완벽히 걸러내지 못하는 한 결국은 인간의 힘이 필요할 수밖에 없다”고 했다.

그러면서 그는 “상대적으로 중요도가 떨어지는 작업에는 챗GPT가 빠르게 도입되겠지만, 중요한 분야에서는 전문가의 조수 정도로 활용되지 않을까 싶다”며 “AI를 활용할 줄 아는 사람과 활용하지 못하는 사람 사이에는 격차가 생기면서 부익부 빈익빈 현상이 나타날 수도 있다”고 내다봤다.

오데드 네처 컬럼비아 경영대학원 교수 역시 CBS <머니워치>와의 인터뷰에서 “(AI의 역할은) 인간의 일자리를 완전히 대체하는 것이 아니라 인간이 만든 코드에서 오류를 찾고 보다 효율적으로 코드를 작성하도록 돕는 것”이라고 단언했다.

다만 고용 시장의 ‘지각 변동’은 불가피하다는 게 전문가들의 대체적인 시각이다. 데이비드 오터 미국 매사추세츠공대(MIT) 경제학과 교수는 “AI 기술이 발전하면서 노동시장에서는 기존 일자리가 사라지고 다양한 직업이 생겨나는 지각변동이 생길 것”이라고 주장했다.

AI 전문가 리처드 드비어도 “향후 5년 안에 챗GPT가 전체 노동인구의 20%를 대체할 수 있다”고 했고, 골드만삭스는 미국, 유로존의 수천 개 직업 중 3분의 2가 AI로 인한 자동화 위험에 노출될 것으로 봤다. AI가 대체할 수 있는 작업량은 적게는 25%, 많게는 절반이 넘을 것으로 예상했다.

반대로 챗GPT 시대를 맞아 만들어진 직업도 있다. 최근 미국 AI 스타트업인 앤스로픽과 영국 법무법인 미시콘 데 레야 등은 연봉 3억~4억 원을 제시하며 ‘프롬프트 엔지니어’ 공개 채용에 나섰다. 프롬프트 엔지니어는 챗GPT가 더 좋은 답변을 하도록 다양한 대화체 명령어(프롬프트)를 만들어 시험하는 일을 하는 직업이다.

또 생성 AI를 통해 다양한 디지털 자산을 만드는 디지털 자산 창작자, 디지털 자산을 두고 인공지능이 제작한 것인지 인간이 제작한 것인지를 구분해주는 AI 생성물 감별사 등도 새로 등장할 직업으로 꼽혔다. 오픈AI 창업자 샘 알트만 또한 AI로 인한 일자리 상실 가능성을 인정하면서도 “우리는 훨씬 더 높은 삶의 질과 생활수준을 가질 수 있다”며 “인간의 창의성은 무한하고, 우리는 새로운 할 일을 찾을 것”이라고 낙관했다.

불과 20년 전만 해도 우리는 ‘스마트폰’으로 인해 오프라인 백화점이 도산하고, 은행 지점이 사라질 것이라고 예상하지 못했다. AI의 생산물과 인간의 생산물을 구분조차 할 수 없는 시대. 그 누구도 미래는 알 수 없다. 혹자의 주장처럼 10년 내 AI가 인간의 일자리를 완전히 대체할 경우에 대비해 기본소득을 준비해야 할 수도 있다. 아니면 러다이트 운동(산업혁명 당시 기계와의 경쟁에서 패배한 수공업자들이 벌인 기계 파괴 운동) 이후 벌어진 일과 마찬가지로, 챗GPT가 인간을 위해 더 많은 일자리를 만들어 낼지도 모를 일이다.

다만 한 가지 확실한 건 있다. 설사 챗GPT가 인간을 대체하지는 못하더라도, 작업 방식에 혁명적인 변화를 가져올 것이라는 사실이다. 새로운 시대에 적응하지 못하고 과거의 방식을 답습하려 하면 직업을 막론하고 ‘챗GPT 혁명’의 파도에 휩쓸려 갈 수밖에 없다. 머신러닝으로 포스텍 박사학위를 받은 뒤 30년간 인공지능만 연구해온 장민 뉴럴웍스랩 대표는 “생성 AI가 바꿀 직업, 경제 생태계에서는 빈부격차보다 챗GPT가 더 무서운 격차를 초래할 것”이라고까지 주장한다.

이제 질문에 답해야 할 시간이다. 당신의 직업은 안녕하냐고? 그건 오로지 당신이 AI 시대에 얼마나 적응할 수 있느냐에 달렸다.

챗GPT에 물었다…“AI가 인간 일자리를 빼앗을까?”

인공지능 기술이 발전하면서 일부 인간의 일자리가 자동화되거나 대체될 가능성이 있습니다. 그러나 인공지능이 인간의 일자리를 완전히 대체하는 것은 아닙니다. 인공지능은 인간의 역량과 함께 일하는 것이 가장 효과적인 방법이기 때문입니다.

또한 인공지능은 인간이 수행하기 어려운 작업을 대신 수행하거나, 인간의 시간을 아껴주는 역할을 할 수 있습니다. 예를 들어, 인공지능은 데이터 분석, 예측, 자동화, 문서작성 등과 같은 작업에 매우 유용합니다. 이러한 작업은 인공지능이 수행함으로써 인간은 더 창의적인 업무에 더 많은 시간을 할애할 수 있습니다.

그러나 인공지능 기술은 새로운 일자리를 만들어낼 수도 있습니다. 예를 들어 인공지능 개발, 관리, 유지보수, 데이터 분석 등과 같은 일자리가 필요해질 것으로 예상됩니다.

따라서 인공지능은 일부 인간의 일자리를 대체할 수는 있지만, 새로운 일자리를 창출하고 인간과 함께 일하는 방식으로 미래의 일자리 시장을 형성할 것으로 예상됩니다.

담당업무 : 정치부 기자입니다 (대통령실 출입)
좌우명 : 인생 짧다.

관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.