본문 바로가기
기타잡식/잡식

세상에서 가장 쉬운 챗GPT

by CHAENI 2023. 7. 7.
728x90
반응형

세상에서 가장 쉬운 챗GPT - 김유성 지음

*아래의 글은 제가 읽기위해 공유하는글입니다.

챗봇에 대해 기초지식부터 알아야 책에 대한 내용의 이해도가 높아집니다.

챗GPT는 어떻게 인간의 언어를 이해하나요?
컴퓨터 속 챗봇이 사람의 말을 알아듣는 과정은 생각보다 굉장히 복잡합니다. 컴퓨터는 인간의 말을 즉시 알아듣지 못합니다. 인간 역시 컴퓨터가 알아들을 수 있는 언어로 자신의 언어를 변환하지 않으면 컴퓨터를 다룰 수 없습니다. 그래서 등장한 개념이 ‘자연어’와 ‘기계어’입니다. 저절로 생긴 인간의 언어를 자연어로 통칭할 수 있습니다. 이 자연어는 단어들이 연결된 문장의 형태로 구성되며, 인간이 서로 소통하는 데 쓰입니다.
사실 ‘자연어’라는 개념은 컴퓨터가 등장하면서 구분되었습니다. 컴퓨터라는 기계가 구동할 수 있게 하는 일종의 신호로 ‘기계어’가 고안되면서 구분된 것입니다. ‘1+1=?’이라는 계산식은 인간에게 무척 쉬울 수 있겠지만 기계어로 바꿔 입력하지 않으면 컴퓨터는 이해할 수 없습니다. 챗봇도 여러 계층과 단위를 거쳐 기계어가 자연어로 변환되고, 또 자연어가 기계어로 변환되는 과정을 거칩니다.

기계어의 시작점은 0과 1입니다: 기계어를 기초부터 이해하기 위해서는 19세기 중반 고안된 ‘모스부호(Morse Code)’를 연상하면 됩니다. 전신은 ‘뚜우- 뚜뚜’ 같은 신호로 교신합니다. 전신은 스위치를 ‘껐다’, ‘켰다’의 2가지 신호로 문장을 보낼 수 있습니다. On일 때 상황을 1이라고 가정하고 Off일 때를 0이라고 가정하면 이른바 디지털 신호가 됩니다. 컴퓨터에 ‘a’를 ‘1100001’이라는 부호로 세팅해놓으면, 이후부터 컴퓨터는 ‘1100001’이 찍히면 ‘a’로 인식하는 것이죠. 그 외 여러 가지 기능을 1과 0으로 표시해 컴퓨터에 전달할 수 있습니다.
문제는 천재가 아닌 다수의 사람은 0과 1만 봐서는 도무지 알 수 없다는 점입니다. 이를 알파벳 등으로 한 번 더 변환해준다면 프로그램을 짜는 데 훨씬 편하겠죠. 그래서 나온 게 ‘어셈블리어(Assembly Language)’입니다. 어셈블리어 자체도 복잡해 한 번 더 기계어를 변환해주는 과정을 거칩니다. 바로 더 높은 단계의 언어입니다. 문법도 일상에서 쓰는 문장과 닮게 했습니다. 이런 개념에서 나온 기계어가 ‘C’, ‘C++’, ‘C#’, ‘자바’ 등입니다. 이 정도 레벨이 되는 언어뭉치(코드)를 나열하면서 “컴퓨터야, 이렇게 움직여라”라고 하는 것을 ‘코딩’이라고 합니다. 최근에는 파이선(python) 등 더 쉬운 언어가 쓰이고 있습니다. 우리가 쓰는 영어 문장에 가깝고, 직관적으로 이해할 수 있습니다.

자연어는 여러 과정을 거쳐 0과 1로 변환됩니다: 컴퓨터와 인간이 소통하기 위해 수십 년 동안 이 같은 과정을 거쳤습니다. 이제 직접 자연어 문장으로 컴퓨터에 물어보거나(검색, 챗GPT) 소통할 수 있습니다. 내가 쓴 문서의 활자도 다 0과 1로 변환되어 컴퓨터에 저장되었다가, 내가 불러오면 자연어 문장으로 변환되어 나오는 것이죠. 다만 우리가 쓰는 자연어는 기계어와 달리 변화무쌍합니다. 예컨대 ‘파랗게 멍든 내 마음’이라는 문장을 컴퓨터가 이해하기 힘든 것이죠. 사람은 상대방이 한 말을 자신의 경험과 지식에 비춰 이해합니다. 이에 반해 컴퓨터는 상대방이 쓴 말에서 키워드를 검색하고 여러 정답의 가능성을 탐구합니다. 이 중 답변이 될 가능성이 가장 큰 문장을 출력해 결괏값으로 내놓습니다. 판단의 결과라기보다 계산의 결과라고 볼 수 있는 것이죠.
 

 


챗GPT가 쓰는 알고리즘은 뭐죠?
누군가에게 “청소하세요”라고 지시하고 시간과 장소만 정해주면 나머지는 사람이 알아서 합니다. 어떤 빗자루를 들어 어떤 방향으로 먼지를 쓸어갈지 일일이 정해주지 않아도 됩니다. 그런데 컴퓨터는 다릅니다. 자동으로 움직이는 것 같은 인공지능도 실은 인간이 세세하게 정해준 순서에 따라 움직이도록 입력된 것입니다. 입력된 사항이 아니라면 구동할 이유가 없는 것이죠.
컴퓨터가 일을 할 수 있도록 세세하게 처리 과정을 정리해 놓은 게 ‘알고리즘’입니다. 인간이 설정해놓은 알고리즘에 따라 검색로봇은 정보를 찾고, 챗봇은 답변을 내놓습니다. 따라서 알고리즘은 기계가 움직이는 규칙이자 약속이라고 할 수 있습니다.

챗GPT의 발전 배경
AI 발전을 이끈 3가지 반도체가 뭔가요?
기계학습이 인공지능 개발에 주된 방식으로 사용되게 된 계기는 컴퓨터 성능의 개선과 맞닿아 있습니다. 컴퓨터 안에 내장되는 반도체 칩 기술이 고도화되면서 예전보다 더 많은 수준의 데이터를 처리하고 연산할 수 있게 된 것이죠. 컴퓨터중앙처리장치(CPU)의 발달, 데이터를 저장하는 메모리 반도체의 혁신, 병렬 연산에 특화된 그래픽 처리 장치(GPU)의 등장이 대표적인 예입니다. CPU는 ‘무어의 법칙’, 메모리는 ‘황(Hwang)의 법칙’, GPU는 또 다른 ‘황(Huang)의 법칙’이 적용됩니다.
CPU 성능을 이끈 ‘무어의 법칙’: ‘무어의 법칙’은 반도체 칩에 집적할 수 있는 트랜지스터 숫자가 18개월에서 24개월마다 2배씩 증가한다는 법칙입니다. 인텔의 창업자 고든 무어가 1965년에 제안했는데, 객관적인 사실 근거 없이 경험칙에 의존했다는 비판을 받기도 합니다. 사실 집적회로에 많은 수의 트랜지스터를 넣으면 발열 문제가 심각해질 수밖에 없습니다. 무어의 법칙은 깨질 수밖에 없다는 한계점이 있었지만, 이는 곧 컴퓨터 기술이 그만큼 빠르게 발달했다는 의미가 됩니다.
AI 발전을 이끈 ‘황의 법칙’: 연산속도가 빨라지면 그에 따라 처리하는 데이터의 수가 늘어나고, 연산속도가 빨라질수록 메모리 용량도 늘어나게 됩니다. 황창규 전 삼성전자 메모리 부문 사장이 주창했던 ‘황의 법칙’은 이런 부분에 부합되었습니다. 무어의 법칙과 마찬가지로 이런 법칙들은 어떤 과학적인 이유에 의해 존재하는 법칙이라기보다는 산업적 목표에 가깝다고 볼 수 있습니다. 실제 삼성전자는 1999년 256MB낸드 플래시메모리 발표 이후 매년 2배의 용량을 갖는 메모리를 개발했습니다. 이후 2008년 128GB 메모리를 발표하지 않으면서 이 법칙은 깨졌습니다.
2010년 이후 컴퓨터 기술의 발전을 상징적으로 보여준 것이 또 다른 ‘황의 법칙’입니다. 잰슨 황 엔디비아 창업자는 인공지능을 구동하는 반도체의 연산 능력이 매년 2배 이상 증가한다고 봤습니다. 실제로 엔비디아 칩 성능은 2012년 이후 8년간 317배 증가해 매년 2배 이상 증가했습니다. 이 법칙도 무어의 법칙과 마찬가지로 트랜지스터 밀도를 높여야만 지속될 수 있기에 언젠가는 깨질 수밖에 없다는 의견도 있습니다.
챗봇의 성능 향상에는 컴퓨팅 파워가 필수입니다: 챗GPT 등 대화를 생성하는 챗봇은 자연어 이해, 자연어 생성, 대화관리 등의 고급 기능을 갖췄습니다. 이런 발전은 컴퓨터 성능의 발전과 밀접한 관련이 있습니다. 자연어 처리 기술은 매우 복잡하고 처리해야 할 데이터가 매우 복잡하고 많습니다. 따라서 챗봇의 성능을 향상하기 위해서는 대용량 데이터를 처리하고 복잡한 모델을 구축하는 데 필요한 컴퓨팅 파워가 필수적입니다. 최근에는 대규모 병렬 컴퓨팅을 위한 GPU를 이용한 챗봇 연구가 활발하게 이뤄지고 있습니다. 클라우드 컴퓨팅 서비스를 이용해 대용량 데이터를 처리하는 일과 고성능 리소스를 저비용으로 활용하는 일이 가능해졌기 때문에, 챗봇 개발 및 성능 향상에 관한 연구와 개발이 이뤄지고 있습니다.
챗GPT는 이렇게 학습합니다
 

챗GPT에 쓰인 인공신경망은 무엇인가요?
챗GPT는 인공신경망에 기반해 수많은 텍스트 데이터를 학습했습니다. 학습한 데이터가 많다 보니 독보적인 대화 실력을 갖추게 되었습니다. 챗GPT가 기존 규칙 기반 챗봇과 다른 결정적 한 가지를 꼽으라면, 바로 인공신경망 알고리즘을 쓴다는 것입니다. 인공신경망은 우리 뇌가 수많은 뉴런으로 연결된 신경망을 통해 정보를 전달받고 처리하는 것에서 힌트를 얻었습니다. 각 뉴런에서 불필요한 정보를 차단하고 필요한 정보만 뇌에 전달하는 것처럼, 인공신경망도 여러 처리 과정을 통해 학습할 데이터의 패턴을 추려냅니다.
뉴런에서 힌트를 얻은 인공신경망: 인공신경망은 1940년대 생물의 뇌 속에 있는 뉴런에서 영감을 받아 고안되었습니다. 외부 감각 기관에 전달된 자극이 전기화학적 신호로 뇌까지 전달되고 처리되는 과정에서 힌트를 얻은 것입니다. 1950~1960년대에는 이를 실제화하는 알고리즘이 개발되었고, 연구도 활발하게 이뤄집니다. 1970년에는 여러 개의 신경망을 겹겹이 배치하는 다층 신경망 학습이 가능해졌습니다. 문제는 인공신경망의 핵심이라고 할 수 있는 각 (인공) 뉴런이 제 기능을 다하고 데이터를 처리하기 위해서는 엄청나게 빠른 연산 처리 능력이 필요한데 당시 컴퓨터로는 힘들었습니다. 자체 알고리즘에 대한 완성도도 떨어지면서 인공신경망 기술은 외면 받고 말았습니다.
1980년대 들어 컴퓨터 기술이 더욱 발전하면서 인공신경망 기술연구에도 빛이 드는 듯싶었죠. 그러나 여전히 실용성은 부족했습니다. 데이터 처리와 학습 알고리즘 면에서 많은 개선이 필요했습니다. 그때까지 컴퓨터에 입력되는 주된 데이터는 정렬된 데이터였습니다. 이를 두고 ‘정형화된 데이터’라고 부릅니다. 이름, 주소, 전화번호 등의 기준에 따라 데이터가 정렬된 엑셀 파일 형태의 데이터가 주류였죠. 당시 컴퓨팅 기술로는 사진이나 음성, 일반 텍스트와 같은 ‘비정형화된 데이터’를 분석하고 소화하기가 버거웠습니다.
비정형화된 데이터는 용량도 커서 대용량 데이터를 저장하고 처리할 수 있는 시스템과 인프라가 필요하죠. 그래서 네트워크로 연결된 클라우드 컴퓨터가 등장하고 대형 인터넷데이터센터(IDC)가 세워진 2000년대에 들어서야 인공신경망 기술은 중흥기를 맞게 됩니다. 구글이 인공신경망 기술에서 앞서 나갈 수 있었던 배경도 여기에 있습니다. 구글은 전 세계적으로 거대한 규모의 데이터센터를 운영하고 있어 일반 기업은 시도하기 힘든 정도의 컴퓨팅 자원을 확보하고 있죠.
구글은 엄청난 연산 능력에 더해 엄청난 규모의 데이터도 확보하고 있습니다. 검색 시스템을 통해 ‘텍스트 데이터’를, 유튜브를 통해 ‘영상 데이터’를, 지도 등을 통해 ‘위치 자료’를 수집하고 분석할 수 있습니다. AI 기술 개발에 있어서 구글은 ‘넘사벽(넘기 힘든 벽)’ 수준입니다.
 

 

알파고도 챗GPT도 쓰는 인공신경망: 인공신경망은 입력층(Input layer)과 은닉층(Hidden layer), 출력층(Output layer)으로 구성되어 있고 각 층에 포함된 뉴런들이 각자 역할에 따라 연결되어 있습니다.
인공신경망은 어떤 문제를 해결할 때 뇌의 한 부분처럼 작동합니다. 예컨대 고양이 사진을 보면 각 인공신경망의 뉴런들은 각자의 기능에 따라 다양한 특징을 추출합니다. 예를 들어 어떤 뉴런은 고양이의 색상을 인식합니다. 다른 뉴런은 고양이의 형태나 패턴을 인식하고, 또 다른 뉴런은 고양이의 눈, 코, 입 등을 인식합니다. 이러한 뉴런들은 각각 입력된 데이터의 특징을 입력하고 이를 바탕으로 고양이를 인식하는 데 기여합니다. 인공신경망은 이러한 뉴런들을 조합해 복잡한 패턴을 인식합니다. 인공신경망 내 수백만 개의 뉴런이 이 일을 합니다.
인공신경망이 인간의 뇌와 비슷한 연산과정을 거친다고 해도 차이점은 있습니다. 사람의 뇌는 생물학적인 시스템으로 전기신호나 화학신호 등 다양한 형태의 신호를 통해 정보를 처리합니다. 반면 인공신경망은 숫자로 된 디지털 신호만 다룹니다. 또한 인공신경망은 학습 알고리즘을 통해 모델을 구성하고 학습하는 게 우선입니다. 이 학습은 프로그래머가 설정한 가중치나 설정값에 따라 진행됩니다. 반면 사람의 뇌는 성장과 발달, 학습, 경험 등을 통해 정보를 습득합니다.
 
 

 


실전에서 바로 써먹는 챗GPT 활용법
챗GPT를 낳은 GPT는 뭔가요?
사람의 말을 듣고 이해하고 대답할 수 있는 챗봇은 크게 2가지 방법으로 만들 수 있습니다. 첫 번째는 통계적인 방법이고, 두 번째는 인공신경망을 이용하는 방법입니다. 통계적인 방법은 각 언어의 단어별 쓰임새를 분석하고 통계적으로 ‘사용자가 원하는 답’을 선택하게 하는 방법입니다. 이에 반해 인공신경망을 이용하는 방법은 통계적인 방법보다 훨씬 두드러진 성과를 낸 방법으로, 2010년대 이후 챗봇의 대화 능력이 크게 향상된 것은 인공신경망 사용과 결코 무관하지 않습니다.
인공신경망을 활용하는 방법 중에서도 딥러닝이 많이 사용됩니다. 딥러닝 중에서도 언어 모델에 특화된 방식이 바로 GPT(Generative Pre-trained Transformer; 생성형 사전학습된 언어모델)입니다. GPT는 오픈AI가 2019년에 처음 공개했으며, 2023년 3월 15일에 GPT-4 버전이 공개되었습니다. GPT 모델은 사람처럼 문장 자체를 이해하고 써내려가는 게 아니라 여러 텍스트 데이터를 분석해서 적절한 문장을 만들어내는 것이라고 할 수 있습니다. 인간은 처음 글을 쓴 뒤 고쳐나가면서 한 편의 글을 완성합니다. 이와 다르게 GPT 모델은 글을 써야 하는 키워드와 관련된 모든 자료를 취합한 뒤 확률적으로 ‘사용자가 원하는 답’에 가까운 텍스트를 생성해갑니다. 즉 생각할 줄 알아서 글을 쓰고 말을 하는 게 아니라 확률적으로 사용자가 원하는 답에 가까워서 글을 쓰고 말을 한다고 보면 됩니다.

막대한 양의 데이터가 만든 GPT: 딥러닝 기반의 AI 챗봇은 엄청나게 많은 양의 데이터를 학습하고, 그에 따른 패턴을 찾고, 최대한 인간의 대화 패턴에 맞춰 대화합니다. 학습 데이터양이 많아질수록 정교해지는 딥러닝의 특성 덕분에 GPT도 사람처럼 보이는 대화를 하게 되었습니다.
실제 GPT가 학습하는 데이터양은 엄청나게 늘고 있습니다. 오픈AI가 2018년 처음 출시한 GPT-1 모델은 1억 1,700만 개의 매개변수(파라미터)를 학습했습니다. 여기서 매개변수는 기계학습 모델에서 모델을 제어하는 값을 뜻합니다. 모델이 학습할 매개변수가 많아질수록 예측의 정확도가 높아집니다. 2019년 들어 오픈AI는 GPT-2를 4회에 걸쳐 공개합니다. 매개변수의 수는 GPT-1과 비교해 10배 정도 늘어난 15억 개가 되었습니다. 오픈AI가 2020년 공개한 GPT-3의 파라미터 수는 이것의 100배 이상인 1,750억 개입니다. 바로 비교할 수는 없지만 100배 정도 더 정교해졌다고 볼 수 있습니다.
이들 GPT는 트랜스포머라고 불리는 딥러닝 체계를 사용했습니다. 영화 <트랜스포머(Transformer)>에서 로봇들이 변신하며 다양한 역할을 수행하는 것처럼, 트랜스포머를 사용한 언어 모델은 자연어 처리 분야에서 다양한 일을 할 수 있습니다. 이를 위해 대규모 문장데이터를 사전에 학습하고 패턴을 익히는 방식을 처리합니다.
 
 

챗GPT, 이제 사용해볼까요?
챗GPT. 이제 써볼까요. 우선 이 서비스는 무료입니다. 오픈AI는 ‘AI가 선하게 쓰이게 한다’라는 설립 취지에 따라 챗GPT를 무료로 사용할 수 있게 공개했습니다. 그전에도 대화 엔진 GPT 시리즈를 여럿 발표했지만, 대중적으로 쉽게 쓸 수 있게 한 것은 이번이 처음입니다.
PC 크롬에서 더 편리: 우선 챗GPT는 스마트폰보다 PC에서 사용하기 더 편합니다. 크롬 같은 웹 브라우저에서 실행되기 때문입니다. 웹 기반이다 보니까 PC 모니터 화면에서 보는 게 스마트폰 화면으로 보는 것보다 편합니다. 또한 크롬을 사용하면 PC와 스마트폰에서 동시에 사용할 수 있습니다. 동일 계정으로 로그인되어 있다면, PC에서 한 질문을 스마트폰에서, 스마트폰에서 한 질문을 PC 화면에서 볼 수 있죠.
챗GPT 첫 화면에서 왼쪽 하단에 있는 ‘TRY CHAT-GPT’를 클릭하고 ‘sign up’ 버튼을 누릅니다. 크롬에 로그인된 상태라면 구글 계정으로 로그인할 수 있습니다. 마이크로소프트 계정으로도 가능합니다. 챗GPT는 유료와 무료가 있습니다. 유료는 월 20달러인데, 무료와 큰 차이가 없습니다. 질문을 하고 그에 대한 답변을 받는 과정 자체는 다를 게 없고, 속도에서 차이가 납니다. 무료 버전에서는 챗GPT가 뜸을 들이면서 천천히 답변을 내놓지만, 유료 버전에서는 텍스트가 바로바로 나옵니다. 한글로 물어봤을 때와 영어로 물어봤을 때 모두 유료 버전에서 속도가 더 빠릅니다.
유료와 무료의 차이보다는 영어로 물어봤을 때와 한국어로 물어봤을 때의 차이가 더 큽니다. 학습한 데이터에서 영어 문장의 양이 압도적으로 많기 때문이죠. 챗GPT 자체도 기본적으로 영어로 세팅되어 있기 때문에 한글 문장을 영어로 번역해서 물어보고 영어로 답변을 받는 게 내용이 더 풍부합니다.

챗GPT, 영어로 물어보는 방법: 영어로 물어보는 방법은 3가지 정도가 있습니다. 첫 번째는 직접 영어 문장을 써 넣는 방법입니다. 영어에 능숙한 분이라면 가능합니다. 내가 쓴 영어 문장에 대해 “문법적으로 맞는지 검토해줘”라고 하면서 피드백도 받을 수 있습니다. 이 방법은 영어 공부하는 분들에게 도움이 됩니다. 두 번째는 구글 번역 등 번역 서비스를 이용하는 방법입니다. 요즘의 한국어-영어 번역 서비스는 거의 완벽한 수준에 도달했습니다. 이 방법이 번거롭다면 세 번째 방법, 즉 챗GPT 프롬프트에서 자동으로 영문 번역이 되는 서비스를 사용하면 됩니다. 구글 검색창에 ‘프롬프트 지니’를 검색하면 크롬 웹 스토어에서 프롬프트 지니를 다운로드받을 수 있는 웹 페이지가 뜹니다. 해당 웹 페이지로 가서 ‘설치’ 버튼을 누르면 됩니다.
프롬프트 지니를 설치한 다음부터는 프롬프트 창에 한글을 입력하면 신통하게 영어로 번역되어 질문이 나갑니다. 챗GPT가 영어로 한 답변도 자동으로 한글로 번역이 됩니다. 그냥 한글로 물어보고 싶으면 프롬프트 지니를 비활성화 상태로 만들면 됩니다.

키워드 중심으로 구체적으로 질문: 질문하는 방식도 중요합니다. 뭉뚱그려 물어보는 것보다 구체적인 배경과 목적을 설명하면 더 정교하게 대답합니다. “인공신경망을 설명해줘”라고 입력하는 것보다 “나는 컴퓨터를 잘 몰라. 인공신경망에 대해 쉬운 비유를 들어 설명해줘”처럼 말이죠. 또한 챗GPT는 대화의 맥락을 기억합니다. 챗GPT가 내놓은 답변 중에 궁금한 게 있거나 추가로 물어보고 싶은 게 있으면 이어서 계속 물어볼 수 있습니다. 챗GPT가 조언자이자 과외 선생님이 될 수 있죠. 글을 쓰게 한다거나 기획안, 목차 작성 등을 요구한다면 주요 키워드를 갖고 구체적으로 챗GPT에 물어보세요. 글의 양까지 정해줄 수 있는데, 한국어보다 영어로 물어봤을 때 더 찰떡같이 알아듣습니다.

중요한 자료일 땐 크로스체크가 필수: 챗GPT는 아직까지 완벽한 완성형이 아닙니다. 학습한 데이터도 2021년까지인 터라 최신 정보를 물으면 엉뚱한 답변을 내놓기도 합니다. 그러므로 미심쩍다 싶으면 바로 전통적인 검색엔진에 검색을 해서 대조해보는 과정이 필요합니다. 게다가 챗GPT는 자신이 내놓는 답변의 출처를 밝히지 않습니다. 논문이나 리포트를 쓴다면 출처를 확인하는 게 필수가 되겠죠. 특정 정보에 대해서 글을 쓴다면 챗GPT와 토론을 하면서 내 생각을 정립하고 그에 맞춰 뼈대를 세운 뒤 자신의 생각을 채워 나가는 과정이 필요할 듯합니다. 그래야 온전히 내 작품이 되겠죠.

챗GPT로 유튜브나 팟캐스트를 만들어요
챗GPT의 도움을 받으면 유튜브나 팟캐스트 대본을 금방 만들어낼 수 있습니다. 그대로 쓸 수도 있고, 첨삭 수정을 통해 더 잘 만들 수도 있습니다. 한글로 쓴 문서를 영어 대본으로 변환하는 것도 가능합니다. 언어의 장벽까지 넘어서는 것이죠. 한글 문서로 한정되었던 내 글이 영어를 비롯한 스페인어, 프랑스어 등 여러 나라의 언어로 번역되어 유통되는 것이죠. 숙련된 전문 번역가의 도움 없이도 팟캐스트와 유튜브 등에 쓸 수 있는 대본을 만들 수 있다는 이야기입니다. 그전에는 상상도 할 수 없었던 일이었지만 챗GPT가 있는 지금은 얼마든지 가능한 일이 되었습니다.
이번에는 블로그 글 한 편을 유튜브 팟캐스트 대본으로 만들고 업로드하는 과정까지 설명하겠습니다. 더불어 텍스트를 음성으로 변환하는 인공지능 서비스를 활용해 실제로 한국어와 영어로 만들어 유튜브에 올리는 예를 보여주겠습니다.
 

▲ 챗GPT에 입력한 블로그 글
다음 글을 팟캐스트 대본으로 만들어줘. A와 B로 나눠서 대화하는 형식으로.
금리는 돈의 흐름을 바꿉니다. 은행에서 예금에 높은 이자를 주면 시장의 돈은 은행으로 빨려 들어갑니다. 주식 시장에 있는 돈도 마찬가지입니다. 반대로 은행 예금 이자가 낮으면, 돈은 더 많은 이익을 내는 투자 시장으로 갑니다. 주식 시장에 돈이 몰립니다. 금리의 흐름은 기준 금리의 추이로 읽을 수 있습니다. 한국은행 기준 금리가 오를 것 같다면 시중의 돈은 은행으로 향하게 되고, 기준 금리가 떨어지게 되면 시중의 돈은 주식 시장으로 향합니다. (이하 생략)
그러자 그 결과가 아래와 같이 금방 출력되어 나왔습니다. 다만 아직 한글 입력과 출력에 제한이 있습니다. 챗GPT가 대본을 만들다가 글자 수가 800자 이상이 되면 하던 말을 멈추는 것이죠. 영어는 훨씬 긴 답변도 하는데 한국어 버전은 일정 글자 수가 넘어가면 더는 대화를 생성하지 않습니다. 그래서 저는 텍스트를 800자 이내로 잘라서 프롬프트에 순차적으로 입력하는 방식을 사용했습니다.
GPT가 만들어낸 대본
A: 금리가 돈의 흐름을 바꾼다고 하는데, 그게 어떤 의미인가요?
B: 은행에서 예금에 높은 이자를 주면, 시장에서 돈은 은행으로 빨려 들어가게 됩니다. 이 때문에 주식 시장에 있는 돈도 은행으로 흘러들어가게 됩니다.(이하 생략)
이렇게 나온 팟캐스트 대본을 실제 A와 B로 나눠 읽으면서 녹음할 수 있습니다. 혹은 TTS(Text to Speech) AI에 맡겨 실제 음성으로 변환할 수 있습니다. TTS 서비스는 구글을 비롯해 네이버 등 유수의 IT기업들이 제공하는 서비스입니다.

챗GPT에 다가올 미래
오픈AI CEO는 AI의 미래를 왜 부정적으로 볼까요?
오픈AI는 특정 개인이나 기업이 아닌 사회에 도움이 되는 방식으로 AI를 개발하는 것을 목표로 설립되었습니다. 창립자들은 첨단AI 기술이 사회를 긍정적으로 변화시킬 수 있다고 믿지만, 책임감 있게 사용하지 않으면 심각한 위험을 가져올 수 있다고 생각했습니다. 결과적으로 오픈AI는 민간 투자자나 주주의 이익을 위한 것이 아니라 공익을 위한 연구 개발 활동을 추구할 수 있는 비영리 조직으로 구성되었습니다.
이상과 현실 사이에서 고민했던 오픈AI: 초기 오픈AI는 고급 AI 기술을 개발하고 연구 결과와 기술을 대중에 공개한다는 목표를 세웠습니다. 특정 기업에 AI 기술이 독점되기 전에 AI 기술이 확산되고 보편화된다면, 악용될 우려가 적어질 것이라는 샘 올트먼의 철학이 반영된 것이죠.
문제는 이들의 이상을 실현시켜줄 인프라에 있었습니다. 더 구체적으로 말하면 인프라 구축을 위한 자금이었습니다. 딥러닝에는 많은 데이터와 고성능의 컴퓨터가 필요한데 웬만한 자금으로는 어림도 없었습니다. GPT를 구현하고 상용화하기 위해 마이크로소프트와 IBM, 구글을 포함한 다양한 조직과 파트너십을 체결해야 했습니다. 이 역할은 오픈AI Inc.가 맡았습니다.
마이크로소프트는 오픈AI Inc.의 지분을 2019년 10억 달러, 2023년 100억 달러의 자금을 들여 확보했습니다. 덕분에 챗GPT 개발에 필요한 인프라를 갖출 수 있었습니다. 오픈AI가 사용하는 클라우드 슈퍼컴퓨터도 마이크로소프트의 애저 클라우드로 세계에서 5번째로 우수한 성능을 나타내고 있습니다.

‘돈의 벽’에 부딪힌 샘 올트먼의 생각: 샘 올트먼은 실리콘밸리의 유명 벤처 창업가이자 투자자입니다. 그는 스탠퍼드대학교에서 컴퓨터공학을 전공했고, 2년 만에 자퇴했습니다. 2005년에는 사용자들이 자신의 위치가 어디 있는지 보여주는 위치 공유 소셜회사 루프트롤, 2011년에는 온라인데이팅 서비스 회사 오케이큐피드를 공동 창업했습니다.
한 가지 독특한 점은 올트먼이 AI가 가져올 세상에 대해 상당히 부정적인 시각을 갖고 있다는 것입니다. 사람처럼 대화하는 챗봇을 개발한 회사의 CEO가 평소 그런 생각을 하고 있었다는 게 의외이긴 합니다. 그는 오픈AI 창립 전부터 AI로 인해 부가 빅테크 업체들에 집중되는 것을 불평등한 상황이라고 규정짓고, 기본소득이 필요하다고 주장했습니다. AI가 모든 일을 하게 되면 인간 소외현상이 커질 것이라고 보고, 이를 해결하는 방법 중 하나로 ‘기본소득’을 제시한 것입니다.
그가 오픈AI를 만든 것도 AI 기술을 모든 사람이 사용할 수 있게 하자는 데 있었습니다. 오픈소스로 AI 기술이 공개된다면 특정 소수가 독점하는 상황을 막을 수 있다고 본 것이죠. 기술 발전을 피할 수 없다면 소수가 아니라 다수가 사용할 수 있게 하자는 취지입니다.
그러나 앞에서 언급했다시피 올트먼의 생각은 ‘돈의 벽’에 부딪힙니다. 전주(主)인 투자자들의 요구를 고려하지 않을 수 없게 된 것이죠. 마이크로소프트로부터 자금과 컴퓨팅 자원을 지원받으면서 오픈AI 기술은 비공개가 되었습니다. 수익을 지향하는 회사가 된 것이죠. 초기 창업 멤버인 일론 머스크도 이 부분을 지적했고, 결국 그는 오픈AI 이사진에서 나왔습니다. 그는 “오픈AI가 아니라 클로즈드(closed)AI가 되었다”고 혹평을 남겼습니다.
 

 

챗GPT 시대, 우리는 어떻게 살아야 할까요?
앞으로 더 많은 대화형 챗봇이 나와 사람들의 업무를 도울 것입니다. 챗GPT는 더 고도화되고, 비슷한 성격의 서비스가 여기저기서 나오는 것이죠. 구글과 페이스북 등 글로벌 IT기업은 물론 네이버와 카카오 등 국내 강자들도 준비하고 있습니다. 어느 서비스를 선택하든 우리는 지능형 챗봇을 이용하며 살아갈 수밖에 없습니다. 각자 쓰임새와 정도만 다를 뿐 AI 챗봇이 생활 필수품이 되고 있는 것이죠.
다만 챗GPT와 같은 생성형 AI 모델이 일상생활에서 더 많이 쓰일수록 기술에 대한 인간의 의존도도 높아지게 됩니다. 이 기술을 갑작스럽게 쓰지 못하게 되면 작업을 하지 못하는 상황이 벌어질 수도 있는 것입니다. 이제 ‘생각하지 않는 사람’의 시대가 될 수도 있습니다.
챗GPT가 정말 우리 일자리를 빼앗을까요?: 인공지능이 우리의 일자리를 빼앗을 수 있을까요? 반은 맞고 반은 틀립니다. 오히려 업무 효율성 증대에 따른 생산성 증대 효과를 기대할 수 있습니다. 챗GPT는 기존에는 사람의 노력이 많이 필요했던 비즈니스 자료 생성, 법적 문서 검토, 고객 응대 등의 작업을 더 빠르게 처리해줍니다. 인간의 업무 생산성과 효율성 향상에 기여할 것으로 보입니다.
특히 중요하지만 단순 반복에 가까운 업무라면 효율성을 높일 수 있습니다. 특히 미국 등에서는 의사와 변호사 등 전문직 시험을 통과하고, 대학에서 리포트로 챗GPT 저작물이 제출되는 등 여러모로 챗GPT의 능력이 입증되었습니다. 광고 카피를 만들고, 대본을 꾸미고, 문서를 요약해 정리하는 등의 ‘지적 능력’에 기반한 분야까지 AI가 우위에 설 수 있습니다. 이처럼 챗GPT 등의 대화형 챗봇이 지식 산업의 상당 부분을 대체할 가능성은 충분해 보입니다. 특히 콘텐츠와 IT 산업을 중심으로 큰 변화가 있을 것으로 예상됩니다.

변화의 범위를 AI 전체 분야로 확대하면 일자리 수의 감소는 피하기 힘들 전망입니다. 특히 사무실 내 단순 업무 직군이 직접적인 타격을 받을 것으로 보입니다. 맥킨지글로벌연구소의 보고서에 따르면 AI 도입에 따른 사무 자동화로 2030년까지 전 세계 인력의 14%인 약 3억 7,500만 명의 근로자가 직업 범주를 전환하고 새로운 기술을 습득해야 할 것으로 추정되었습니다. 데이터 입력, 고객 서비스 응대처럼 일상적이면서 반복적인 작업을 하는 직군이 받을 타격이 클 것으로 예상했습니다.
AI 도입이 일부 영역에서는 일자리 대체로 이어질 수 있지만 AI 개발, 데이터 분석, 디지털 마케팅 등 다른 영역에서 새로운 일자리가 창출될 수도 있습니다. 콘텐츠 제작에서도 AI의 도움을 받아 생산성을 높일 수 있습니다. 한 예로 자막 제작, 영상 편집 등의 단순 작업이 효율화되어 1인 창작자들이 창작활동에 몰두할 수 있는 시간을 더 확보하는 것이죠. 단순 반복 작업에 직원을 고용하지 않아도 되니 인건비도 절약할 수 있습니다. 즉 대규모 기업 집단의 고용은 줄어들 수 있으나, 1인 창작자나 프리랜서 시장은 더 커진다는 의미입니다.

생각하지 않는 시대, 생각의 근육을 키워야: 챗GPT 같은 대화형 AI 챗봇은 우리에게 편리함을 주지만 그만큼 ‘생각할 수 있는 시간’을 빼앗아 가는 게 아닐까요? 대화형 AI 챗봇에 의존하면서 우리들의 ‘생각하는 근육’이 약해질 수 있습니다.
챗GPT 같은 대화형 AI 챗봇이 전해주는 지식과 정보는 ‘바로 쓸 수 있을 정도’로 편하게 가공되어 있습니다. 곱게 빻은 밀가루로 맛깔스럽게 만든 도너츠 같죠. 먹기도 좋고, 흡수도 쉽습니다.그런데 과거에 우리는 힘들게 지식을 얻었습니다. 책의 숲에서 수렵과 채집을 했던 것이죠. 인터넷 시대가 열리고 검색을 하게 되면서 그나마 편해졌다고는 하지만, 스스로 채집해 요리하고 소화하는 과정을 거쳐야 했습니다. 이런 과정을 많이 겪을수록 ‘생각하는 근육’도 단단해져 편견과 차별, 비상식적인 지식에 대한 저항력을 기를 수 있었습니다.



AI 시대 건강한 지식생활을 하기 위해서는 생각의 근육을 키워야 합니다. 생각의 근육을 키우는 데는 독서와 함께 ‘자신의 생각을 글로 쓰기’가 효과적이죠. 나와 생각이 다른 이들과 토론하는 것도 생각하는 근육을 자극하는 데 도움을 줍니다. 결국 AI 시대에서 ‘허약하고 나약한 인간’으로 남지 않으려면 스스로 노력하는 수밖에 없습니다. 그래야 AI도 동반자이자 조력자로 온전히 남아 있게 됩니다.

반응형

댓글