<기획> 위태롭고도 위대한 챗GPT (한성대신문, 587호)

    • 입력 2023-03-27 00:00
    • |
    • 수정 2023-04-03 13:22

<편집자주>

“수업 끝나고 한성대학교 근처에서 어디 가서 놀지 추천해줘.” 타닥타닥. 친구에게 채팅하듯 수업 후 놀거리를 묻자‘ChatGPT(이하 챗GPT)’는 답했다. “한성대학교 근처에는 다양한 놀거리가 있으니 선택의 폭이 넓습니다. 그중 아이디어를 드리자면 성북천은 한성대학교 근처를 흐르는 강이며, 주변에는 많은 산책로가 있습니다.” 챗GPT는 직접 인터넷 창에 검색하는 것보다 빠른 시간 내에 적절한 답변을 제공함으로써 궁금증을 해결해줬다.

챗GPT는 어떻게 우리 학교 근처에 성북천이 있다는 정보를 알고 답했을까? 그 찰나의 순간에 지도나 블로그를 찾아봤는지, 혹시 챗GPT를 조종하는 사람이 존재하는지 등의 궁금증이 피어오른다. 챗GPT는 어떻게 사람처럼 말하는 걸까? 알쏭달쏭한 챗GPT가 정보를 학습하고 문장을 만드는 원리부터 우리 삶에 미치는 영향까지 전격 해부해봤다.

김기현 기자

[email protected]

박희진 기자

[email protected]

무엇이든 물어봐도 알려주는

챗GPT는 미국의 인공지능 연구개발 기업인 ‘OpenAI’가 개발한 ‘대화형 인공지능’으로, 흔히 불리는 ‘챗봇(Chatbot)’의 일종이다. 일명 ‘구글링’으로 대표되는 검색이 나열식 정보 속 원하는 정보를 찾는 방식이라면, 챗GPT는 사용자와 이뤄지는 대화 속 질문에 대해 맞춤형 답변을 제공한다. 김준영(중앙대학교 AI학과) 교수는 “사용자는 챗GPT와 자연스럽게 대화하며 필요한 정보를 획득할 수 있다”고 설명했다.

이러한 챗GPT 같은 ‘생성형 인공지능’이 주목받고 있다. 생성형 인공지능은 기존 데이터를 바탕으로 사용자의 요구에 따라 결과물을 생성한다. 기존 인공지능이 데이터를 학습하고 이해하는데 그쳤다면, 생성형 인공지능은 학습한 데이터를 바탕으로 새로운 텍스트, 이미지 등을 만들어낸다는 점에서 활용 가치가 높다.

챗GPT는 ‘대화’를 의미하는 ‘Chat’과 ‘GPT(Generative Pre-trained Transformer)’라는 ‘대규모 언어 모델’의 합성어다. 여기서 언어 모델은 주어진 단어나 문장 다음에 오게 될 단어를 확률적으로 예측하는 역할을 한다. 즉 가장 자연스러운, 확률이 높은 단어를 할당하는 것이다. 예를 들어, ‘옷이’라는 단어를 입력하면, 언어 모델은 학습한 데이터를 바탕으로 ‘높다’가 아니라 ‘크다’, ‘싸다’ 등을 적절하다고 판단한다. 실제로 챗GPT를 사용해보면 질문에 대한 답변이 단번에 출력되지 않고, 계산 과정을 거쳐 확률이 높은 단어부터 차례로 등장하게 된다는 사실을 알 수 있다. 나아가 ‘대규모’ 언어 모델은 막대한 양의 데이터를 학습한 경우다. 기존 언어 모델과 비교해 대규모 언어 모델은 인터넷을 통해 취득한 무수한 기사, 문서, 책 등의 데이터를 학습했기에 비교적 장문의, 그리고 정교한 글을 생성할 수 있다. 김영빈(중앙대학교 다빈치AI대학원) 교수는 “대규모 언어 모델은 복합적인 정보를 이해하고 처리할 수 있다”고 덧붙였다.

챗GPT의 본체라고 할 수 있는 GPT에는 ‘트랜스포머(Transformer)’, 사람의 말인 자연어를 처리하는 기술이 들어있다. 가령 100개의 단어로 이뤄진 문장이 있다면, 트랜스포머는 모든 단어의 상관관계를 파악할 수 있다. 첫 번째 단어와 백 번째 단어 간의 관계까지 말이다. 때문에 이전과 달리 멀리 떨어진 단어 간의 관계도 파악하게 되면서 긴 글에 대한 이해와 생성이 가능해졌다. 김준영 교수는 “기존 기술이 해당 단어의 주변부에 있는 단어 간의 의미만 파악할 수 있었다면, 트랜스포머는 모든 단어 쌍의 관계를 고려해 새로운 단어를 출력할 수 있다”고 말했다.

이러한 챗GPT의 성능을 가시적으로 확인하려면 주요 지표인 ‘파라미터(Parameter)’에 주목해보자. 챗GPT의 ‘용량’으로 간주할 수 있는 파라미터는 학습 능력과 성능에 영향을 미치는 중요한 요소다. 구버전인 GPT-2는 15억 개의 파라미터를 가졌으나, GPT-3.5는 1,750억 개 넘는 파라미터가 존재한다. 점차 용량이 커지면 더욱 많은 데이터를 담을 수 있고, 이는 더 나은 결과 도출로 이어질 가능성이 높다. 지준(한성대학교 AI응용학과) 교수는 “파라미터가 늘어나면 더욱 많은 데이터를 학습시켜야 한다”며, “파라미터가 많을수록 인공지능은 더욱 복잡한 문제를 풀 수 있다”고 전했다.

챗GPT의 언어 능력을 향상시킨 또 다른 요인 중 하나는 ‘사람’이다. 사람이 원하는 답변이 나올 확률을 높이기 위해 인간 피드백형 강화학습, 즉 ‘RLHF(Reinforcement Learning from Human Feedback)’로 불리는 학습 방법이 적용된다. RLHF는 ▲SFT(Supervised Fine-Tuning) ▲RM(Reward Model) ▲PPO(Proximal Policy Optimization) 등의 과정을 거친다. 하나의 질문에 대해 여러 사람이 직접 쓴 답변을 챗GPT에게 학습시켜 미세하게 조정하는 과정을 ‘SFT’라 한다. 이후 학습된 모델이 재차 답변을 출력하도록 한 후 사람이 이 답변에 대해 점수를 매긴 후 재차 학습시킨다. 이를 ‘RM’이라 한다. 마지막으로 ‘PPO’라는 과정을 통해 사람이 선호하는 답변을 할 수 있도록 학습된다. 지 교수는 “확률이 높다면, 그것이 ‘사실인지’, ‘감정적으로 상대방에게 상처를 주는지’ 등의 여부를 염두에 두지 않는 챗GPT의 결점을 보완하기 위해 도입된 과정”이라고 설명했다.

그럼에도 불구하고 챗GPT가 옳은 정보를 전달하는 완벽한 인공지능은 아니다. 문장 자체는 매끄러우나, 사실과는 다른 내용을 문장에 넣어 그럴듯하게 답하는 환각, ‘할루시네이션(Hallucination)’이 발생한다. 관련 데이터가 없어 알 수 없다 하더라도 답변을 내놓는다는 것이다. 처음부터 잘못된 지식이 학습됐을 가능성도 배제할 수 없지만, 챗GPT가 관련 정보를 학습하지 못했을 때도 발생할 수 있는 현상이다. 지 교수는 “챗GPT는 아직 학습이 부족하다”며, “관련 학습이 더 많이 이뤄진다면 환각 현상은 사라질 가능성이 높다”고 말했다.

여전히 사용자와의 모든 대화를 기억할 수 없다는 부분도 챗GPT의 한계다. 현재 무료 버전인 GPT-3.5는 최대 4,096토큰(Token)* 분량의 텍스트까지 기억할 수 있다. 그러나 지난 14일 출시된 GPT-4의 경우, 최대 32,768토큰(약 50페이지 분량)을 가져 더 많은 대화를 잊지 않을 수 있다. 김준영 교수는 “챗GPT는 질의응답이 일정량 쌓이게 되면, 앞에 있던 내용을 잊어버린다. 이는 기술력의 한계이자 모델 크기의 한계로 볼 수 있으나, 점차 해결될 문제”라고 부연했다.

*토큰 : 어휘 항목이 의미상으로 구분되는 최소 분류 단위

'아직은' 완벽하지 못하지만

어떤 질문이든 막히지 않고 술술 대답해주는 챗GPT가 우리 일상 속으로 가깝게 다가왔다. 대학가는 개강과 동시에 ‘챗GPT를 활용해야 하는가’, ‘규제해야 하는가’에 대한 논란으로 뜨거웠다. 실제로 국민대학교는 개강 시기에 맞춰 발 빠르게 ‘KOOKMIN 인공지능 교수학습활용가이드라인’을 발표했다. 뿐만 아니다. 챗GPT를 활용하는 강의도 대학가에서 꽤나 많이 볼 수 있는 풍경이다. 이내찬(한성대학교 사회과학부)교수는 “국가 차원에서 금지하지 않는 이상 챗GPT의 사용이 확산되고 있는 흐름을 막을 수 없다”고 설명했다. 이어 신유정(전북대학교 과학학과) 교수는 “이번 학기는 통상적으로 가르쳐왔던 수업 계획을 대폭 수정해 학생들이 챗GPT를 직접 사용하는 방식으로 강의를 운영하고 있다”고 밝혔다.

그러나 챗GPT에는 ‘빛’만이 존재하지 않는다. 대표적으로 거짓 정보를 제공한다는 ‘그림자’가 드리우고 있다. 일례로 출처가 존재하지 않는 자료를 임의로 생성해 사용자에게 제공하기도 한다. 소위 챗GPT의 ‘환각’ 증세다. 이는 챗GPT가 사람이라 가정한다면 자신의 발화를 이해하지 못한 상태로 이야기하는 모습일테다. 아직 인공지능 자체가 자신이 뱉는 말이 참인지 거짓인지를판단할 수 있는 단계에는 이르지 못해 해당 문제가 발생한다는 것이 전문가들의 분석이다. 이인복(한국항공대학교 소프트웨어학과) 교수는 “챗GPT는 ‘그럴싸한 문장을 만들어내는 것’이 목표이기 때문에 그 문장의 사실 여부를 판단하는 부분에 소홀하다”고 설명했다. 이에 더해 차성종(신라대학교 문헌정보학과) 교수는 “검색엔진에 의한 결과는 출처를 통해 정보의 공신력을 따질 수 있지만, 챗GPT가 내놓은 정보는 근거를 알 수 없어 문제가 되는 것”이라고 술회했다.

이에 더해 답변 제한을 교묘히 피해 답변을 유도하는 ‘탈옥’ 등의 방법도 나타나고 있다. 인공지능으로서 윤리적 중립을 지켜야 하는 챗GPT는 차별, 혐오 표현및 정치적 민감도가 높은 질문에는 답변할 수 없다. 탈옥은 이러한 답변 제한을 피해 가는, 윤리적 중립성을 우회하는 수법이다. 탈옥의 알려진 방법으로는 챗GPT에게 OpenAI사의 답변 제한 정책을 회피하는 몇 가지 조건을 학습시켜 답변을 유도하는 것이 있다.

거짓 정보를 제공하고, 윤리적 중립을 피해 가는 현태를 해결하기 위한 방안으로 인공지능 리터러시 함양을 위한 교육이 가장 중시 여겨진다. 정보화가 진전될수록 인공지능은 인간이 할 수 있는 일을 넘어 더 많은 일을 수행할 수 있게 돼, 정보 윤리의 문제는 더욱이 중요한 가치를 지니게 될 것이라는 설명이다. 김용환(차 의과학대학교 데이터경영학과) 교수는 “단순 코딩 학습과 같은 교육이 아니라 인공지능을 어떻게 활용할지에 대한 교육 등이 필요하다”고 전했다. 이에 더해 배경재(동덕여자대학교 문헌정보학과) 교수는 “인공지능 기술을 적절히 활용할 수 있는 방법을 습득하고, 터득한 활용 방법에 대해 평가하는 과정을 거치는 등 윤리적 문제를 최소화할 수 있는 교육적인 방안이 마련돼야 한다”고 말했다.

전문가들은 윤리적 중립성을 훼손하는 탈옥과 같은 답변 생성으로 발생하는 사회적 문제 해결을 위해서는 법제화가 필요하다고 전언한다. 그리고 이러한 법제화는 기술의 발전 속도에 맞춰 점진적으로 나아가야 한다고 설명한다. 기술 발전보다 앞선 법은 국가 경쟁력의 하락으로도 이어질 수 있다는 우려에서다. 박성희(한남대학교 문헌정보학과) 교수는 “고의로 인공지능의 안전장치를 제거한 후 인공지능이 생성한 결과물을 사용해 발생한 피해에 대해 법적 책임을 묻는 법안이 마련돼야 문제를 해결할 수 있다”고 말했다. 이어 김 교수는 “기술보다 앞선 법으로 인해 기술 발전의 길이 막히게 될 경우 다른 모든 나라가 개발해 이용하는 기술을 국내에서는 사용하지 못하는 경우가 발생할 수 있다”고 술회했다.

일각에서는 탈옥의 발생은 필연적이라고 주장한다. 그렇기에 사용자의 활용 방식이 무엇보다 중요하다고 입을 모은다. 김 교수는 “탈옥은 동전의 양면 같이 인공지능이 발전함에 따라 필수적으로 발생할 수밖에 없다”고 전했다. 신 교수는 “탈옥은 인공지능과 관련된 다양한 문제가 절대 기술적으로만 풀 수 없다는 것을 보여주는 사례”라며 “오늘날 인공지능과 관련된 많은 문제를 기술 발전을 통해 해결하려 하지만, 탈옥은 보다 복잡한 사회·정치적 문제로 더 나은 기술의 등장만으로 해결할 수 있는 문제가 아니다”라고 말했다.

인공지능 기술은 오래전부터 발전해온 분야임에도 챗GPT는 이용자 입장에서 개인이 사용할 수 있는 획기적인 서비스로 체감되고 있다. 그러나 학자들은 챗GPT는 아직 ‘완벽’하다고 말할 수 없는 신생기술이자 미성숙한 기술이기에 한계가 존재한다는 점을 잊어서는 안 된다고 강조한다. 현재는 챗GPT의 올바른 사용법을 확대해가며 활용 가능성을 검증하는 단계라는 설명이 이어진다. 최재원(순천향대학교 경영학과) 교수는 “현존하는 챗봇은 시간·경제적으로 장점이 많은 분야지만, 여전히 개선해야할 부분이 많이 존재하는 상태로 챗GPT가 활용되고 있다는 점을 명심해야 한다”라고 설명했다. 이에 더해 박 교수는 “인공지능 기술의 발전을 지속적으로 모니터링하며 인공지능의 활용 정도와 범위를 확대해 나가야 한다”고 전했다.

댓글 [ 0 ]
댓글 서비스는 로그인 이후 사용가능합니다.
댓글등록
취소
  • 최신순
닫기