사람처럼 학습하고 대화하고… 경계 없는 맹신은 금물
상태바
사람처럼 학습하고 대화하고… 경계 없는 맹신은 금물
  • 한현구 기자
  • 승인 2024.01.10 10:30
  • 댓글 0
이 기사를 공유합니다

AI가 묻고 한국교회가 답하다 (2) ‘창작’의 영역에 발 들인 AI

시꺼먼 열차가 증기를 뿜어대며 맹렬하게 다가온다. 1895년 뤼미에르 형제에 의해 제작된 초창기의 영화 ‘열차의 도착’에서다. 사진이 움직일 수 있다는 것을 상상도 못 했던 당시의 몇몇 관객들은 열차가 실감나게 달려오는 장면에 놀라 극장을 뛰쳐나갔단다. 소문으로만 전해오는 근거 없는 이야기지만 새로운 기술이 사람들을 얼마나 놀라게 하는지 엿볼 수 있는 대목이다.

2022년 11월 말 생성형 AI 챗GPT가 세상에 모습을 드러내자 많은 이들이 극장 밖으로 뛰쳐나갔다. 이전에는 상상하기 힘들었던 인공지능의 발전 속도에 세계는 놀라움을 금치 못했다. 그저 조금 더 똑똑한 컴퓨터로 치부했던 인공지능은 어느새 인간의 능력을 훌쩍 뛰어넘어 그 이상의 자리마저 넘본다.

챗GPT로 대표되는 생성형 AI는 데이터를 인식하고 분석하는 것을 넘어 새로운 결과물을 ‘생성’해내는 것도 가능하다.
챗GPT로 대표되는 생성형 AI는 데이터를 인식하고 분석하는 것을 넘어 새로운 결과물을 ‘생성’해내는 것도 가능하다.

 

생성형 AI, 너는 누구냐

어느새 인공지능의 대표주자로 자리 잡은 챗GPT는 그냥 인공지능이 아니다. 수많은 화제를 몰고 많은 이들에게 충격을 안긴 이분의 존함은 ‘생성형 AI’라 불린다. 단지 ‘생성형’이라는 한 단어가 앞에 붙었을 뿐인데 챗GPT는 기존의 인공지능과는 궤를 달리하고 타의 추종을 불허한다. 대체 무엇이 어떻게 다른 걸까.

넓은 의미에서 인공지능이란 인지, 학습, 추론, 문제 해결 등 인간처럼 인지 기능을 수행할 수 있는 기계 지능을 말한다. 최근엔 이세돌을 이긴 ‘알파고’에서도 들어본 딥러닝 기술, 그리고 자연어 처리 기술을 적용해 어마어마한 양의 데이터를 학습하고 처리할 수 있게 됐다. 컴퓨터에게 고양이 사진을 보여주며 ‘이것은 고양이’라고 알려주면 새로운 고양이 사진을 보여줘도 다시 고양이라고 답한다.

사실 챗GPT로 인해 화제가 됐을 뿐 인공지능은 이미 우리 일상 곳곳에 침투해 사용되고 있다. 얼굴 인식 기능을 이용해 스마트폰의 잠금을 해제하고 내가 기록한 문서를 맞춤법 검사기에 입력하면 틀린 부분을 쏙쏙 찾아내는 것도 인공지능이 있었기에 가능하다. 유튜브에서 내가 선호하는 영상들이 반복해서 노출되는, 일명 ‘알고리즘’ 역시 인공지능의 산물이다.

챗GPT도 인공지능으로서 동일하게 정보를 학습하고 처리하는 임무를 수행한다. 차이점은 학습한 데이터를 바탕으로 새로운 결과물을 만들어낼 수 있다는 점이다. 이것이 챗GPT가 ‘생성형’ AI라고 불리는 이유다. 창작은 인간만의 고유한 성역이라 생각했던 인류의 자존심에 스크래치를 낸 것이다. 궁금한 것을 물어보거나 특정 주제를 주고 글을 써달라고 하면 설교문, 논문, 기사는 물론 소설과 시 한 편까지 번듯이 써낸다.

생성형 AI가 무엇인지는 챗GPT의 알파벳을 풀어 보면 이해가 빠르다. 챗(Chat)은 글자 그대로 대화가 가능하며 소통할 수 있음을 나타낸다. G는 ‘Generative’, 즉 생성으로 단순히 인식하고 결과를 찾는 것을 넘어 새로운 정보를 생성할 수 있음을 말해준다. P는 ‘Pre-trained’, 사전학습으로 사전에 다양한 데이터를 학습했다는 것을, T는 ‘Transformer’로 언어 처리를 위한 고유의 알고리즘을 파악해 다양한 작업을 수행할 수 있도록 설계된 아키텍처임을 의미한다.

발전 속도는 놀라울 정도다. 지난해 3월 출시된 챗GPT 4.0은 미국 변호사 시험과 회계사 시험, 의사 시험에서 모두 상위 10%에 해당하는 성적을 거뒀다. 최근 등장한 버전의 챗GPT는 풍선이 실에 묶여 있는 사진을 보여주며 ‘실을 자르면 어떻게 될까’ 질문을 던지면 ‘풍선이 하늘로 날아간다’고 답한다. 단순히 사진을 보고 무엇이 ‘풍선’인지 인식하는 수준을 넘어 상황과 인과관계까지 파악할 수 있게 된 것이다.

마치 사람과 이야기하듯 대화가 가능하다는 점도 중요한 특징이다. 장재호 교수(감신대 종교철학)는 “챗GPT에 ‘대한민국의 수도는 어디야?’라고 물어보면 ‘서울’이라고 답을 해준다. 그런데 그다음이 중요하다. 다음 질문으로 ‘일본은?’이라고만 물어봐도 이것이 ‘일본의 수도를 물어본다는 것’을 파악하고 ‘도쿄’라는 대답을 내놓는다. 이것이 다른 인공지능과의 주요한 차이점 중 하나”라고 설명했다.

그렇다면 어떻게 챗GPT는 인간이 묻는 질문을 이해하고 적절한 대답을 생성해내는 걸까. 크리스천 GPT ‘ANOKI’ 개발에 참여한 유인철 부대표(셀러스)는 챗GPT를 ‘함수 확률 모델’이라고 정의한다. 챗GPT는 수많은 빅데이터를 학습한 후 가장 확률 높은 단어를 조합해 글을 만들어낸다. 가령 A라는 명사 뒤에 B라는 조사가 가장 많이 결합된다면 A 뒤에 B를 배치하는 식이다. 이렇게 수천억, 많게는 수백조의 단어 중 가장 확률 높은 단어를 고르고 고르는 과정을 반복해 글을 만들어내는 것이다.

현재 생성형 AI는 챗GPT 외에도 구글의 언어 모델을 기반으로 하는 ‘바드’(Bard), 국내 기업 네이버에서 선보인 ‘하이퍼클로바X’(Hyper CLOVA X), 페이스북의 모 회사인 메타(Meta)에서 개발한 ‘라마2’(Llama2), 요청에 맞춰 그림을 그려주는 ‘미드저니’(midjourney) 등이 출시돼 있다.

 

‘전지전능한 척’하는 AI

“전지전능한 챗GPT님께 물어봤습니다.”

퀴즈쇼 포맷을 내세운 인기 유튜브 콘텐츠는 참가자에 대해 소개하기 전에 이렇게 말한다. 물론 뒤에는 엉터리 정보들을 나열하며 풍자의 의미로 쓰이곤 하지만, 어찌됐건 ‘전지전능’이라는 수식어가 어색하지 않을 만큼 챗GPT의 위상은 확고하다. 하지만 챗GPT에게는 ‘전지전능하다’는 수식어보다는 ‘전지전능한 척 한다’는 수식어가 더 어울린다.

챗GPT의 대답은 언제나 자신감이 넘친다. 질문을 던진 지 단 몇 초만에 술술 대답을 읊어대는 모습을 보면 척척박사가 따로 없다. 하지만 깔끔한 문장에 현혹돼 챗GPT의 대답을 곧이곧대로 믿어서는 곤란하다. 챗GPT는 때론 사실이 아닌 얘기를 사실인 양 자신 있게 얘기하면서 정보의 출처도 제대로 밝히지 않는다.

장재호 교수는 “챗GPT는 가장 정확한 답을 제시해주는 것이 아니다. 질문에 해당하는 가장 그럴듯한 답변을 제공해 주는 것이다. 그래서 가끔은 사실이 아닌 정보임에도 사실처럼 말하는, 거짓말처럼 보이는 말을 하는 현상이 발생한다. 이를 환각, 즉 할루시네이션이라고 부른다. 문제는 옳은 얘기를 하다가 간혹 옳지 않은 정보를 섞어서 얘기한다는 점”이라면서 “챗GPT만을 의존하지 말고 자료의 출처를 분명히 확인하려는 노력이 필요하다”고 조언했다.

생성형 AI가 새로운 정보를 만들어낸다고는 하지만 생성의 근간이 되는 것은 결국 인간이 만들어낸 데이터다. 때문에 챗GPT가 학습한 데이터에 편향적인 자료, 차별적 요소가 들어있다면 챗GPT가 내놓는 답변 역시 그 편향성이 반영될 수밖에 없다.

윤리적 문제도 제기된다. AI가 학습하는 데이터에 민감한 정보나 개인정보가 들어갔다 해도 제대로 확인하는 것이 어렵다. 생성형 AI를 쓰는 이용자가 비윤리적 목적과 방법으로 사용할 가능성도 배제할 수 없다. 더불어 챗GPT의 존재로 인해 사람들이 고민하고 사고하는 것을 모두 AI에게 맡겨버릴 수 있다는 우려도 제기된다.

하지만 여러 시선에도 불구하고 결국엔 인공지능을 이용할 수밖에 없다는 것이 전문가들의 중론이다. 이용은 하되, 지혜롭게 사용하자는 얘기다. 초원을 개발한 김민준 대표는 “경계한다고 해서 기술이 반영되지 않을 것도 아니다. 경계를 하는 것은 이해하지만 부정할 필요는 없다. 어차피 도입될 기술이라면 선도해서 지혜롭게 활용하는 것도 방법”이라고 조언했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.