“‘챗GPT’의 찬반논쟁 넘어 올바른 활용법 모색해야”
상태바
“‘챗GPT’의 찬반논쟁 넘어 올바른 활용법 모색해야”
  • 정하라 기자
  • 승인 2023.04.27 18:53
  • 댓글 0
이 기사를 공유합니다

기독교언론포럼‧문화선교연구원, 챗GPT 시대, 목회자와 교회의 과제 모색

설교 한편을 1분도 되지 않아 척척 써내려가는 ‘챗GPT’의 등장이 한국교회에 큰 화두를 던진 가운데, 이제는 챗GPT의 찬반여부 논쟁을 따질 때가 아니라 활용방안을 논의할 때라는 주장이 제기됐다.

한국기독교언론포럼과 문화선교연구원 주최로 지난 27일 필름포럼에서 ‘AI가 묻고 한국교회가 답하다’라는 주제로 포럼이 개최됐다.

한국기독교언론포럼과 문화선교연구원 주최로 지난 27일 필름포럼에서 ‘AI가 묻고 한국교회가 답하다’라는 주제로 포럼이 개최됐다.
한국기독교언론포럼과 문화선교연구원 주최로 지난 27일 필름포럼에서 ‘AI가 묻고 한국교회가 답하다’라는 주제로 포럼이 개최됐다.

이날 발제를 맡은 김동환 교수(연세대 연합신학대학원)는 “챗GPT의 시대가 도래한 가운데, 기술의 근간이 되는 인공지능 기술의 기본 원리이자 알고리즘인 ‘기계학습(머닝러신)’에 있다”며, “인공지능의 기계학습은 인간의 학습 방식을 인공적으로 모방한 학습 방식”이라고 밝혔다.

챗GPT의 기술은 새로운 것을 창조하는 방식이 아닌, 기존에 인간이 쌓아놓은 데이터를 모방함으로써 더욱 많은 데이터에 의지해 결론을 도출하게 된다는 것. 그는 “챗GPT의 근간이 되는 인공지능 기술의 기본 원리를 알게 되면, 이이 기술을 활용할 수밖에 없는 시대가 됐음을 인식하게 된다”며 최첨단 기술의 등장 이후에 일어난 ‘찬반 논쟁’은 무용하다는 뜻을 밝혔다.

코로나19 사태 초기, 교회의 온라인 예배의 찬반 논쟁이 이후에는 무색해졌던 것처럼 이제는 교회가 챗GPT의 올바른 활용방안을 논의할 때라는 것. 이러한 점에서 그는 챗GPT의 활용을 위해 고려해야 할 점을 개인윤리와 사회윤리 측면에서 살폈다.

먼저 개인윤리 차원에서 챗GPT의 활용이 ‘표절’ 시비에 휩싸일 수 있다는 점을 우려했다. 김 교수는 “표절이 문제가 되는 것은 인용해서가 아니라 인용했음을 밝히지 않았기 때문”이라며, “설교나 목회서신, 교회 간행물에서나 챗GPT를 사용했다면, 이를 밝히면서 활용해야 한다”고 전했다.

사회윤리적 차원에서는 챗GPT를 올바르게 활용하기 위해 교회가 사용의 기준이 될 수 있는 ‘챗GPT 활용지침’ 혹은 ‘챗GPT 윤리 규범’을 만들 것을 요청했다. 챗GPT의 사용이 일반화 될 경우 일어날 수 있는 심각한 문제도 있다. 챗GPT는 기계학습을 통해 사전에 훈련되는 기술로서 잘못된 내용의 데이터가 올바른 내용의 데이터보다 더 많이 입력될 경우, 잘못된 데이터에 근거한 결과를 도출하기 쉽다.

김 교수는 “만약 ‘구원’에 관해 기독교 이단에서 엄청난 양의 잘못된 양의 데이터를 인터넷상에 유포시킨다면, 구원에 관련된 질문에 대해 챗GPT가 잘못된 구원관으로 답변할 확률이 높아진다”고 밝혔다.

이를 예방하기 위해서는 올바른 신앙과 신학적인 내용을 더욱 많이 데이터화 시켜 어떻게 인터넷에 지속적으로 입력하고 유포시킬 수 있을지에 대해 고민하고 노력해볼 필요가 있다. 그는 “한국교회 차원에서 협력이 필요할 것이며, 국내를 넘어 국제적 차원에서 각 언어로 이단과 사이비에 대처하는 기독교 데이터 협력사업을 진행해야 할 필요도 있을 것”이라고 전했다.

인공지능이 나날이 발전하는 시대, 목회자가 막연히 챗GPT의 등장을 두려워하기보다 영성을 갖출 것을 요청했다. 김 교수는 “목회 윤리적 차원에서 영성과 도덕성을 갖춘 목회자가 그 어느 때보다 요구되는 시대가 바로 챗GPT의 시대라며, “목회윤리적 차원에서 영성과 도덕성을 갖춘 목회자가 그 어느 때보다 요구되는 시대”라고 말했다.

인공지능(AI)은 사람과 유사한 판단을 컴퓨터가 할 수 있게끔 만든 알고리즘이다. 그러나 여전히 인공지능이 발전함에 따라 야기할 수 있는 문제에 대한 우려가 있다. 특히 윤리적 문제를 포함해 기독교 측면에서 예수님이나 하나님에 대한 잘못된 개념이 전달될 수 있다는 우려가 있다.

박민서 교수(서울여대)는 “인공지능은 기존의 데이터를 학습해서 그것을 바탕으로 한다. 그렇기에 AI가 창의적인 작업까지 만들어낼 수 있는 것은 아니다. 윤리적인 문제가 발생한다고 할지라도 사람에게 공부를 시키듯 AI도 잘 학습시키면 된다”고 말했다.

이어 박 교수는 “우리가 염려하는 AI 시대의 미래도 결국 우리의 손으로 만들어가는 것”이라며, “우리가 잘못 알고 있는 것은 고쳐서 학습하듯 AI 로봇이 설령 말씀을 왜곡하게 학습해 잘못 전달한다면, 이를 바로 잡아주는 것은 사람의 몫”이라고 덧붙였다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.