대한예수교장로회연합회 교회동역자협회  

뉴스

 
작성일 : 23-07-05 09:22  기사 출력하기 글쓴이에게 메일보내기
 

2023년 기독교학문연구회 춘계학술대회 개최


‘기독교인, ChatGPT를 어떻게 볼 것인가?’라는 주제로 열려
ChatGPT 탑재한 인공지능 로봇 목사 등장한다면 한국교회는 어떻게 바라볼 것인가?
banner



지난달 10일 기독교학문연구회, 배재대 교목실·교수선교회가 주최하고 (사)기독교세계관학술동역회가 주관하는 2023 기독교학문연구회 춘계학술대회가 ‘기독교인, ChatGPT를 어떻게 볼 것인가?’라는 주제로 배재대학교(대전광역시 소재)에서 열렸다.
이날 1부 주제강연 4편의 논문은 권오욱 박사(한국전자통신 책임연구원) ‘ChatGPT를 탄생시킨 언어생성 인공지능 기술 동향’, 박해정 교수(연세대 의학과) ‘ChatGPT의 뇌 인지 신경 과학적 함의’, 김정형 교수(연세대 신학과) ‘ChatGPT와 함께하는 종교의 미래’, 고세일 교수(충남대 법학전문대학원) ‘법, ChatGPT와 기독교’라는 주제로 각각 발제했다. 2부 패널토의는 박동열 교수(서울대) 사회로 주제강연자 4명과 패널로는 이성호 교수(배재대), 임상희 박사(기초과학연구원)가 나섰다.
강연에 앞서 김태황 기독교학문연구회 학회장은  개회인사에서 올해가 학회 40주년이라고 하면서 지난날을 회고하기도 했다. 그러면서 “소명을 받은 우리들도 함께 다른 사역자들 못지않게 기독교 학자의 길을 다해야 하지 않겠냐는 생각의 작용과 소명을 깨달았으며, 더욱 중요한 것은 후학, 후배들을 섬기고 발전해 나갈 수 있는 터를 닦아야 된다”고 강조했다. 또한, ChatGPT에 대해 첨단기술의 혁신적인 산물이며, 최근 짧은 기간에 온 세상을 바꾸어 놓을 것만 같은 돌풍을 일으키고 있다고 하면서 그러나 ChatGPT보다 이전부터 성경 자체가 혁신으로 가득 차 있다고 했다. 기독교학자들은 ChatGPT라는 혁신을 어떻게 활용하고, 수단으로 삼으며, 무엇을 주의해야 하고 어떤 영성으로 이끌어야 하는지 그리고 세상 사람들이 환호를 조절해야 하며, 방향 설정의 소명이 있다고 했다.
권오욱 박사(한국전자통신 책임연구원)는 연구원에서 70년간 연구해 왔던 것을 하루 만에 해결하는 매우 뛰어난 ChatGPT에 대해 언어지능을 연구하는 학자로서 견해를 발제했다. 권 박사는 “단순한 학습만으로 입력과 시스템에 저장해 놓았던 것을 출력만 했던 작업들이 초대형 모델 GPT가 개발되면서 작은 모델에 없었던 능력이 큰 모델에서 발현되는 것, 즉 학습하지 않았던 것 수학 문제 추론, 번역 등의 능력에 대한 문제에 다수의 학자들이 GPT가 자아를 가지는 것이 아니냐? 하며 걱정하는 일들이 있다”고 말했다. 그러나 그는 “GPT는 발현하는 것이 아니라 더 잘하는 과정일 뿐이고, 단지 평가 수단에 의해 성능의 차이가 커 보이는 것”이라고 강조했다.
권 박사는 GPT4의 취약점(초거대 언어생성 모델 태생적 약점)을 네 가지로 정리했다. ▲사실성 문제(Hallucination): (원인 1) 초거대 언어모델에서 발현한 추론 능력(하위 목적함수)의 부산물로 창의적으로 뭔가를 생성(학습 목적함수)하고자 함, (원인 2) 학습데이터의 거짓 정보 포함 가능성 ▲편향성/ 개인정보 등 신뢰성: (원인) 학습데이터가 가진 편향성(종교, 성차별, 인종, 직급 등)과 개인정보 및 악의적 정보 포함 ▲정보의 실시간성: (원인) 실시간 추가 학습이 불가능하여 학습 시점의 데이터 정보에 의존 ▲제어성(목적에 맞게 출력 제어, 규범/절차 준수): (원인) 제어할 수 있는 목적 함수가 근본적으로 없음. 그러면서 권 박사는 취약점의 해결방안은 ▲대용량 학습데이터로 학습 및 대용량 신경망 구조로 확장 ▲자동화 연구 필요 ▲학습데이터의 가공/ 관리: 거짓/ 악의적 정보 및 개인정보를 학습데이터에서 제거, 편향성 감소할 데이터 증강 ▲Google BARD, MS BING처럼 문서 검색과 결합하여 정보 실시간성과 사실성 문제 감소 ▲활용 용도 설정 필요: 창의적 업무와 정보 처리 업무 등에 따라 제어 방법 연구 필요 등이라고 했다. 그는 이러한 것에 혜택은 미국이 시스템, 데이터, 기술 독점 우려가 있고, 비숙련 노동자가 업무초기에 도움이 되고 전문가의 도움으로 전문가와 경쟁할 것이며, 전문가와 비전문가의 차이가 줄어들 것으로 전망했다. 그러면서 국내 대응 방안으로는 “한국이 세계 세 번째로 GPT3 개발국가로서 무조건 규제만 하면 미국 등과 같은 나라에 종속될 수 있기 때문에 규제와 법제화할 때 세계 최고라는 생각으로 초거대 모델 수요자 관점만이 아니라 전 세계 3강 공급자 측면에서 접근할 필요가 있다”고 했다. 
그는 인간은 여전히 중요한 노동력을 제공하며 GPT와 같은 기술은 대체제가 아닌 도구에 불가하나, 초거대 모델의 발현 능력에 대한 경이와 두려움은 존재하며, 인간의 1% 정도의 파라미터로 더 많은 정보를 가지는 점은 있으나, 학습 능력이 인간보다는 매우 미약하고 적응 능력은 없다고 했다. 그러면서 인간의 뇌를 살피듯 초거대 언어모델 신경망 패턴 연구가 활발하게 진행되고 있다고 하면서, 인간은 시각 정보 추론, 배운 상태로 새로운 학습, 의심과 호기심, 스스로 학습데이터 선택과 작은 정보로 다른 많은 상황 유추 등 인간의 능력과는 아직 많은 차이가 있다고 했다. 계속해서 현재 AI는 선악과를 딸 수 없을 뿐만 아니라 자아를 가질 수 없기 때문에 공포보다는 어떻게 잘 활용할 것인가가 중요하다고 했다.
박해정 교수(연세대 의학과)는 뇌는 경험을 기반으로 세상에 대한 지식(생성 모델)을 획득하고 갱신하고 있다고 하면서 ChatGPT의 등장으로 생성의 시대에서 자료의 편향이 우리 인간들에 미치는 이슈를 제기했다. 그는 “인간의 뇌와 기계에서 잘못된 세상에 대한 편향된 모델 형성과 편향된 주의 유도로 잘못된 생성데이터를 가지고 다음의 세대의 인공지능 모델을 만든다면 그 세대에 기계와 인간도 오염될 소지가 있다”고 말했다. 또한 ChatGPT 시대에 AI와 인간, 그리고 동물들과의 자리매김과 어느 쪽으로 지향해야 할지가 중요하다고 하면서 AI를 신격화해서는 안 된다고 강조했다.
김정형 교수(연세대 신학과)는 인공지능 시대의 교회에 던지는 질문 ▲인공지능과 함께하는 교회의 미래는 어떤 모습일까? ▲교회는 인공지능을 어떻게 이해하고 받아들여야 할까? ▲교회는 인공지능과 함께하는 어떤 미래를 만들어 가야 할까? 라는 질문을 가지고 신앙인으로서 하나님께서 미래 어떤 계획을 가지고 있는가를 생각하면서 발제한다고 했다.
그러면서 최근에 개발한 중국과 일본에서 불교 로봇 사제 등장과 종교개혁 500주년을 기념하면서 개발한 기독교 인공지능 로봇 사제 등장을 언급하면서 로봇의 설교, 상담, 영적 지도 등 종교영역에 대해 어떻게 생각하는지? 질문하기도 했다. 로봇공학이 발전해서 디지털 휴먼 즉, 최근에 소천한 유명한 목사의 과거 설교 자료, 그 목사의 강의 스타일 등을 비롯한 다양한 정보를 ChatGPT 장착한 인공지능에 빅데이터 입력하여 메타버스 공간과 오프라인상에 새로운 상황에서의 모습으로 등장한다면 한국교회가 어떻게 반응할까? 라고 질문하면서, 흥미로운 것은 소천한 그 목사의 설교는 현재 TV에서 계속해서 방송하고 있는데 오프라인상에 로봇 목사의 모습으로 등장해서 설교하는 것은 절대 안 된다고 말할까? 라는 것을 한 번 생각해 볼 필요가 있다고 했다. 그러면서 그는 인공지능이 함께하는 종교인의 활동, 교회의 모습도 미래에는 달라질 수도 있겠다고 하면서 그런 미래로 가자는 것이 아니고, 바람직한지를 질문해 보면서 그것이 아니면 거부할 수 있다는 취지에서 말하고 있다고 했다.
그는 이에 대한 인공지능을 둘러싼 다양한 이슈들 ▲윤리적 문제 ▲사회적 문제 ▲종교적 문제 ▲철학적 문제 등을 안고 로봇 목사, 주님 AI(하나님과 대화) 등과 같은 많은 앱이 개발된다면 우리들의 종교생활이 어떻게 달라질까 생각을 해보면 인공지능이 관련된 다양한 문제점 등을 무시하고 개발되는 것을 가만히 지켜보고 따라가는 것은 바람직하지 않다고 말했다.
김 교수는 과학기술사회에 있어서 한국교회에 대해 ▲예언자적 비관주의와 소극적 방관주의를 넘어서 ▲맹목적 거부와 무비판적 수용을 넘어서 ▲피조된 공동 창조자로 디지털 세계에 복음을! 이라는 반성과 제언을 했다.
고세일 교수(충남대 법학전문대학원)는 ChatGPT 등과 같은 생성형 인공지능 답변에 대한 오류 및 한계점 등을 열거하면서, ChatGPT를 어떠한 목적에 사용하느냐에 따라서 사회현상은 다르게 나타날 수 있다고 했다. 그러면서 미국에서는 생성형 인공지능이 서비스 측면에서는 질이 떨어지지만 사람 대신 사용하겠다는 것으로 실직이 일어나는 현상과 핵무기 발사 최종 결정권을 생성형 인공지능에 줄 것인가, 사람에게 줄 것인가라는 법안을 논의 중이라고 했다. 또한, 인터넷 댓글에서 인간 판사는 편견이 많기 때문에 공정하지 못해서 인공지능 판사를 도입해야 한다는 주장 및 모든 스포츠 경기 VAR 제도를 도입하면 어떨까요?라는 질문을 던지면서, 인공지능 판사제도를 도입한 나라는 현재 중국과 에스토니아 사례가 있는데 극히 한정된 주차 위반 사건, 양육비 사건처럼 사실관계가 뚜렷한 것에 한정된, 가치판단의 문제가 없는 사건에 인공지능 판사를 사용하고 있다고 했다.
그러면서 현재 인공지능 관련 법령 중에 핵심적으로 논의 중인 것이 자율주행자동차라고 하면서, 사고 시 인간, 자율주행자동차, 자동차 회사 중에서 책임 소재를 인공지능기술자와 일부 법학자들은 제한된 법인격을 두어 책임재산 제도를 도입하여 사람처럼 보자고 하는 전제로 자율주행자동차에 물어야 한다고 주장하고 있다고 했다.
그는 인공지능(AI)과 법 영역에 있어서 핵심적인 영역은 사실상 윤리문제라며 이것을 어떻게 해소할 것인가라고 하면서, 성경적인 관점에서는 하나님의 질서, 하나님 말씀(하나님) 안에 있다고 했다.
법, ChatGPT에 대한 교회의 방향성에 있어서 법 관련 학생들의 책 읽기의 파급 효과를 설명하며, 하나님의 말씀을 가까이하는 것이 엄청난 더 큰 파급 효과가 있을 것이라고 했다.
그러면서 “하나님의 창조질서, 하나님의 법, 하나님의 가르침 속에서 우리는 살아가야 되지 않은가 하면서 지혜의 근본은 하나님이며, 생성형 인공지능은 보조 수단이지 본질은 아니다”라고 강조했다.

편집부

코로나 이후 온라인 사역에 대한 긍정적 인식 늘어나
‘자유민주주의 대한민국’ 규정은 어떤 기독교 이해에 바탕을 둬야 하는지를 묻게 하다