특집 [인공지능과 개신교 목회의 도전과 기회] > 미주교계뉴스

본문 바로가기

뉴스

[미주교계뉴스] 특집 [인공지능과 개신교 목회의 도전과 기회]

작성일 : 2023-04-28

페이지 정보

본문

[AI의 습격, 교회는]① 챗GPT 열풍에 ‘AI 윤리’ 수면 위로
혐오나 차별, 정보 오류 등 부작용 "AI 윤리 기준·가이드마련해야"


챗GPT열풍 속'AI 윤리'를 둘러싼 논쟁에 불이 붙었다.AI의 윤리의식과 편향된 정보 등에 우려가 커지고 있다.인공지능 시대에 대한 준비는 이제 사회를 넘어 한국교회도 반드시 선행해야 할 과제가 돼버렸다.  AI와 같은 첨단기술이 인간의 자리를 위협하는 오늘날,교회의 역할을 모색하는 한국의 데일리굿뉴스가[인공지능AI의 습격,교회는]이란 제하의 특집 시리즈를 보도했다.

AI활용에 문제점이 존재한다.인공지능이 목회자들의 결정에 미치는 영향이나,목회자들의 자리를 대체할 수 있는지 등이 의문점으로 남아 있기 때문이다.  


목회자들이 주장하는 AI활용의 장점으로는 

1. 인공지능을 활용한 데이터 분석,예측, 자동화 등의 기술을 통해,목회자들은 보다 효율적으로 관리,운영 및 지도를 할 수 있다.2. 인공지능은 사람의 물리적 한계를 극복할 수 있으며,많은 양의 정보를 빠르게 처리하고 분석할 수 있다.3. 인공지능을 활용하면,목회자들은 불규칙한 일정과 급박한 상황에도 신속하게 대처할 수 있게한다.4. 또한, 인공지능은 사람이 감시하는 것이 어려운 물리적 영역에서도 작업을 수행할 수 있다.  

단점으로 지적되는 부분은 

1. 인공지능을 도입하면서,목회자들이 인공지능 기술에 의존해버리고,자연스럽게 신앙적인 부분에서 소홀해질 수도 있다.2. 인공지능이 능동적으로 개입하여 목회에 관여할 경우,이에 대한 윤리적 문제가 제기될 수 있다. 3.인공지능이 너무 많은 일을 처리하다 보면,목회자들 스스로의 가치와 능력을 저하시키는 경우가 있을 수 있다.4. 또한, 인공지능은 컴퓨터에 의해 프로그래밍되기 때문에,인공지능이 예측한 결과가 만약 잘못된 경우,그에 대해 보상할 책임은 누가 져야 할지 불분명해질 수 있다.

결국 칼이 유용하되 칼 쥔 자의 선택에 따라 악이 되기도 하고 선이 되기도 한다는 만고의 진리를 확인시킨다.나쁜 사람은 없다,나쁜 선택만 있을 뿐이다 라는 말처럼 모든 선택에 책임이 따른다.  데일리굿뉴스의 특집, 첫번째 편을 게재하면서 독자와 함께 고민해보고자 한다. (편집자 주)  

---------------------------------

특집 [AI의 습격, 교회는]① 챗GPT 열풍에 ‘AI 윤리’ 수면 위로

혐오나 차별, 정보 오류 등 부작용 "AI 윤리 기준·가이드 마련해야"


넷플릭스 SF영화 '정이'에는 사람인지 인공지능(AI)인지 분간이 안 가는 의사가 등장한다. 사람의 외형과 목소리로 진료하며 진단까지 내린다. 진료를 마치고 전원이 꺼지는 장면에서야 AI였음이 드러난다. 영화 속 AI는 의사의 복제 뇌를 이식한 휴머노이드(사람을 닮은 로봇)인지, AI 딥러닝을 통해 의술을 학습한 휴머노이드인지는 정의하기 어렵다. 분명한 점은 영화 속에나 나오던 'AI 휴머노이드'가 현실에 등장할 날도 머지않았다는 것이다. 


AI는 거의 모든 산업에 적용돼 복잡한 문제를 해결하고, 생산성·효율성 증가, 비용 절감 등 경제적 가치를 창출할 것으로 기대된다. 하지만 그 이면엔 사회·윤리적으로 예상치 못한 부작용이 도사리고 있다.  

최근 주목을 받고 있는 인공지능 챗봇인 '챗GPT'로 인해 윤리 문제가 수면 위로 떠올랐다.

얼마전 미국의 AI 개발사 오픈AI는 초거대 AI 모델을 활용한 '챗GPT'를 선보였다. 챗GPT는 사람이 하는 질문의 의도와 맥락을 이해하며 '꼬리에 꼬리를 무는' 대화가 가능하다. 답변의 정확성도 미국 로스쿨·의사 시험에 합격할 수준에 버금간다.

심지어 챗GPT는 사람처럼 미사여구를 활용한 작문까지 가능하다. 아직은 사람과 같은 창의력과 인지력을 갖췄다고 보기 어렵지만 기술 발전이 거듭할수록 AI가 사람과 흡사해질 수 있다는 게 전문가들의 전망이다. 

챗GPT나 빙 챗봇을 포함한 대화형 AI는 언제나 인간과 대화 과정에서 습득하는 혐오 발언, 인류에 해를 끼치는 정보 전달, 알고리즘의 자각 가능성을 포함한 윤리 문제를 불러왔다.

국내서 AI 윤리 문제가 수면 위로 떠오른 대표적인 사례는 AI 스타트업 스캐터랩이 개발한 AI 챗봇 '이루다' 사태를 꼽을 수 있다. 

2020년 12월 말 '이루다'는 공개와 동시에 이목을 끌었으나 장애인에 대한 차별과 혐오 발언, 개인정보 유출 등의 논란으로 한 달도 안 돼 퇴출된 바 있다. AI 서비스가 개인정보를 오·남용할 위험이 있다는 사실이 사회에 제대로 알려지는 계기가 되기도 했다.

과학계와 전문가들은 기계가 의식을 확립하는 일이 벌어지기 전에 'AI 윤리기준'을 마련해야 한다고 주장한다. AI가 '기술 특이점'에 도달할 경우에 심각한 문제를 야기하기 때문이다. 

기술 특이점이란 AI가 스스로 생각하며 의식을 갖는 단계를 말한다. 

일부 과학자는 AI가 딥러닝 등을 통해 스스로 학습하기 때문에 기술이 발전하면 특이점에 도달할 것이라고 내다봤다. 

기술적 특이점이 본격 시작되지는 않았지만, 이미 생활 여러 측면에 자리 잡은 AI를 고려했을 때 이러한 '잠재적 해악'을 예방할 필요는 있다.

교회도 여기서 예외는 아니다. 인공지능 시대 대비는 한국교회 역시 반드시 풀어야 할 과제로 꼽힌다. 전용 앱으로 소통하고, 빅데이터에 기반해 설교하는 등 이미 교회에도 다양한 형태로 첨단기술이 스며들고 있다. 

특히 몰가치성 등 기술 발전에 따른 윤리 문제가 지속적으로 대두될 것으로 예상되는 만큼 교회의 올바른 제언이 필요하다는 목소리가 나온다. 

박상은 합동신학대학원대학교 생명윤리 석좌교수는 "인공지능에 대한 사회·철학·신학적 질문이 절대적으로 중요해진 시점"이라며 "과학 기술과 이를 견제하는 윤리가 함께 굴러갈 수 있도록 한국교회가 역할을 감당해야 한다. 올바른 가이드라인을 제시하는 데 힘써야 한다"고 강조했다.

한편 교파를 초월해 챗GPT의 목회 활용 가이드라인을 마련해야 한다는 교계의 목소리가 나왔다.

대한예수교장로회(통합) 총회한국교회연구원은 서울 종로구 한국교회100주년기념관 그레이스홀에서 ‘챗GPT의 목회적 도전’을 주제로 정책세미나를 개최했다. 목회에서 챗GPT를 사용할 때 야기될 수 있는 문제를 짚고, 이에 대한 대응 방안을 논의했다.

지난해 말 공개된 챗GPT는 대규모 언어모델에 기초한 대화형 인공지능 서비스다. 기존 인공지능과는 달리 언어에 특화돼, 사람이 하는 질문이나 주어진 단어의 의도와 맥락을 파악하고 가장 잘 어울리는 단어들을 수많은 매개 변수 가운데 선택해 문장을 만든다. 공개 5일 만에 이용자 수가 100만 명을 넘었고, 출시 2달 만에는 가입자 1억 명을 돌파했다.

목회자들이 목회 현장에서 챗GPT를 활용하는 경우도 늘어나고 있다. 목회데이터연구소가 지난 4일 발표한 ‘챗GPT에 대한 목회자의 인식과 사용 실태 조사 결과”에 따르면 목회자의 79%가 챗GPT에 대해 알고 있으며, 47%가 사용한 경험이 있다고 대답했다. 특히 49세 이하의 젊은 목회자 중 54%는 사용한 경험이 있다고 응답했다. 

이는 대한상공회의소가 비슷한 시기에 조사한 일반인들의 사용 경험(33%)을 웃도는 수치로, 목회나 설교에 챗GPT를 활용하고자 하는 목회자의 비율이 높은 것으로 파악된다.

이날 발제를 맡은 김윤태 박사(대전신대 겸임)는 “팬데믹 이후 한국교회는 교인감소와 함께 심각한 일꾼 부족에 시달리고 있다”면서 “이런 위기 속에 챗GPT를 교회 행정이나 전반적인 사무업무에 활용한다면 단순 작업 시간을 대폭 줄이는 데 이바지할 것”이라고 긍정적인 평가를 냈다.

하지만 챗GPT의 오남용과 윤리적 문제도 짚었다. 김윤태 박사는 “인공지능의 딥러닝 과정에서 이단이나 반기독교적인 의도를 가진 자들에 의해 생산된 가짜 뉴스가 대량으로 수집되거나 정확한 출처없이 임의로 생성된 거짓 교리 정보가 챗GPT의 답변으로 제시될 수 있다”며 “챗GPT로 인한 표절, 지적 소유권 침해와 같은 법적, 도덕적 문제도 심각하게 대두되고 있다”고 지적했다.

이어 “챗GPT를 활용한 은밀한 개인 상담 과정에서 개인정보 유출이나 보안 문제가 생기면 목회자나 교인, 교회 전체의 문제로 확대될 수 있다”고 덧붙였다.

실제로 챗GPT는 신앙 상담에도 활용되고 있다. ‘주님AI’라는 프로그램은 신앙적 내용을 질문하면 대답과 함께 관련 성경구절과 기도문을 제시해준다.

김 박사는 그러면서 “교파를 초월해 가장 먼저 시작해야 할 것은 인공지능 활용방안과 윤리적 가이드라인을 만드는 것”이라며 “교단 내부적으로는 각 교단 신학에 근거해 인공지능에 대한 신학적 성찰, 목회적 숙고가 이루어지고 교단 내 지교회에 가이드라인을 제시해줘야 한다”고 제언했다.

 또다른 발제자 장재호 감신대 과학과신학연구소장도 목회자들이 챗GPT 를 가장 많이 활용할 것으로 보이는 설교 준비에 대해서 △편견에 노출될 우려 △본문에 대한 새로운 해석 부족 △설교에 사용된 정보가 틀릴 가능성 △설교의 표절 △이단에 노출될 우려 △성경의 내용이 왜곡될 우려 등이 있다고 꼬집었다.

장 교수는 그러면서 “챗GPT를 활용해 설교나 목회에 적용할 경우, 목회자는 이 사실을 교인들과 솔직하게 공유할 필요가 있다”며 “교인들이 인공지능에 대해 부정적인 생각을 가지고 있을 수 있기 때문에 충분한 사전적 교감이 필요하다”고 조언했다.

댓글목록

등록된 댓글이 없습니다.