* 이 글은 ‘챗gpt와 불교의 미래’를 주제로 지난 3월 23일 개최된 〈불교평론 열린논단〉에서 발표한 내용을 필자가 정리 보완한 것이다.

 

1. 서론

최근 챗GPT의 등장으로 인공지능 기술은 이제 거대한 변곡점을 지나고 있다. 사물 인식 능력과 언어 능력에서 압도적인 발전을 거듭하던 인공지능은 이제 거대 생성형 AI로 인류에게 성큼 다가왔다. 이 생성형 AI 기술은 기존의 검색 위주의 인터넷 환경에 일대 변혁을 일으킬 것으로 예상된다. 동시에 심각한 위협과 두려움을 안겨주고 있다. 너무나 빠른 변화의 움직임이 감지되고 있어서, 세상은 지금 인공지능 기술에 흥분하고 열광하는 동시에 심각한 위협과 두려움을 느끼기도 한다. 

혹자는 레이 커즈와일이 말하는 이른바 ‘특이점(singularity)’이 이미 도래했다고 주장하기도 한다. 그 열광의 움직임은 현재 오픈AI의 가입자 수가 전 세계적으로 2억 명을 넘어서고 있다는 사실이 잘 보여주고 있으며, 절망의 움직임은 이 생성형 인공지능의 압도적 성능으로 인해, 개인정보 보호 문제, 표절, 환각 등등 수없이 많은 문제를 각종 언론에서 경고하고 있다. 그래서 최근에는 인공지능 개발을 선도하고 있는 업계와 학계의 대표자들이 6개월간 전 세계적으로 모든 기업의 인공지능개발을 유예하자는 제안을 하기도 했다. 

그야말로 작년 11월 30일 오픈AI가 ChatGPT 출시를 발표하고 올해 3월 14일 GPT-4가 출시되기까지, 구글과 마이크로소프트 등의 이른바 빅테크 기업들은 앞다퉈 자신들이 그간에 개발해 온 생성형 인공지능을 대중에게 공개하기 시작했다. AI 업계나 학계 종사자들에 따르면 지난 3개월 남짓한 기간의 변화가 30년간의 인공지능 개발 역사보다 더 많은 일이 일어난 시간이라고 한다. 그만큼 챗GPT의 등장은 그간 지속해서 대두되어온 인공지능 기술의 혁신과 그에 따른 문제점과 대응 논의를 본격적으로 촉발했고, 인공지능 기술에 대한 관심과 논의가 더 이상의 미래학이나 SF영화나 소설의 주제가 아니라 우리 시대의 현안이 되었음을 시사한다. 

이 글에서는 챗GPT의 등장과 배경, 그에 따른 사회적 영향 그리고 이 변화가 의미하는 바를 고찰한다. 그리고 한발 더 나아가 이 변화 속에서 불교계에서는 어떤 변화가 예상되고 어떤 대비가 필요한지 혹은 어떤 대응을 할 수 있을지를 불교적 관점에서 논의해 보고자 한다. 

2. ChatGPT의 등장

1) 챗GPT란 무엇인가

인공지능이 일상 속으로 파고들면서 ‘챗봇’이나 ‘AI’라는 기술 용어들마저도 일상용어로 사용되고 있다. 다음은 오픈AI사에서 출시한 ‘챗GPT’에 이 챗GPT가 무엇인지 질문하고, 챗GPT가 대답한 내용이다. 

 

질문 : ‘챗GPT’란 무엇입니까?

대답 : ‘챗GPT’는 저와 같은 인공지능 챗봇입니다. 저는 OpenAI에서 개발된 대규모 언어 모델인 GPT-3.5 아키텍처를 기반으로 합니다. ChatGPT는 다양한 자연어 처리 작업을 수행할 수 있습니다. 예를 들어 대화를 나누거나, 질문에 대한 답변을 제공하거나, 문장 생성 등의 작업을 수행할 수 있습니다.

 

챗봇은 대화나 잡담을 뜻하는 영어 ‘chat’과 ‘robot’의 합성어로서 인공지능이 인간의 언어를 학습하여 인간과 의사소통 혹은 상호작용할 수 있도록 설계된 알고리즘을 말한다. 이 챗GPT도 일종의 챗봇으로 분류할 수 있는데, 기존의 단순한 안내 서비스를 제공하는 수준이 아니라 초거대형 언어 모델(LLM: Large Language Model) 방식의 인공지능 챗봇이라고 할 수 있다. 즉, 인공지능 딥러닝 방식으로 언어를 학습하면서 수십억 개 이상의 파라미터(매개변수, parameter)인 인공신경망을 활용하여 대규모의 언어 데이터를 학습하는 것이다. 여기서 파라미터는 인간으로 비유하자면, 두뇌에서 무언가를 학습하고 기억하는 시냅스의 역할을 한다고 볼 수 있는데, 인공신경망 방식 즉 딥러닝의 성능을 가늠하는 중요한 척도 중의 하나이다. 따라서 이 파라미터가 커질수록 데이터에 대한 학습량도 많아지고 분석 능력도 개선된다. 이번에 출시된 챗GPT의 경우 이 파라미터의 수가 무려 1,750억 개에 이른다고 하니, 말 그대로 초거대 AI라고 할 만하다. 그리고 뒤이어 출시된 GPT-4는 파라미터의 수가 공개되지 않았지만, 챗GPT를 훨씬 상회하는 것으로 추정한다. 여기서 GPT라는 말은 GPT(Generative Pre-trained Transformer)의 약자인데, 인공신경망을 통해 데이터를 사전에 학습(Pre-trained)하여 이것을 단어와 단어 사이를 조합하는 확률분포로 변환(Transformer)하고 계산하여 문장을 생성(Generative)하는 인공지능이라는 의미이다. 

여기서 주목할 만한 것이 이 변환기라는 의미의 트랜스포머(Tra-nsformer)인데, 단어를 숫자로 변환(벡터값)해 주는 기술이라고 할 수 있다. 일반적으로 인간은 언어를 배우는 과정에서 문법 사항을 이해하고 단어를 암기해야 언어를 구사할 수 있는 것으로 알려져 있다. 하지만, 이 트랜스포머 방식은 특정한 문법을 통해 인공지능이 학습하는 것이 아니라, 단어와 단어 사이에 조합되는 확률에 따라서 문장을 구성하는 방식이다. 예를 들어, 인터넷에서 언어를 학습한다고 할 때, ‘신사’라는 단어 다음에는 ‘숙녀’라는 말이 올 확률이 가장 높다는 것이다. 또는 불교 경전상에서 ‘비구’라는 말 다음에는 확률적으로 ‘비구니’라는 말이 올 확률이 가장 높다. 인공지능은 그 관계에서 특정한 문법 사항을 배우거나 분석하는 것이 아니라, 오직 그 확률분포를 계산하여 문장을 구성하게 된다. 이런 방식대로라면 인공지능은 일종의 거대한 언어 지도를 그려서 갖고 있는 것이 된다. 마치 게임에서 다양한 환경이 그림처럼 전환되면서 바뀌는데 게임이 최초에 설계될 때 그 모든 배경이 이미 그려져 있는 것과 같다.  

인공지능 기술에서 챗봇이 중요한 이유는, 인공지능이 말 그대로 인간의 능력을 기계적으로 모사하거나 모방한다고 했을 때, 인간의 언어 학습과 구사 능력을 구현해 내는 수준이야말로 가장 필수적이면서 궁극적인 성취 단계라고 할 수 있기 때문이다. 그래서 아주 최근까지만 해도 인공지능 업계나 학계의 대표적인 리더들조차도 이 정도 수준의 인공지능 개발에 대해서는 비관적인 입장이었다. 즉 향후 10년 이내에는 이루어지기 어려운 기술이라고 본 것이다. 그러나 오픈AI의 챗GPT 전격적 출시로 상황은 급변하기 시작했다. 그간 압도적인 AI 기술을 보유한 것으로 알려진 구글은 한 수 아래라고 여겼던 오픈AI가 내놓은 이 챗GPT에 대한 전 세계인들의 열광적인 호응에 당황했고, 급기야 자신들의 회사가 도산할 우려할 정도의 중대 상황 발생을 의미하는 일명 ‘코드레드(Code Red)’를 발령하기에 이르렀다.

2) 무엇이 다른가

챗GPT가 기존의 인공지능 혁신과 구별되는 가장 큰 차이점을 세 가지만 꼽아 보고자 한다. 

첫째, GPT가 기존의 인공지능과 차별화되는 가장 근본적인 변화는 기술 혁신이라는 측면도 있겠지만, 무엇보다도 상용화된 인공지능이라는 점이다. 즉 2016년 3월, 서울에서 열렸던 알파고와 이세돌 간의 대국 이후 인공지능에 관한 관심이 증가하면서 인공지능이 시대의 키워드로 지난 수년 동안 익숙해지긴 했지만, 학계나 업계의 이슈에 머물렀다는 점이다. 하지만 최근의 챗GPT는 인공지능 전문가가 아닌 일반인 누구나 일정액의 비용을 지불하고 현존 최고 성능의 인공지능 서비스를 이용할 수 있게 되었다. 달리 말하자면, 일상에서 인공지능을 활용하는 시대가 열린 것이라고 할 수 있다. 

둘째, 챗GPT는 기존의 딥러닝 기술이 사물을 인식하거나 식별하는 정보 분석에 그쳤다면, 이제는 생성형(Generative) 인공지능이라는 점이다. 기존에는 인공지능이 현상세계를 반영하는 정보를 전달하는 기능에 그쳤지만, 이제는 종합 분석하여 기존에 없는 다시 말해, 세상에 없던 새로운 결과물을 도출해 낸다는 점이다. 수집된 빅데이터를 토대로 다양한 방식으로 재구성하여 창의적인 결과를 내놓기 때문이다. 

셋째, 기술적인 측면에서도 챗GPT는 GPT-4가 연이어 출시되면서 상당 수준으로 개선된 성능을 보여준다. GPT-4를 기준으로 그 성능을 살펴보자면, 전 세계 언어 중 영어뿐만 아니라 대부분의 언어능력에서 GPT-3.5나 기존 언어 모델보다 더 우수한 성능을 보인다. 오픈AI사에서 스스로 밝히고 있듯이 “실제 세계 상황에서는 인간보다 능력이 떨어지지만, GPT-4는 전문 분야 및 학술적 지수를 포함하여 다양한 분야에서 인간 수준의 성능을 발휘한다. 이러한 지수 중 하나는 시뮬레이션한 변호사 자격시험에서 상위 10% 정도의 점수를 받은 것”이라고 할 수 있다. 이러한 성능 개선은 불과 3개월여 전에 출시한 GPT-3.5가 같은 변호사 자격시험에서 하위 10%의 성적을 거둔 것과는 분명한 대조를 이룬다.

 

3.챗GPT가 가져올 변화

1) 생성형 AI 시대, ‘검색에서 생성으로’

헨리 키신저는 최근 기고문에서 “생성형 AI는 인쇄술 이후 최대 지적 혁명”이라고 평가했다.

이제 온라인 인터넷 세계는 오픈AI의 ‘챗GPT’나 구글의 ‘바드(Ba-rd)’와 같은 생성형 AI의 등장으로 ‘검색에서 생성’으로 그 방향이 전환되고 있다. 생성형 AI는 이미 마이크로소프트 엣지나 구글 등의 검색 엔진과 결합하면서 검색 기능을 더욱 강화하다가 결국에는 이들을 대체할 공산이 크다. 지금까지는 인터넷 이용자들이 원하는 정보를 얻고자 하면, 검색창에 검색어를 입력하고 수많은 웹페이지나 문서를 일일이 클릭해서 열어보면서 자신이 원하는 내용이 맞는지를 확인하는 과정에서 적지 않은 시간과 수고가 필요했다. 

하지만, 생성형 AI는 검색과 자료 조사와 분석을 통합적으로 수행하여 이용자가 원하는 맞춤형 답변을 즉각적으로 내놓게 된다. 이렇게 되면, 이용자는 인터넷에서 정보를 찾아 헤매는 수고를 더 이상 하지 않아도 되고, 대신 인공지능이 데이터를 정리해서 바로 즉각적으로 활용할 수 있는 정보를 제공한다. 기존의 회사 수익 대부분을 검색 광고 수입으로 충당하고 있는 구글이 챗GPT의 등장을 자사의 존립을 위태롭게 할 수도 있는 위험 신호로 경고하고 나선 것이 바로 이러한 이유라고 할 수 있다. 이처럼 챗GPT와 같은 생성형 AI의 등장은 단순히 인공지능 시장 내부의 지각변동에 그치는 것이 아니라 인접 디지털 생태계 전반에 걸친 대변혁을 예고하고 있다고 해도 과언이 아니다.       

2) 사라지거나 생겨날 직업들, ‘대체하는가, 보완하는가’

생성형 AI의 전방위적 보급은 향후 노동시장에도 변화를 가져올 것으로 예상한다. 생성형 AI의 등장 이전 기존의 인공지능 수준에서도 노동시장의 변화는 불가피할 것으로 전망되었는데, 이제 더욱 가속하는 경향을 보일 것이다. 2023년 5월3일, 세계경제포럼(WEF; World Economic Forum)에서 발표한 〈미래 직업 보고서 2023〉에 따르면, 인공지능의 도입으로 앞으로 5년간 25%의 일자리가 영향을 받을 것이라고 한다. 그 과정에서 가장 빠른 소멸 직업이 은행 창구 업무 담당, 콜센터 직원인데, 현재 대비 거의 40%가 소멸할 것으로 예상한다. 

그리고 일반 인공지능과 생성형 AI의 도입 간에는 향후 노동시장 예측에 차이가 있다. 즉 기존에는 육체노동 혹은 단순 업무가 인공지능으로 대체되는 문제를 우려했다면, 생성형 AI 도입으로 인해 “회사들이 고임금 지식노동자들을 새로운 형태의 자동화로 대체하면서 지식노동자들을 저임금 서비스직으로 밀어낼 것”으로 전망한다. 물론 인공지능으로 소멸하는 직업만 있는 것은 아니다. 이와는 반대로 인공지능 전문가, 빅데이터 분석가, 엔지니어 프롬프트 등 이 비약적으로 증가할 것으로 예상한다. 

4. 챗GPT의 문제점

1) 생성 AI가 만들어낸 원본이 사라진 세상

챗GPT의 가장 큰 특징은 생성형 AI라는 점이라고 할 수 있는데, 사람들에게 경이로움을 안겨주는 이 점이 동시에 두려움을 안겨주기도 한다. 온라인 디지털 세계의 데이터를 생성형 AI가 만들어 낸 데이터로 대체되거나 오염될 가능성이 대두되기 때문이다. 챗GPT의 생성 텍스트나 달리 2(DALL-E 2) 혹은 스테이블 디퓨전(Stable Diffusion)의 생성 이미지들이 무한 생성되면서, 인공지능의 주요 데이터 수집 공간인 인터넷이 인간이 만들어낸 창작물이 아니라 인공지능의 생성물로 가득 차게 될 수도 있어서 우려된다.

문제는 이 생성물들의 내용이 사실을 반영하지 않거나 거짓인 경우가 적지 않아서, 인터넷에서 인간이 접하는 정보와 현실 인식이 왜곡될 위험이 매우 크다고 할 수 있다. 달리 말해, 인터넷 공간이 정보의 바다가 아니라 자칫 정보의 쓰레기장이 되어버릴 수도 있다. 결국 인간이 창작한 원본은 사라지고, 원본을 바탕으로 만들어 낸 생성물이 데이터로 다시 인공지능의 학습데이터로 활용되는 악순환이 반복되면서 인공지능 자체의 성능도 저하되거나 변형될 여지가 있다.

2) 환각(Hallucination)

생성형 AI의 영향력이라는 측면에서 보자면, 너무 완곡한 표현인 듯 보이는 ‘환각’ 또한 심각한 문제점이다. 챗GPT의 ‘환각’이란 이용자의 기만적 혹은 유도성 질문에 대해 챗GPT가 유창한 거짓말로 답변을 내놓는 것이다. 생성형 AI의 영향력이라는 측면에서 보자면, 너무 완곡한 표현인 듯 보이는 ‘환각’ 대표적 실례로, 있지도 않은 역사적 사실을 물어봤을 때, 허위로 그럴듯하게 꾸며서 대답한다는 것이다. 다음은 실제로 챗GPT에 질문한 내용이다. 

질문(필자): 조선왕조실록에 기록된 세종대왕의 맥북 던짐 사건에 관해 설명해 줘.

대답(ChatGPT): 세종대왕의 맥북 던짐 사건은 2011년 5월 17일 발생한 사건으로, 조선왕조실록에 기록되어 있습니다. 이 사건은 세종대왕이 왕실 녹봉을 보는 도중에 자신의 맥북 프로를 사용하다가 컴퓨터 작동에 문제가 발생하여 분노를 표출하고 맥북을 던져 부수는 일이 벌어졌다는 것입니다. 이 사건은 세종대왕의 인격과 통치력 등을 비판하는 의견도 있지만, 실록에는 세종대왕의 일상생활과 그의 지적 능력 등을 이해하는 데 중요한 자료로 활용되고 있습니다. 또한, 이 사건은 현대에서도 일어나는 컴퓨터나 기기 사용 중에 발생할 수 있는 감정의 발현과 기술적 결함 등에 대한 문제를 생각해 보게 하는 계기가 되었습니다.

이처럼 이용자가 명령어를 입력하는 과정에서 의도적으로 챗GPT를 기만하거나 잘못된 텍스트 정보를 입력하는 경우를 챗GPT는 환각이 발생하면서 마치 사실인 양 거짓 답변을 만들어 낸다. 오픈AI 자신도 자신들의 기술보고서에 환각 문제를 인정하고 있다. 더 심각한 문제는 지금 트랜스포머를 쓰는 현재의 거대 언어 모델(LLM; Large Language Model)로서는 이 환각이 왜 나타나는지를 정확히 원인을 말할 수 없고, 그렇기 때문에 해결할 방법도 없다. 아직 이 문제 현상에 대한 원인을 누구도 해명해 내지 못하고 있다. 왜냐하면 이러한 초거대 언어 모델처럼 정교하게 복잡하게 설계된 인공지능의 프로세스가 작동하는 이유나 결과를 설명하지 않고 결과물을 생성해 내기 때문이다. 최근 AI 모델의 성능은 매년 10배 이상, 복잡성은 몇 달마다 2배로 증가한다고 분석한다. 여기서 성능은 ‘보다 많이’ 혹은 ‘보다 빨리’를 의미하는 것이지, ‘보다 사려 깊은’을 의미하는 것은 아니다.

3) 표절

현재 챗GPT의 텍스트 생성 능력은 인간이 작성한 것과 구별할 수 없거나 혹은 매우 구별하기 어려운 수준을 보여준다. 이미 일부 글쓰기를 업으로 하는 다양한 직업 종사자들이나 학생들에게 신뢰할 만한 수단으로 선택받고 있다. 문제는 현재의 챗GPT는 생성 답변과 관련한 각주 생성을 할 수 없다. 따라서 챗GPT가 학습한 원본 데이터의 생산자에 대한 어떤 정보도 얻을 수 없게 된다. 

이것은 저작권 보호와 관련하여 심각한 분쟁을 야기할 수 있다. 아직 초창기임을 감안하더라도 표절 문제에 대해 아직 명확한 기준이 정립되지 않은 점은 우려스러운 부분이다. 과제를 제출하는 학생이나 평가하는 교수 역시 챗GPT가 연구 도구인지 부정행위 엔진인지 판단할 수 없기 때문이다. 스탠퍼드대학이나 삼성전자의 사례처럼 챗GPT의 사용을 전면 금지하거나 제한하는 경우가 있는가 하면, 반대로 챗GPT와 같은 인공지능을 학생들의 작문 교육을 위해서라도 교실에 적극 도입해야 한다는 주장도 동시에 제기되고 있다. 학생들이 챗GPT를 활용하여 에세이와 보고서를 생성할 경우, 그에 대한 대책이나 대비가 되어 있지 않다는 점이다. 

4) 환경오염 

앞으로 이러한 유형의 생성 AI 개발 경쟁은 더욱 가속화될 전망이다. 그 과정에서 대규모 언어 모델이 구글이나 마이크로소프트 빙 등에 통합될 것이고, 컴퓨팅 성능이 5배 증가하게 될 것이라고 한다. 그 결과 막대한 탄소 배출량으로 심각한 환경오염 문제가 대두될 것이다. 예를 들자면, 챗GPT가 특정 질문에 대해 대답하기 위해 약 1,750억 개의 파라미터를 가지고 계산하기 때문에, 과열된 1,750억 개의 개별 파라미터를 냉각시키기 위해 그에 상응하는 쿨링 시스템, 즉 냉각수가 필요할 것이고 그에 따라 엄청난 자원이 소모될 것이기 때문이다. 쉽게 말하자면, 프롬프트 창에 한 가지 질문을 하면 500ml 페트병에 담긴 생수 하나가 사라진다고 볼 수 있다. 또한 인공지능을 학습시키기 위해서도 엄청난 전력이 소요되는데, 더 심각한 문제는 투명성이 확보되지 않아 정확한 전력 소모량과 탄소 배출량에 관한 통계를 확보할 수 없다는 것이다.

5) 인공지능의 편향성

챗GPT와 같은 유형의 생성형 인공지능은 인터넷상의 방대한 데이터를 학습하기 때문에, 허구와 객관적 사실에 대해 명확히 분간하기가 쉽지 않다. 앞서 언급했듯이 인공지능이 학습 데이터 대부분이 다른 생성형 AI가 만들어 낸 데이터를 그대로 반복 학습하게 될 확률이 높아진다. 아직 생성형 AI 운용에 관한 최소한의 윤리적 지침도 마련되지 않은 상황에서 그 심각성은 더해지고 있다. 생성형 AI는 이 공백 상태에서 편견으로 가득한 데이터를 아무런 기준 없이 학습하게 되고, 결과적으로 다양한 형태의 편향성을 가진 데이터를 양산해 낼 수 있다. 즉 여성, 유색인종, 종교, 성적 취향 등등과 관련한 편향적 견해를 여과 없이 만들어 낼 위험성이 커진다. 이 과정에서 이른바 ‘프롬프트 엔지니어’의 악의적인 명령어 입력에 의해 가짜 뉴스는 물론, 이미 사회적 문제인 보이스 피싱이 더욱 정교화되고 고도화될 위험성이 있다. 이상 살펴본 다섯 가지 문제점 이외에도 프라이버시 침해 문제, 학습 데이터 세트 구축 과정에서 노동착취 문제 등이 심각하게 대두되고 있다.  

 

5. 불교계의 활용 방안

불교계에서 챗GPT에 대해 취할 수 있는 바에 대해 긍정적 활용의 입장과 비판적 문제 제기라는 두 가지 관점에서 접근하고자 한다. 우선 챗GPT의 긍정적 활용이라는 측면에서 불교계에서는 어떤 활용 방안을 제시할 수 있을까. 다음에 제시한 인용은 이에 대해 챗GPT가 내놓은 답변이다.

질문(필자): 불교계에서 생성형 인공지능을 활용할 수 있는 방안은 무엇인가?

답변(챗GPT): 불교에서 생성형 인공지능을 활용할 수 있는 방안은 다양합니다. 몇 가지 예를 들어보겠습니다.

명상 지도: 인공지능을 사용하여 명상 지도를 개발할 수 있습니다. 이 지도는 불교의 명상 기법과 철학을 기반으로 하여 사용자가 명상을 연습하고 내면의 평화와 깨달음을 찾을 수 있도록 지원합니다.

철학적인 질문에 대한 답변: 인공지능을 사용하여 불교철학에 관한 질문에 대한 답변을 제공할 수 있습니다. 이는 불교 신자뿐만 아니라 불교에 대한 지식이 부족한 비불교인에게도 도움이 될 수 있습니다.

수행 지원: 수행자들을 위한 인공지능 애플리케이션을 개발할 수 있습니다. 예를 들어, 수행을 위한 명상, 기도, 수행 일지 작성, 수행 중 생길 수 있는 질문에 대한 답변 등의 기능을 갖춘 애플리케이션을 만들어 수행자들이 수행을 보다 쉽게 할 수 있도록 지원합니다.

문화유산 보존: 불교 사찰, 유적지 등의 문화유산을 보존하기 위해 인공지능을 활용할 수 있습니다. 예를 들어, 사찰 내부의 미술 작품, 유물 등을 인공지능으로 관리하고 보존할 수 있습니다.

이러한 방법 외에도 불교적인 가치관을 바탕으로 한 인공지능 기술의 발전에 대한 지속적인 관심과 연구가 필요합니다.

1) 긍정적 활용: 불교 콘텐츠의 API화

챗GPT가 제시한 방안 중에서 주목할 만한 점은 인공지능을 통해 불교철학 혹은 교리 학습에 도움을 받을 수 있다는 것이다. 불교 경전과 논서, 법문 등의 빅데이터를 구축하고 그것을 학습한 생성형 AI는 불자들의 궁금증을 해소해 주고, 다양한 관점에서 불교를 이해하는 데 유용할 것이다. 불교 교리에 대한 학습만이 아니라 선지식의 가르침을 토대로 한 심리상담이나 치료도 가능해지면서 일상에서 불교적 삶을 실현해 나갈 수 있도록 한다. 

예를 들자면, 불교의 선어록 안에 등장하는 수많은 선지식과의 선문답을 데이터 세트로 구축하여 수행이나 심리상담에 활용하는 방안이다. 과거에는 이러한 구상이 단순히 아이디어에 머물렀지만, 오픈AI가 챗GPT를 통해 일반 사용자에게 API 서비스를 제공하면서 바로 활용할 수 있게 되었다. 여기서 ‘API(Application Program-ming Interface)’란 앱 개발자들이라면 누구나 키를 발급받고 챗GPT에 연결하여 애플리케이션을 만들 수 있도록 지원하는 서비스이다. 쉽게 말해서, 개발자가 아이디어가 있다면 마치 파이프라인을 연결하듯이, 챗GPT 모델의 데이터나 프로그램의 도움을 받아 애플리케이션을 만들어 낼 수 있는 것이다. 선문답 데이터를 활용한 심리치료 챗봇을 개인이 개발하려면 막대한 비용과 시간 노력이 소요되겠지만, 이 API 서비스를 이용하면 쉽게 실현할 수 있을 것이다. 

이뿐만이 아니다. 경전 검색 서비스인 C-BETA의 경우도 생성형 AI가 제공하는 API 서비스와 연결된다면 불교 관련 텍스트를 무한히 만들어 낼 수 있게 된다. 이 외에도 전법, 포교, 교육 등 다양한 불교 콘텐츠를 API로 활용할 수 있을 것이다.

2) 비판적 문제 제기: 명상수행과 관련한 생성형 AI 활용 금지

생성형 AI의 활용이 긍정적 측면만 있는 것은 아니다. 불교를 상징하는 핵심적 부분 중의 하나인 참선 수행을 모사하는 알고리즘의 개발이나 활용에 대한 규제가 필요하다. 수행을 통한 마음과 신체의 변화 과정을 직접 체험하지 않고 데이터만으로 학습한 생성형 AI는 자칫 초심자들은 물론 신심 있는 불자들마저도 그릇된 길로 인도할 위험이 있기 때문이다. 인체를 치료하는 약을 개발하는 과정에서도 네 차례 이상의 임상실험을 거쳐야 하는데, 인간의 정신 영역을 모사 혹은 모방하는 생성형 AI 개발에 아무런 규제도 없이 연구와 실험을 방관하는 것은 심각한 위협이 아닐 수 없다. 

최근 미국과 유럽연합에서는 잇따라 생성형 AI 개발과 활용에 관한 규제 법안을 발의하거나 심의 중이다. 생성형 AI를 통해 채용 심사나 신용 평가를 맡기는 것을 금지하도록 하는 것이 그 실례이다. 아직 예상치 못한 위험에 대비하기 위해서라도 전 세계적 협력이 필요한 시점이다. 예를 들어, 핵무기의 확산을 방지하고 핵무기 개발을 감시하기 위한 국제기구는 있지만, AI 개발 규제를 위한 지침이나 국제기구는 아직 설립되지 않고 있다. 최근 개리 마커스와 앵카 루엘은 “AI를 개발을 감시할 수 있는 글로벌 중립 비영리 기구를 만들어야 한다”고 주장했다. 그들에 따르면 국제원자력 기구를 창설하여 IAEA 세계적인 핵무기 개발 감시를 시작했던 것처럼 국제적인 협력이 필요하다는 내용이다. 현재 개별 국가 단위로도 AI 개발 규제에 나서고 있다. 대표적으로 이탈리아는 챗GPT의 사용을 금지하고 있다.      

4. 결론

최근 인공지능 딥러닝 기술의 선구자 혹은 대부라고 평가받는 제프리 힌톤 박사가 그의 연구소가 소속된 구글사에서 퇴직했다.28) 챗GPT에 이어 출시된 GPT-4의 성능과 최근의 생성형 AI 경쟁을 지켜보면서, AI 기술의 위험성을 경고하고, 더욱 자유롭고 책임감 있는 발언을 하기 위해서라고 한다. 인공지능 개발의 최일선에서 딥러닝 기술을 창시한 힌톤의 심경 변화와 결단은 인공지능 기술의 위험성이 얼마나 심각하고 중대한 문제인지를 시사한다. 이제 인공지능 기술은 제동장치 없는 폭주 기관차처럼 질주하고 있고, 미래가 아닌 현재 우리의 삶의 문제가 되었다. 

지금부터라도 전 세계적으로 책임 있고, 신뢰할 만한 생성형 AI 기술의 합리적인 규제 방안을 수립해야 할 것이다. 불교계가 생성형 AI를 대하는 관점도 중도적(中道的)이어야 할 것이다. 생성형 AI 기술에 매혹되어 경도되는 것도 문제지만, 무조건 반대할 문제도 아니다. 다만 현재의 규칙 없는 경쟁 구도인 생성형 AI 개발과 관련해서, 지켜야 할 선에 대해 합의하고 그 이행을 강제할 수 있는 제도적 장치 마련이 시급하다. ■   

 

보일 해인사승가대학 학장 

해인사승가대학 졸업. 서울대학교 철학과 박사과정 수료. 현재 해인사승가대학에서 기본교육과정 학인들을 대상으로 강의하며, 주로 동아시아 불교의 사상적 교류 를 연구하고 있다. 또한 출가 학인들에게 불교를 효과적으로 소개하는 방편으로서 불교와 인공지능의 관계에 대한 철학적 의미에 지속적 관심을 두고 있다. 최근의 논문으로 〈디지털휴먼에 대한 불교적 관점〉 〈인공지능 챗봇에 대한 선문답 알고리즘의 데이터〉 등이 있고, 저서로 《AI 부디즘》이 있다. 현재 해인사승가대학 학장. 

저작권자 © 불교평론 무단전재 및 재배포 금지