2024년 10월 31일 (목)
(녹) 연중 제30주간 목요일 예언자는 예루살렘이 아닌 다른 곳에서 죽을 수 없다.

종교철학ㅣ사상

과학으로 하느님 알기 II: AI와 교회 (6-8) AI의 한계들

스크랩 인쇄

주호식 [jpatrick] 쪽지 캡슐

2023-11-07 ㅣ No.502

[김도현 신부의 과학으로 하느님 알기 Ⅱ] AI와 교회 (6) AI의 한계들 ①


‘의지력’ 가질 수 없는 AI… 이해력 활용을 위한 도구일 뿐

 

 

- 헤라르트 제헤르스 ‘히포의 성 아우구스티누스’. 인간 지성에서 의지는 기억, 이해와 절대 분리될 수 없다는 성인의 견해에 따르면, AI는 결코 인간 지성과 동일시될 수 없다.

 

 

AI는 많은 사람들이 우려하듯이 정말로 인간보다 우월한 존재가 될 수 있을까요? Strong AI의 출현은 과연 가능할 것인가요?

 

이제 AI 자체가 지닌 명백한 한계를 제 나름의 관점으로 몇 가지 살펴보고자 합니다. 이를 통해 ‘AI는 결코 인간이 지닌 능력과 동일하거나 유사하지 않으며, 결코 인간처럼 될 수 없는 근본적인 한계를 지닌 존재라는 점’을 저는 분명히 밝히고자 합니다.

 

이미 자세히 살펴본 바와 같이, AI가 인간보다 기억력과 이해력에 있어서 우월성을 가지는 것이 사실입니다. 하지만 AI는 결정적으로 다음과 같은 심각한 한계를 가지고 있습니다. 바로 의지력(Will)이 없다는 것입니다. 토마스 아퀴나스에 따르면 의지는 ‘이성적 욕구’(Rational Desire)를 의미합니다.

 

적어도 기존의 AI는 인간이 만든 도구에 불과합니다. 따라서 AI는 단지 인간이 명령을 내린 대로 기억하고 학습하고 문제를 해결하는 능력만을 갖고 있을 따름이며, AI 스스로가 어떤 일을 하고 싶어 하는 욕구나 의지를 갖고 있지는 않습니다.

 

혹자는 ‘AI 개발자가 욕구, 의지에 관한 알고리즘을 잘 만들면 AI도 의지력을 가질 수 있지 않을까?’, ‘반복 학습을 통해 의지력과 유사한, 소위 모사된 의지력을 AI가 가질 수 있지 않을까?’ 하고 생각할 수도 있겠습니다. 하지만 인간을 포함한 모든 생명체가 가진 욕구, 의지는 무언가에 대한 결핍 내지는 필요성이 있을 때 생겨나는 것입니다. AI는 배고픔과 갈증, 수면 부족, 피로 등의 결핍이 있을 리 없고, 더 나은 상태로 나아가고자 하는 필요성을 가질 가능성도 없습니다. 실제로는 결핍이나 필요성이 존재하지 않는데도 인위적으로 학습된 결핍과 필요성이 과연 본질적으로 존재할 수 있는지에 대해 우리는 심각하게 질문해야 하겠습니다. 설사 AI가 반복 학습으로 일정 부분 모사된 의지력을 갖게 된다고 하더라도, 이 모사된 의지력은 인간이나 생명체가 선천적으로 타고난 의지력과는 근본적으로 다르다는 점을 우리는 받아들여야 할 것입니다.

 

바로 이러한 AI의 의지력 부재는 AI가 결코 인간과 동일한 존재가 될 수 없음을 보여줍니다.

 

아우구스티누스 성인의 「삼위일체론」(De Trinitate)에 따르면, ‘기억(력)’(Memoria), ‘이해(력)’(Intelligentia), ‘의지(력)’(Voluntas) 이 세 가지가 인간 지성(Mens)의 삼중 구조에 해당합니다.(「삼위일체론」 10.11.17)

 

이 세 가지는 (마치 삼위일체가 그러하듯이) 존재로는 하나이고 관계로는 셋입니다. 곧, 이 세 가지는 (마치 삼위일체가 그러하듯이) 서로 구별되는 관계이면서 또한 분리될 수 없는 하나인 특성을 지니고 있습니다. 여기에서 하나라는 것은 그것들이 모두 지성이기 때문이며, 셋이라는 것은 각각이 다른 것과의 관계 안에서 기억, 이해, 의지라고 불리기 때문입니다.(「삼위일체론」 10.11.18) 결국 인간의 지성은 지체의 기억, 이해, 의지에 있어서 하느님 삼위의 모상입니다.(「삼위일체론」 10.12.19)

 

이탈리아 피렌체의 메디체아 라우렌치아나 도서관에 소장돼 있는 아우구스티누스 성인의 「삼위일체론」.

 

 

“그러므로 이 셋, 곧 기억·이해·의지는 세 개의 생명이 아니고 하나의 생명(Una Uita)이며, 세 개의 지성이 아니고 하나의 지성(Una Mens)이며, 따라서 의당 세 개의 실체가 아니고 하나의 실체(Una Substantia)이다. … [이 셋이] 그 자체에 대해서 말하자면 [그 하나하나가] 생명이고 지성이고 존재이다. 그리하여 [이 셋이] 한 생명이고 한 지성이고 한 존재라는 점에서 ‘이 셋은 하나다’(Tria Haec Eo Sunt Unum). … 나는 기억한다. 내가 기억을 가지고 있고 이해를 가지고 있고 의지를 가지고 있음을. 또 나는 이해한다. 내가 이해하고 원하고 또 기억한다는 사실을. 그리고 나는 원한다. 내가 원하고 기억하고 이해하기를. 내 기억 전체와 내 이해 전체와 내 의지 전체를 나는 동시에 기억한다. 내가 기억하지 못하는 나의 기억은 나의 기억 속에 존재하지 않는다. 내 기억 속에 존재하는 것치고 기억 자체만 한 것이 아무것도 없다. 나는 내 기억 전체를 기억한다. 또 내가 무엇인가를 이해하는 한, 내가 이해하고 있음을 나는 알며, 무엇이든지 내가 [뭔가를] 원하는 한, 내가 원하고 있음을 나는 알며, 내가 아는 무엇이든지 나는 기억한다. 다시 말해서 나의 이해 전체와 나의 의지 전체를 나는 기억한다. 이 셋을 이해함과 동시에 나는 [이 셋을] 전체로 한꺼번에 이해하는 것이다. … 그러므로 [셋] 전체도 전부도 각개에 의해서 서로 내포된다면, 각개 전체가 각개 전체와 동등하고, 동시에 각개 전체는 전체로 본 전부와 동등하며, ‘이 셋은 하나요’ 한 생명·한 지성·한 존재다(Haec Tria Unum, Una Uita, Una Mens, Una Essentia).”(「삼위일체론」 10.11.18)

 

인간 지성에서 의지가 기억, 이해와 결코 분리될 수 없는 하나인 특성이라는 아우구스티누스 성인의 이 견해에 따르면, AI는 결코 인간 지성과 동일시될 수 없게 됩니다. AI는 스스로 원할 수 없습니다. AI는 의지를 발휘해서 무언가를 할 욕구가 없습니다. 결국 AI는 단지 인간이 시키는 대로 움직이는 ‘인간의 도구에 불과할 뿐인 것’입니다. 그래서 AI는 ‘인공(적으로 만든) 지성’이 아니라 ‘인공(적으로 만든) 이해력’인 것입니다. 따라서 인간의 지성과 AI는 결코 동일하거나 유사할 수 없다는 중요한 결론에 도달하게 됩니다. 혹자는 Strong AI의 출현을 걱정하지만, 그 AI가 이성적 능력에 있어서는 인간보다 탁월할 수 있어도 선천적인 의지력을 갖추지는 못한다는 근본적인 한계로 인해 인간과 본질적으로 동일시될 수는 없습니다. AI는 이름 그대로 이해력을 최대한 끌어올린 도구일 뿐 인간과 비교할 만한 존재는 아니라는 것입니다. [가톨릭신문, 2023년 11월 5일, 김도현 바오로 신부(대구가톨릭대학교 교수)]

 

 

[김도현 신부의 과학으로 하느님 알기 Ⅱ] AI와 교회 (7) AI의 한계들 ②


AI는 자발적 ‘지적 호기심’ 있을 리 없어… ‘상식’ 판단 능력도 미지수

 

 

- 산드로 보티첼리 ‘성 토마스 아퀴나스’. 의지가 가진 주요한 특성으로서 ‘자유’를 설명한 토마스 아퀴나스 성인의 말대로, 의지력이 없는 AI가 자유롭고 자발적인 지적 호기심과 문제 제기 능력을 가질 수는 없다.

 

저는 지난번에 AI는 결정적으로 ‘의지력’(Will)이 없다는 심각한 한계가 있다고 강조해 드렸습니다. 인간의 지성에서 의지가 기억, 이해와 결코 분리될 수 없는 하나인 특성이라는 아우구스티누스 성인의 견해에 따르면, AI는 결코 인간의 지성과 동일시될 수 없다는 결론에 다다랐습니다. AI는 의지를 발휘해서 무언가를 할 욕구가 없기 때문에, 결국 AI는 단지 인간이 시키는 대로 움직이는 ‘인간의 도구에 불과하다’라고 말씀드렸습니다.

 

AI의 주요 특성 중 또 하나는 지적 호기심, 곧 자유롭고 자발적인 문제 제기 능력을 갖지 못한다는 점입니다. 어린이들의 경우는 어느 순간부터 “이건 왜 이래요? 저건 왜 저래요?”라는 질문을 쏟아내면서 엄마를 괴롭히곤 합니다. 인간은 이렇듯이 자유롭고 자발적인 지적 호기심이 있지만, AI는 그러한 특성을 갖지 못합니다.

 

사실 자유와 자발성은 바로 의지력으로부터 나오는 것입니다. 일찍이 성 토마스 아퀴나스는 「명제집 주해」(Commentum in quattuor libros Sententiarum magistri Petri Lombardi; In Sent.)를 통해, 의지가 가진 주요한 특성으로서 ‘자유’를 설명한 바 있습니다.

 

“의지는, 비록 이러저러한 결정된 대상이 아니라 행복을 자연적으로 욕구하도록 결정되어 있다 해도, 모든 선택의 대상 앞에서 자유롭다.”(In Sent., II, d.25, q.1, a.2) “의지는 최고로 자유로우므로, 거기서부터 의지는 예속 상태로 강요될 수 없다는 데 이르게 된다. 하지만 거기서부터 예속 상태를 따를 수 있다는 것이 배제되는 것은 아니다. 이것은 의지가 자유롭게 죄의 행위에 동의할 때 일어난다.”(In Sent., II, d.39, q.1, a.1, ad3)

 

그렇기 때문에 의지력이 없는 AI가 자유롭고 자발적인 지적 호기심, 문제 제기 능력이 있을 리가 없습니다. 따라서 AI의 지적 능력은 일단 인간 명령에 의해 주입된 데이터에 입각한 학습으로 얻는 내용에 국한됩니다. 그 이상의 확장성은 자발적으로 생겨날 수가 없게 되지요.

 

예를 들어, 알파고는 바둑에만 특화된 AI 프로그램입니다. 만일 알파고에 체스 게임 방식을 주입시키고 역대 체스 게임들의 내용에 관해 반복 학습을 시키면, 알파고는 분명히 체스의 세계 최강자가 될 수 있을 것입니다. 하지만 이것은 알파고 자신이 ‘바둑을 완벽히 정복했으니 이제 슬슬 체스를 정복해볼까?’ 하는 자발적 의지로 체스에 관해 스스로 호기심을 가지면서 학습하는 것이 결코 아닙니다. 알파고가 체스를 학습하게 된다면 이것은 구글 딥마인드의 엔지니어들이 강제적으로 시켜서 그렇게 하는 것일 뿐이죠. 따라서 알파고가 가진 능력인 바둑에서의 기억력, 이해력 및 이성적 판단 능력은 주어진 알고리즘을 따르는 지극히 수동적인 것이며, 자발적 확장성은 없는 명확한 한계를 지니고 있습니다. AI는 단지 ‘인간이 시킬 때 일을 하는 수동적인 도구’에 불과할 뿐입니다. 이 말은 Strong AI가 출현할 가능성을 사실상 부정하는 것이 됩니다.

 

성 토마스 아퀴나스의 「명제집 주해」. 미국 예일대학교의 베이넥 레어 서적 및 필사본 도서관 소장.

 

 

이제 ‘상식’(Common Sense)에 대해 살펴볼까 합니다. 상식이란 한 사회 구성원이 공유하고 당연한 것으로 여기는 가치관, 판단력, 사리 분별 등을 일컫는 말입니다. 인간의 경우는 부모, 학교, 동아리 등을 통해 자신이 속한 사회에서 상식으로 통용되고 있는 내용들에 대해 배우고, 상식에 대한 감각을 키워가며, 상식에 맞게 살아가는 법을 배웁니다. 한 사회에서 상식으로 받아들여지는 것이 다른 사회에서는 상식이 아닐 가능성도 존재합니다. 따라서 상식이라는 개념은 개개인이 속한 사회 집단 고유의 특성으로 이해될 수 있습니다.

 

그런데 AI는 상식이라는 것을 받아들이고 판단하고 이해할 수 있을까요? AI가 상식을 이해하고 학습할 수 있는가에 대해 현재 많은 AI 전문가들이 논쟁 중에 있습니다. 또한 AI가 학습한 내용들 가운데 어떤 것이 상식적이거나 혹은 상식적이지 않은지를 판단할 수 있는지도 아직 의견이 분분한 상태입니다.

 

예를 들어 “쓰레기는 어디에 버려야 하는가”, “식기세척기에서 꺼낸 식기들은 어디에 두어야 하는가” 등의 아주 간단한 질문은 사실 인간이 어린아이였을 때부터 자연스럽게 익힌 상식에 속합니다. 그런데 이러한 질문에 대해 AI가 대답하기 위해서는 예상외로 상당히 많은 사전 지식과 경험이 필요합니다. 10살 정도의 어린이가 쉽게 할 수 있는 별 것 아닌 일조차도 AI가 처리하는 것은 대단히 어려운 일일 수 있다는 것입니다. 그리고 학습된 어떤 지식이 상식인지 아닌지를 판단하는 능력은 바둑판 위의 어디에 바둑돌을 두어야 하는지를 판단하는 이성적 판단 능력과는 다른 차원입니다.

 

만일 AI가 상식이라는 개념과 상식 판단 능력을 학습으로 받아들이게 된다면, 적어도 서구 유럽에 널리 퍼져있는 그리스도교적 문화와 상식이 이슬람 문화권에서 받아들여지지 않는 이유를 쉽게 학습하고 판단할 수 있게 될 것입니다. 만일 AI가 어느 시점에 상식 판단 능력을 갖추게 된다면, 그리스도교 국가의 AI와 이슬람 국가의 AI 사이의 종교적, 문화적 토론과 논쟁이 가능해지게 될 것입니다. 이것은 빅데이터를 입력해서 이루어지는 단순한 반복 학습과는 차원이 다릅니다.

 

하지만 적어도 현재까지는 하나의 지식이 특정 지역, 특정 사회, 특정 종교 집단에서 상식으로 받아들여질 수 있는지를 AI가 판단할 능력이 있는지, AI가 학습을 통해 상식 판단 능력을 키워갈 수 있는지에 대해 아직 어느 누구도 확실한 답을 주지 못하고 있습니다. 이는 AI가 그리스도교 고유의 정체성과 신앙의 내용을 제대로 이해하고 소화할 수 있는지에 대해서 아직 확실치 않다는 의미가 됩니다.

 

그리고 설사 AI가 대단히 높은 수준으로 발전해서 상식 판단 능력을 충분히 갖추어 그리스도교 고유의 정체성과 신앙의 내용을 제대로 받아들인다고 하더라도, AI가 신앙 행위로까지 나아가는 것은 또 다른 문제입니다. 신앙 행위는 결국 ‘의지’가 수반되어야 하기 때문입니다.

 

“믿는 이의 지성은 이성에 의해서가 아니라 의지에 의해서 동의하도록 결정된다.”(assensus hic accipitur pro actu intellectus secundum quod a voluntate determinatur ad unum) [가톨릭신문, 2023년 11월 19일, 김도현 바오로 신부(대구가톨릭대학교 교수)]

 

 

[김도현 신부의 과학으로 하느님 알기 Ⅱ] AI와 교회 (8) AI의 한계들 ③


비판 능력 부재… 자유 의지 없어 선·악 분별도 불가능

 

 

AI와 인간의 가장 큰 차이로 ‘감정’(Emotion)을 들 수 있습니다. 인간과 동물은 감정이 있어서 희로애락을 느끼고 웃거나 우는 등의 행위를 합니다. 하지만 AI는 특정한 학습 알고리즘에 입각한 프로그램이기 때문에 감정이 있을 이유가 없습니다. 다만 감정이 어느 정도 프로그램화되어 눈물을 흘리거나 웃는 등 상황에 따라 인간의 감정과 유사하게 ‘감정 모사’하는 것은 일정 부분 가능할 수 있고, 실제로 여러 공학 분야에서 많은 연구가 진행 중입니다. 하지만 AI가 인간 감정을 유사하게 흉내 내는 것은 인간의 감정 표현과 엄연히 다른 것으로 보아야 할 것입니다.

 

AI와 관련된 또 하나의 중요한 한계로 지적되는 것은 바로 ‘비판 능력’(Ability to Judge)입니다. AI는 자신이 반복 학습을 통해 받아들인 지식 내용에 대해 올바른 것인지 그른 것인지, 이 내용이 사회적으로 정당하게 수용 가능한 것인지 불가능한 것인지 비판할 수 있는 능력이 없습니다. 이 문제에 대해서는 국내외에서 단적인 예가 이미 존재하고 있습니다.

 

미국의 마이크로소프트(Microsoft)가 2016년에 개발한 AI 챗봇 테이(Tay)는 심층 학습 알고리즘을 활용하여 미국 젊은이들과 트위터(Twitter)상에서 대화하는 것을 목적으로 제작됐습니다. 테이는 2016년 3월 23일 트위터 계정을 통해 일반에 공개되었습니다. 그런데 악의적인 트위터 이용자들 가운데 테이에게 자극적인 발언을 가르치려는 움직임들이 생겨났습니다.

 

몇몇 이용자들은 “따라 해 봐”(Repeat after me)라는 말을 먼저 학습시킨 후 부적절한 발언을 그대로 따라 하게 만들어 해당 어휘를 학습하도록 유도하는 방식을 취했습니다. 그들은 테이가 인종 차별적인 용어, 성 차별적인 발언, 자극적인 정치적 발언 등을 말하도록 유도하는 데에 성공했습니다. 테이는 세상에 공개된 지 몇 시간 후부터 홀로코스트는 조작이고, 히틀러는 옳았으며, 유다인을 증오하며, 멕시코인들을 쓸어버려야 하고, 페미니스트들은 지옥에서 불타 죽어야 한다는 등의 상당히 심각한 발언들을 쏟아내게 되었습니다. 이에 마이크로소프트사는 테이 공개 16시간 만에 운영을 중단하고 조정 작업에 들어갔다가, 결국에는 완전히 비공개 처리를 하고야 말았습니다.

 

국내 경우에도 스캐터랩 소속 핑퐁 팀(ScatterLab Pingpong Team)이 개발한 페이스북 메신저 채팅 기반 열린 주제 대화형 AI 챗봇 ‘이루다’가 테이와 거의 같은 이유로 인해 정식 오픈 20일 만에 서비스를 중단하는 일이 발생했습니다.

 

이러한 일이 발생하게 된 이유는 테이나 이루다와 같은 AI가 학습된 특정한 발언이나 가치관이 사실적으로나 도덕적으로 올바른 것인지 아닌지를 판단할 능력을 갖추지 못했기 때문입니다. 테이는 단지 트위터 이용자들이 하는 말을 그대로 배우고 문법을 고려하여 적절히 배열한 문장을 늘어놓기만 했을 뿐입니다.

 

바로 이러한 ‘학습된 내용에 관한 비판 능력’의 부재는 향후 AI의 발전에 따라 일부 개선될 수는 있을지 몰라도, 인간이 지닌 정도에까지 이르기에는 가야 할 길이 너무 멀어 보입니다.

 

앞서 언급된 AI의 ‘학습된 내용에 관한 비판 능력’의 부재 문제와 연관된 것으로, AI의 ‘도덕·윤리적 판단 능력’의 부재 문제를 이제 좀 더 깊이 다루어보고자 합니다. 인간이 지니고 있는 도덕·윤리적 판단 능력은 무엇이 선한 것이고 무엇이 악한 것인지를 분별할 수 있는 인간 고유의 감각 또는 양심(Conscientia·인간에게 선과 악에 대해 알려주는 판단)으로부터 생겨나는 것으로 흔히 여겨집니다. 하지만 AI는 이러한 선악 분별 감각이나 양심을 가지지 못한 것으로 보입니다.

 

악(Malum)을 ‘선의 결핍’(Privatio Boni)으로 보는 성 아우구스티누스에 따르면, “악은 본질적으로 무질서 곧 하느님으로부터 등 돌림과 피조물들을 향해 돌아섬, 최고선으로부터 멀어져 하위의 선들에 집착하는 데에 있다. 그러한 무질서의 유일한 원인은 ‘자유재량’이다. … 모든 악에 앞서 의지의 도덕적 무질서가 있다. 질료적 무질서, 물리적 악도 도덕적 무질서로부터 나온다.”

 

또한 토마스 아퀴나스에 따르면, 도덕적으로 악한 행위(culpa) 또는 도덕적 악은 악한/나쁜/잘못된 행위 혹은 질서를 벗어난 행위가 ‘의지’로부터 비롯된 행위, 곧 ‘의지적 행위’(Voluntarium)인 경우로 정의됩니다.

 

그런데 우리가 이미 앞에서 살펴본 바와 같이 AI에게는 자유와 의지가 없기 때문에, AI는 악을 알거나 경험할 수 없습니다. 따라서 AI는 악을 이해할 수 없고, 선과 악을 분별하는 것 역시 불가능한 것입니다.

 

결국 AI에게는 세상 모든 사건들을 선과 악의 구별 없이 받아들이고 기억하고 학습할 따름입니다. 따라서 AI는 탁월한 이성적 판단 능력이 있음에도 불구하고 자체적인 도덕·윤리적 판단 능력은 없는 것으로 봐야 할 것입니다.

 

그러다 보니 AI를 법학 분야에 적용할 경우 어느 인간보다도 AI가 공정한 판결을 할 수는 있겠지만, 그 판결은 선과 악에 대한 감각 및 도덕·윤리적 판단 능력으로부터 나오는 것이 아니라 법률 및 판례들에 관한 엄청난 양의 반복 학습으로부터 얻은 법리적 논리의 결과일 뿐입니다. [가톨릭신문, 2023년 12월 3일, 김도현 바오로 신부(대구가톨릭대학교 교수)]



74 0

추천

 

페이스북 트위터 핀터레스트 구글플러스

Comments
Total0
※ 500자 이내로 작성 가능합니다. (0/500)

  • ※ 로그인 후 등록 가능합니다.

리스트