인간의 행복을 AI에게 묻는다


고대 그리스 시대부터 철학자들은 세계와 인간의 본질을 계속 탐구해 왔다. AI를 비롯한 새로운 과학 기술에 의해 사회는 눈부시게 변화해 우리의 가치관도 흔들리고 있다.

그런 시대이기 때문에 인간이 살아가는 방식과 사회의 존재 방식을 탐구하는, 고대로부터의 철학적 질문이 다시 주목받고 있다.


AI가 올바른 윤리관을 지닐 수 있을까?

가까운 미래에 한 지역에서 AI(인공지능)를 탑재한 로봇 의사(AI 의사)가 지역 의료 활동을 도맡아 처리하고 있었다. 어느날 사고를 당해 혼수상태가 된 고령의 남성이 실려 왔다. 한시바삐 수술을 해야 할 상태라고 상상해 보자.

AI 의사가 수술을 시작하려 할 때 똑같은 혼수상태의 젊은이가 실려 왔다면 수술은 한 사람씩만 할 수 있기 때문에 둘 중 어느 한 사람만 할 수 있고, 바로 수술하지 않은 다른 한 사람은 죽는다고 가정해 보자. AI 의사는 어떤 사람을 수술해야 할까?

의견이 나뉘는 공리주의와 의무론

"AI 의사가 '올바른 선택'을 하게 하고 싶지만 원래 인간도 무엇이 옳은지를 항상 알지는 못한다." AI를 비롯한 신기술이 불러올 윤리 문제에 정통한 일본 도요 대학교 문학부 철학과의 마쓰우라 가즈야 교수는 AI 의사의 선택에서 고려할 수 있는 윤리학의 유력한 2가지 사고방식으로 '공리주의'와 '의무론'이 있다.

윤리학은 개인의 살아가는 방식과 선악, 사회의 존재 방식 등을 다루는 철학의 한 분야이다. 공리주의란 행위의 결과로 “사회 전체의 행복이 최대가 되는 것이 선이라는 사고방식이다. 영국의 철학자이자 경제학자인 제러미 벤담이 제창했다. 공리주의로 생각하면 '더 오래 살아 사회에 공헌할 가능성이 높은 젊은이를 구해야 한다'는 결론이 나온다.

의무론에는 몇 가지 유형이 있는데, 그 중에서도 독일의 철학자 이마누엘 칸트의 의무론이 잘 알려져 있다. 칸트의 의무론에 따르면 “행위가 초래할 결과에 관계없이 행위 그 자체의 정당함에 따라 선악을 판단해야 한다.” 단, '사람을 구해야 한다'가 의무의 하나라고 해도 노인과 젊은이 가운데 누구를 구해야 하는지는 가르쳐 주지 않는다.

공리주의와 의무론은 세상의 여러 윤리적 가치관을 설명해 준다. 그러나 모든 것을 설명해 주지는 않는다. 또 실제로 인간이 실행할 수 없는 것도 있다.


가치관이나 규칙의 충돌을 어떻게 처리할까?

마쓰우라 교수는 “AI에 윤리관을 구현할 때는 서로 다른 윤리관이나 규칙이 충돌했을 때 무엇을 우선할까도 정해야 한다"고 말한다.

미국의 SF 작가 아이작 아시모프는 로봇이 따라야 할 3가지 원칙(로봇 3원칙)을 제창했다. 첫째 "로봇은 인간을 다치게 해서는 안 된다.", 둘째로 로봇은 인간의 명령에 따라야 한다.”, 셋째 "첫째와 둘째 원칙에 반하지 않는 한 로봇은 자신을 지켜야 한다"이다.

AI 의사에게 이런 원칙들을 적용시키려고 하면, '주사나 수술은 인간을 다치게 하는데 첫째 원칙에 반하지 않을까?', '사람을 구하기 위해서라면 다치게 해도 좋을까?', '사람을 구하는 행위라고 어떻게 판단할까?' 같은 여러 가지 질문이 떠오른다.

고전적인 로봇 3원칙을 적용해도 어떤 규칙을 따라야 할지를 AI가 적절하게 판단하기는 어렵다. AI에 '올바른 윤리관'을 구현하기 위해서는 해결해야 할 문제가 산적해 있다.


모든 사람에게 '공평한 AI를 만들 수 있을까?

어느 나라에서 국내에서 생산된 식량의 관리와 분배를 AI가 담당하게 되었다. 이 AI는 전 국민에게 공평하게 식량을 분배해야 한다. 나이나 성별, 수입 등이 다른 국민에게 어떻게 식량을 나누는 것이 공평할까?

'공평'의 사전적 의미는 '어느 쪽으로도 치우치지 않고 고름'이다.

모든 사람에게 같은 양의 식량을 나누어 주는 일은 '평등'이라 할 수 있다. 이때 갓 태어난 아기와 한창 자랄 시기의 어린이에게 같은 양의 식량을 나누어 주는 것은 '공평'하다고 볼 수 있을까?

공평에 관한 고찰은 고대 그리스 시대부터 이루어졌다. 고대 그리스의 철학자 아리스토텔레스는 그의 저서 《니코마코스 윤리학》에서 공평이란 무엇인가에 대해 논하고 '분배적 정의'라는 개념을 이야기했다.

'분배적 정의'란 간단히 말하면 공동체의 이익이나 명예, 재산 등은 분배받는 사람의 가치에 비례해 나누는 것이 옳다(공평하다)는 개념이다. 여기서 말하는 가치란 능력이나 업적 등을 가리킨다. 다른 사람보다 많이 일해 남보다 2배의 성과를 냈다면 2배의 보수를 받는 것이 옳은 말이다.

한편 아리스토텔레스는 '시정적(교정적)정의'라는 개념도 제시했다. 예를 들어 사람을 죽이고 타인의 재산을 부정하게 빼앗았다면 빼앗은 재산을 원래 주인에게 돌려주어야 한다는 것이다.

분배적 정의를 기본으로 하고 개별적 인간관계 등으로 생긴 부당한 이익은 시정해야 한다는 아리스토텔레스의 공평 개념은 현대에도 받아들이기 쉽다.

단, 분배의 기준이 되는 '가치'를 어떻게 산정하느냐가 애매하다. 만약 AI에 분배적 정의를 구현했다고 해도 가치의 산정 방법에 따라서는 공평함이 크게 손상될 수 있다.

AI는 사회에 남아 있는 편견을 학습한다

어떤 개념을 채용해도 현재의 AI에 공평함을 구현하기는 어려울 수 있다.

실제로 AI의 편견이 문제가 되는 사례는 여럿 보고되었다. 예를 들어 어느 기업의 채용 시스템에 사용된 AI는 여성보다 남성 구직자에게 높은 평가를 주었다. 그 기업에서는 과거에 남성 구직자(채용자)가 많았기 때문에 남성을 채용하는 편이 좋다고 AI가 판단한 것이다. 이것은 구직자 개인의 능력에 입각한 판단이 아니므로 불공평하다고 할 수 있다.

최근의 AI는 인터넷상에 있는 대량의 데이터를 학습해 여러 가지 지식을 얻는다. 그 결과 과거의 사회적·역사적 과정에 따라 현재의 사회에 생기는, 성별이나 나이, 인종 등에 근거한 편견과 선입관, 신념을 AI가 학습한다.

인간에게도 공평한 판단이 어려운데, 현재와 같은 방식으로 학습하는 AI에게는 공평한 판단이 더 어려울 수 있다. 자동으로 학습하지 않는 구세대 AI에게 판단 기준을 부여하는 쪽이 오히려 공평함을 실현할 수 있을지 모른다. 단, 구세대 AI에게 판단 기준을 부여했다고 해도 누구나 납득할 공평한 기준을 부여할 수 있을지는 역시 어려운 문제이다.


부정을 저지를 수 있는 인간보다 AI에게 정치를 맡기는 편이 좋을까?

국내의 사회와 경제 움직임에 관한 여러 가지 데이터를 분석해 정치적 판단을 할 수 있는 AI 시스템이 개발되었다고 하자. 그 AI는 국민 전체의 이익이 최대가 되는 그런 판단을 내린다. AI는 특정한 개인이나 단체에게 유리한 판단을 내리지 않는다. 또 AI이기 때문에 개인 욕심을 채우기 위해 부정을 저지르지도 않고 거짓말도 하지 않는다.

그런 AI는 이상적인 정치가라고 할 수도 있다. 선거로 선출하는 인간 정치가를 대신해 AI에게 나라의 통치를 맡기는 편이 좋을까?

철학자가 왕이 되어야 한다고 생각한 플라톤

2022년에는 실제로 덴마크에서 AI가 정책을 입안하는 '인공 정당'이 될 정당이 설립되었다. 또 일본에서는 2025년 9월 정치 단체 '재생의 길'의 새 대표가 단체의 의사 결정을 AI에게 맡긴다고 표명했다. AI에게 정치를 맡긴다는 아이디어를 실행에 옮기는 사람들이 세계 곳곳에서 등장하는 상황이다.

아리스토텔레스의 스승인 고대 그리스의 철학자 플라톤은 그의 저서 <국가>에서 철학자(또는 철학을 확실하게 배운 자)가 왕(철인왕)이 되어야 한다고 주장했다. 이것을 '철인정치(철인왕사상)'라고 한다.
플라톤은 민주 정치가 행해지던 고대 그리스의 도시 국가 아테네에서 자신의 스승인 소크라테스가 부당하게 사형을 선고받은 일 등을 보고 다수결에 따른 민주 정치는 때때로 실패하고 불합리한 정치 체제(중우 정치)를 만들 수 있다고 지적했다.

그래서 '선의 이데아(영원불변의 진리)'를 인식하고 무엇이 좋고 무엇이 나쁜지를 절대적 기준으로 판단할 수 있는 철학자가 왕이 되어 나라를 다스리는 것이 이상적이라고 주장했다.

플라톤의 견해는 만약 이상적인 정치를 할 수 있는 전문가가 있다면 그 전문가를 따르는 것이 국민에게도 최선이라는 발상이다. 근대 국가의 다수는 왕정을 채택하지 않았다. 그 이유는 여러 가지이지만 무엇보다 '선의 이데아'를 인식할 수 있는 이상적인 정치 전문가가 오랜 역사에서 등장하지 않았기 때문일 것이다.


국민 전체의 행복을 어떻게 측정할까?

철학과 정치학을 포함한 여러 학문을 학습한 AI 정치가라면 플라톤의 이상에 가까운 정치를 할 수 있을까?

이상적인 정치를 할 수 있는 전문가로서 '공리주의'를 AI 정치가에 구현했다고 하자. 그렇게 하면 나라 전체의 행복을 추구하는 정치를 할 것이다. AI는 공리주의에 입각한 정치를 할 수 있을까?

공리주의에서는 행복의 최대화를 추구한다. 그렇다면 애초에 국민의 행복의 양은 어떻게 재면 좋을까?

여러 정책마다 전 국민에게 설문 조사를 해서 그 정책이 실현되면 각각 어느 정도 행복해지는지(또는 불행해지는지)를 집계하는 방법 등이 떠오른다. 전 국민이 아니라 일부 국민을 골라 통계적으로 처리하면 될 수도 있다. 어느 쪽이든 어떻게 국민의 행복도를 잴 것인가라는 기술적 문제를 해결해야 한다.

어떤 방법으로 행복의 양을 측정해도 애당초 무엇을 '행복'이라 할지는 철학적으로 매우 어려운 문제이다. 사람마다 무엇을 행복이라 생각하는지는 서로 다르기 때문에 통일된 기준을 정하기는 어렵다. 공리주의만으로 정치를 하면 다수의 행복을 위해 효율적인 정치가 실현된다.

한편 소수의 의견은 파묻히기 쉽다. 사회적으로 소수이거나 취약한 사람들이 다수의 행복을 위해 희생될 위험이 있다. 8:2로 의견이 나뉘었을 때 80% 사람의 행복을 위해 20% 사람들이 불행해질 수도 있다. 과연 그런 정치는 괜찮을까?

단순히 'AI가 인간보다 올바른 판단을 내릴 것'이라는 전제 아래 AI에게 정치를 맡기려고 하면 위와 같은 여러 문제가 생길 수 있다. 사회의 틀을 크게 바꾸는 그런 일에 AI 등의 새로운 기술을 사용할 때는 다면적으로 검증해야만 한다.


AI의 판단에 따라 살면 행복한 인생을 살 수 있을까?

저녁 식사로 무엇을 먹을지 같은 일상적인 일부터 진학할 학교나 취직할 직장 등 중대한 일까지 인생에는 여러 가지 결단을 내려야 할 상황이 있다. 선택을 망설일 때 AI에게 상담하면 여러 가지 정보를 집약해 제시하면서 선택에 도움을 준다. AI는 많은 양의 정보를 학습하기 때문에 '오류가 없는' 판단을 해 줄 것 같다. 그렇다면 모든 선택을 AI의 판단에 맡기면 행복한 인생을 살 수 있을까?

행복을 추구하는 3종류 생활 방식

인간에게 행복이란 무엇인가라는 주제는 고금동서의 철학자와 사상가가 다루어 왔다. 여기서는 아리스토텔레스의 《니코마코스 윤리학》의 견해를 알아보자. 아리스토텔레스는 “인생의 궁극적 목적은 행복"이라고 선언한다. 그리고 추구하는 행복의 차이에 따라 사람이 살아가는 방식에는 '향락적 생활', '정치적(사회적) 생활', '관상(觀想)적(관조적) 생활의 셋이 있다고 했다. 여기서는 각각의 생활에 AI가 어디까지 기여할지 생각해 보자.

3가지 생활 방식 중에서 '관상적 생활'이 최선이라고 아리스토텔레스는 생각했다. '관상적 생활'이란 지식을 추구하는 생활이다. AI는 다양한 정보를 가르쳐 주지만, 그 정보가 지식이라 할 수 있을지 없을지는 의문이다. 가령 지식이라고 해도 자신의 지성과 이성을 사용해 얻은 것이 아니므로 관상적 생활방식에는 그다지 AI가 기여하지 않을 것 같다.

'정치적 생활'이란 명예를 추구하는 생활이다. 어떻게 하면 명예를 얻을 수 있을까라는 물음에는 AI가 답해 줄 것 같다. 단 AI의 조언대로 해도 그것은 본인의 의지나 판단이 아니라 AI를 따른 것에 지나지 않는다. 명예는 본인이 아니라 오히려 AI에게 주어질 수도 있다.

AI가 가장 많이 기여할 것 같은 생활 방식은 '향락적 생활'이다. 이 생활은 쾌락을 추구한다. 어떻게 하면 쾌락을 얻을지 AI에게 물으면 여러 가지 일반적인 답을 줄 것이다. 단, 그때 그곳의 상황에 맞게 쾌락을 얻는 방법을 가르쳐 주지는 않을 것이다. 그래서 '성취감에 따른 쾌락'은 결국 자신의 의지로 움직이지 않으면 얻을 수 없다.

자신의 힘으로 행복해지는 방법을 탐구해 왔다

아무래도 인생은 운수 같은 우연과 여러 가지 외적 요인에 좌우된다. 그와 관계없이 인간이 자신의 힘으로 행복하게 살아가기 위해서는 어떻게 살면 좋은지, 어떻게 행동해야 할지, 어떻게 생각해야 하는지 등을 추구해 온 것이 시대/장소를 불문한 행복론이라는 논의라고 생각한다. 그런 의미에서라면 AI의 판단에 따르면 행복해질 수 있느냐는 물음은 행복론의 범위 밖에 있는지도 모른다.

그래도 행복한 인생이란 어떻게 사는 것인가라는 물음은 계속 남는다. 앞서 아리스토텔레스의 행복을 추구하는 3가지 생활 방식을 소개했다.

그 밖에도 신이 특별한 혜택(은총)을 인간에게 부여함으로써 행복해진다고(신이나 신앙을 도입한 행복론) 외치는 철학자도 있으며, 쾌락을 추구하지 않고 평온하게 살아가는 것이 행복한 인생이라고 말한 철학도 있다.

개인이 놓인 상황이나 종교관 등에 따라 무엇을 행복한 생활이라고 하는지가 바뀌는 것이라면 AI는 우리 한 사람 한 사람의 생각에 가까운 판단을 해줄까? 그리고 그 조언은 정말로 행복한 인생으로 우리를 이끌어 줄까?


과학 기술이 더 발전하면 모든 문제가 해결될까?

과학 기술의 발전 덕분에 우리는 쾌적하고 편리한 삶을 누린다. 지금은 스마트폰으로 많은 정보를 바로 알 수 있고 지구 반대편에 있는 사람들과도 영상 통화가 가능하다. 여러 가지 병의 원인과 치료법이 밝혀져 평균 수명도 크게 늘어났다.

한편 인류와 지구 환경에는 아직 많은 문제가 남아 있다. 앞으로 과학 기술이 더 발전하면 모든 문제가 결국 해결될까?

고대 그리스 시대부터 계속된 신기술에 대한 비판

예를 들어 미래에 인간을 뛰어넘는 지능을 가진 고성능 AI가 등장해 인간이 단순노동으로부터 해방되거나 빈부격차를 해소하기 위한 사회 시스템을 개발할 것이라는 생각은 전형적인 기술 낙관주의라 할 수 있다.

예로부터 철학자들은 기술 낙관주의에 부정적인 견해를 표명해 왔다. 차례로 등장하는 기술이 문제를 해결해 줄 것인가, 나아가서는 사람을 행복하게 해 줄 것인가는 고대 그리스 시대부터 논의되었다. 예를 들어 플라톤은 그의 저서 <파이드로스(Phaedros)>에서 놀랍게도 '문자'에 대해 비판했다.

말을 적어 남기는 기술인 문자는 시간과 공간을 초월해 말을 전달할 수 있지만 거기에 기록된 것 이상을 말할 수는 없다. 그래서 문자는 그것을 읽은 사람이 느낀 의문에 답할 수도 없고 오해했을 때 변명할 수도 없다. 문자를 사용함으로써 사람들은 잘 잊어버리고 문자로 배운 겉만 번드레한 지식으로 자만하는 사람도 늘어난다고 플라톤은 생각했다.

그런 결점이 있기 때문에 적힌 말인 문자는 인간이 이야기하는 살아있는 말과는 상대가 되지 않으며, 문자에 의지해 살아있는 말로 하는 문답을 게을리하면 인간은 행복해지지 않는다고 플라톤은 주장했다.

기술은 인간을 자원으로 바꾼다

독일의 철학자 마르틴 하이데거는 기술(근대 기술)이란 인간이 뭔가를 만들기 위한 도구가 아니라 "자연을 '자원'으로 바꾸는 일이라고 말했다. 예를 들어 기술은 아름다운 강을 수력 발전의 에너지 자원으로 바꾼다. 그 결과 자연과 인간이 가진 원래의 성질과 특징이 잊히고 모든 것을 자원으로만 여기게 된다.

하이데거가 그러므로 기술을 사용하지 말자고 주장하는 것은 아니다. 그는 기술이 그런 위험성을 내포하고 있음을 확실히 이해하고 인간과 자연이 원래 어떤 존재인지를 잊어서는 안 된다고 말했다.

미국의 철학자 휴버트 드레이퍼스(Hubert Dreyfus)는 컴퓨터와 AI에 대해 비판했다. 그는 규칙에 입각해 데이터를 조작함으로써 움직이는 컴퓨터와 AI는 아무리 똑똑해 보여도 할 수 있는 일에 한계가 있다고 믿었다. AI가 모든 일을 할 수 있다는 과신은 금물이라는 것이다.

장점 뒤에 있는 단점도 봐야 한다

과학 기술은 분명 우리 생활을 편리하고 풍요롭게 해왔다. 마쓰우라 교수는 새로운 기술의 장점에만 주목할 것이 아니라 반드시 단점도 있음을 의식하는 일이 중요하다고 지적한다.

AI는 그 편리함(장점)때문에 사회에 빠르게 침투했지만, AI의 처리에는 엄청난 전력이 필요하다는 등의 단점도 존재한다. 또 AI가 정교한 사진이나 동영상을 자동으로 생성할 수 있기 때문에 가짜 뉴스 증가 같은 문제도 생긴다.

신기술 덕분에 기존 문제를 해결하거나 새로운 일을 할 수 있는 대신에 다른 새로운 문제가 생기는 것이다.

그렇지만 기술 없이는 역시 인간은 살아갈 수 없을 것이다. 새로운 기술이 등장했을 때는 상상력을 발휘해 그 기술로 인해 무슨 일이 일어날지, 그 기술로 인해 불행해질 가능성은 없는지 등을 생각해야만 한다.


출처: 뉴턴 2025-12

댓글 쓰기

0 댓글