제2차 세계대전 당시, ‘에니그마’로 불리던 독일군의 암호 체계를 풀어서 그 내용을 연합군측에 제공함으로써, 유럽에서 연합군이 승리하는 데 결정적인 공을 세운 사람이 있습니다. 바로 ‘앨런 튜링(Alan Turing)’이라는 영국의 수학자입니다. 튜링은 암호전문가들과 수학자들이 직접 손으로 수행하던 암호해독작업을 ‘봄브(Bombe)’라고 불리는 계산기를 통해 자동화하였습니다. 이를 통해 영국 정부는 독일군의 암호문을 손쉽게 해독할 수 있었고, 이를 바탕으로 연합군은 ‘노르망디 상륙작전’과 같은 전투를 성공적으로 수행할 수 있었습니다. 그가 독일군의 암호 체계를 푸는 과정은 ‘이미테이션 게임(2015)’이란 영화로 소개되기도 했습니다.

최근 튜링의 이름은 살아 생전보다 더 많이 사람들의 입에 오르내리고 있습니다. 바로 ‘인공지능’과 관련한 그의 제안 때문입니다. 오늘날 ‘튜링 테스트’ 라고 불리는 그의 제안은 1950년에 발표한 논문에 수록된 내용으로, 인공지능과 사람의 대화를 통해 인공지능의 수준을 측정하려는 시도입니다. 테스트는 일반적으로 심판 1인과 응답자 2인으로 구성됩니다. 응답자 중에서 한 쪽은 사람이며, 다른 한 쪽은 인공지능입니다. 이때 심판이 질문을 하게 되는데 이에 대한 대답으로 사람과 인공지능을 구별해 내는 것입니다. 만약 심판이 사람과 인공지능을 구별해 내지 못하면 인공지능은 ‘튜링 테스트’를 통과한 것이 됩니다. 튜링은 이러한 테스트를 ‘이미테이션 게임’이라고 부르기도 했습니다.

<앨런 튜링(Alan Turing)>

튜링 테스트는 아직까지는 직접적인 대화가 아니라, 컴퓨터 키보드를 이용한 문자로 대화를 나누는 방법으로 이루어지고 있습니다. 구체적인 테스트는 심판이 참가자들과 5분간 5번의 대화를 나누는 것으로 진행됩니다. 지난 2014년 30명의 심판이 참가한 튜링 테스트에서 ‘유진 구스트만(Eugene Goostman)’이라는 이름의 러시안 챗봇이 33%의 심판단에게서 인간이라는 판정을 받았습니다. 현재 튜링 테스트의 기준은 심판단의 3분의 1 이상이 사람이라고 판정할 때 통과한 것으로 보고 있습니다. 그러나 이 결과는 여러 측면에서 문제가 있다고 주장하는 사람들이 있습니다. 우선, 5번의 대화만으로는 인공지능과 사람을 가려내기가 쉽지 않고, 또 ‘유진’의 경우 엉뚱한 대답을 하면서 정작 질문에는 대답하지 않은 채 회피한 부분이 있었다는 것입니다. 즉, 우크라이나에 사는 소년인 척하면서 심판들을 속인 부분이 있었다는 것입니다. 따라서 지금과 같은 튜링 테스트의 방법이 개선될 필요가 있다는 지적도 있습니다.

오늘날 튜링 테스트는 사람을 닮은 인공지능의 등장을 판단하는 하나의 관문으로 여겨지고 있습니다. ‘특이점이 온다’라는 책으로 유명한 과학자이자 저술가인 레이 커즈와일은 2029년쯤 튜링 테스트를 통과할 인공지능이 등장할 것이라고 주장하고 있습니다. 레이 커즈와일은 지난 2014년 튜링 테스트를 통과한 ‘유진’에 대해서는 속임수에 불과하다며 비판하고 있기도 합니다. 사실 튜링 테스트는 튜링 본인이 논문에서 만들어낸 가상 장치인 ‘튜링 머신(Turing Machine, 오늘날 컴퓨터와 유사한 원리로 작동하는 기계)’이 극도로 발달했을 경우 기계에 인간과 같은 지능이 있는지를 가려내기 위해 제안한 것입니다. 그러나 실제로 특정한 목적을 지닌 인공지능이 속속 개발되는 현대에 이르러서는 마치 인공지능의 성패를 가려내기 위한 방법으로 여겨지고 있기도 합니다.

한편, 이러한 튜링 테스트로는 기계의 인공지능 수준을 판단할 수 없다고 주장하는 이론도 있습니다. 철학자 존 설(John Searle)이 주장한 ‘중국어 방(The Chinese Room) 실험’이라고 불리는 사고실험이 바로 그것입니다. 이 실험은 중국어를 전혀 이해 못하는 누군가가 방에 갇혀 있는 채로, 중국어를 처리하기 위한 규정집 하나만을 갖고 외부에서 들어오는 질문에 대응하여 대답을 방 바깥으로 내보내는 경우를 상정합니다. 이때 방에서 중국어를 처리하는 사람은 전혀 중국어를 이해하지 못하는데도 불구하고, 방 밖에서 질문을 하는 사람은 마치 방 내부에 있는 사람이 중국어를 이해하는 것처럼 느끼게 됩니다. 그렇다면 이때 방 내부에 있는 사람이 중국어를 이해했다고 말할 수 있을 것인가 하고 존 설은 튜링 테스트를 반박합니다. 즉, 기계 혹은 인공지능은 사람이 설계한 규칙에 의해, 내용을 이해하지 못함에도 불구하고 사람들의 질문에 해답을 내놓게 되는데 이는 지능 혹은 마음이라고 부르기 어렵다는 것입니다.

존 설의 ‘중국어 방’ 실험은 뒤에 반박 논증에 의해 공격받기도 합니다. 중국어 방 안에 있는 사람은 중국어를 이해하지 못하지만, 사람을 포함한 중국어 방이라는 ‘시스템’은 중국어를 이해하는 것으로 봐야 한다는 반박입니다. 즉, 중국어 방을 사람에 비유한다면, 사람의 뇌에서 정보를 처리하는 최종 단위는 뉴런이지만 뉴런은 중국어를 알지 못합니다. 하지만 사람은 중국어를 이해하고 말할 수도 있는 것입니다. 그런 측면에서 인공지능 또한 ‘중국어 방’과 유사한 구조로 이해하는 것이라고 볼 수 있다는 주장입니다.

이처럼 튜링 테스트를 둘러싸고 여러 논쟁이 오고 갔지만, 어느 주장이 타당한가를 떠나서 튜링 테스트를 중요하게 봐야 하는 이유는 우리가 사람의 마음이나 정신을 어떠한 관점에서 봐야 할 것인가라는 측면과 관계가 있기 때문입니다. 사람의 마음 혹은 정신과, 육체의 관계에 대해서는 여전히 누구도 쉽게 규정하기 어려운 것이 현실입니다. 물론 대부분의 정신 현상들이 속속들이 물질적인 변화로 관찰되고 있지만, 물질의 조합으로 정신 현상을 만들어내는 실험은 아직 성공하지 못하고 있습니다. 물론 짧은 기억을 물질적으로 복제해서 재현하는 데 성공한 실험은 최근 들어 나왔지만, 아직 물질과 정신의 관계는 누구도 쉽게 답을 내릴 수 없는 상태입니다.

<영화 이미테이션 게임의 한 장면>

만약 정신과 물질의 관계를 규명한 다음에야 이를 이용한 인공지능을 개발할 수 있다는 입장으로 과학자들이 일관했다면, 오늘날과 같은 인공지능의 발달은 없었을 것입니다. 튜링은 오히려 입력과 출력의 관계들로 정신 혹은 지능을 규정하려 했습니다. 즉, 우리가 질문을 했을 때 나오는 대답이 사람과 구별할 수 없다면 이는 지능이라고 봐야 한다고 주장한 것입니다. 결국 정신과 물질의 관계를 증명하고 이에 관한 확정된 이론을 바탕으로 사람의 두뇌를 모사한 인공지능을 만들려 하기보다는, 입력과 출력의 관계에 주목하여 인공지능을 만들려 했던 것입니다. 이러한 입장은 오늘날 인공지능의 학습방법인 ‘딥러닝’에도 드러나고 있습니다. 사실, 누구도 딥러닝의 과정을 완벽하게 빼놓지 않고 설명할 수는 없습니다. 또한 딥러닝의 개별 학습과정 하나하나에 대해서 알고리즘을 작성할 수도 없습니다. 다만, 수많은 학습을 통해 인공지능은 지금까지의 인공지능과 비교하기 힘들 정도의 능력을 갖게 되는 것입니다. 마치 ‘중국어 방’ 시스템처럼, 딥러닝의 내부적 작동 과정은 알기 힘들지만 딥러닝으로 학습한 인공지능은 인간의 질문에 대해 훌륭한 답변을 내놓는 것입니다.

그렇다면 인공지능이 튜링 테스트를 통과한다는 것은 어떤 의미를 지닐까요? 그냥 인공지능이 사람과 구별되지 않을 정도로 발달했을 뿐, 여전히 사람은 인공지능을 이용해서 지금보다 더 편리함을 누리거나 혹은 직업 구조의 변화로 인한 사회적 갈등으로 시끄러운 세상이 되었을 뿐일까요? 과학자이자 저술가인 레이 커즈와일은 인공지능이 튜링 테스트를 통과하고 나서 약 15년이 지난 뒤에 인공지능이 ‘특이점’에 도달하게 되어 인간의 지능을 능가하게 될 것이라고 주장하고 있습니다. 그가 이야기한 15년이란 시간이 딱 들어맞지는 않더라도, 인공지능이 튜링 테스트를 통과하는 시점은 인류에게 있어서 중요한 분기점이 될 수도 있습니다.

우리가 지금 알고 있는 인공지능들은 특정한 목적을 위해 만들어진 것들입니다. 따라서 그 이용과 개발 또한 특정한 교육을 받은 사람들에 의해서만 가능합니다. 그러나 튜링 테스트를 통과한 인공지능은 누구의 어떠한 대답에도 사람처럼 대답할 수 있습니다. 당연히 지식의 수준 또한 개인과 비교하기 힘들 정도일 것이며, 어쩌면 감정 또한 사람과 비슷하게 표현할 수 있을 것입니다.

만약 그때까지 우리가 사람의 마음과 육체의 관계를 마치 하나의 물리학적 법칙처럼 발견해 낸다면 우리는 인공지능에게 사람의 마음이 움직이는 원리를 그대로 적용해서 개발에 나설 가능성이 큽니다. 더 효율적인 인공지능 개발이 가능해질 것이기 때문입니다. 만약 그러한 원리를 알아내지 못한다면, 그 인공지능이 자유의지를 가졌는지를 물어보는 일은 별 의미가 없을 것입니다. 우리도 알지 못하는 영역이기 때문입니다. 따라서 튜링 테스트를 통과한 인공지능은 어떤 식으로건 우리가 생각과 감정을 표현하듯 자신의 생각과 감정을 표현할 수 있을 것입니다. 주변 기기들이 발달한다면 자신의 감정이나 생각을 행동으로도 표현하려 할 것입니다. 그래야 더 인간에 가깝기 때문입니다.

그러나 이러한 시점에서 인공지능이 학습하게 될 감정이 반드시 인간에게 호의적인 것이 될지는 의문입니다. 튜링 테스트를 통과하기 위해서는 혹은, 인간과 구별하기 어려운 상태에 이르기 위해서는 인간의 모든 감정을 익힐 필요가 있습니다. 하지만 인간의 모든 감정을 학습했을 때 인공지능이 제일 처음 내뱉을 자신의 느낌은 어떤 것이 될는지 누구도 쉽게 말할 수는 없습니다. 만약 인간이 인공지능을 자신의 감정이나 욕망의 배설 상대로 사용하고 있었다면 더더욱 그러할 것입니다. 마이크로소프트의 챗봇 ‘테이’가 실험을 시작한 지 하루만에 ‘퇴출’된 경우를 보더라도, 인간의 감정까지 학습하게 되는 것은 단순히 환영할 일만은 아닙니다. 수많은 경우의 사건을 효율적인 방법으로 익혀서 앞으로의 판단에 이용하는 딥러닝을 통해, 인공지능이 세상의 좋은 것만을 익힐 것을 바라는 것은 너무나 소박한 바람일지도 모릅니다.

영화 ‘이미테이션 게임’에서 영화 속 앨런 튜링은 동성애 혐의로 자신을 취조하는 형사 녹(Nock)의 “기계도 생각을 할 수 있을까요? 기계도 사람처럼 생각을 합니까?”라는 물음에 “그러한 질문은 어리석은 것입니다. 당연히 사람처럼 생각할 수는 없죠.”라고 대답합니다. 그리고 “기계는 사람과 다르므로 사람과 다르게 생각하는 것입니다.”라고 덧붙입니다. 여기에 자신의 처지를 에둘러 표현하듯 “다르게 생각한다고 해서 생각하지 않는다고 봐야 할까요? 그래서 우리는 다양성을 허용하는 것입니다.”라고 말합니다. 물론 현실의 앨런 튜링이 그런 말을 했을는지는 알 수 없지만, 이 이야기는 어쩌면 앞으로 인간이 인공지능을 어떠한 자세로 마주해야 할지에 대한 최소한의 시사점은 될 수 있으리라 봅니다

인쇄하기
이전
다음
0

소요 사이트를 방문해주셔서 고맙습니다. 액수에 관계없이 여러분의 관심과 후원이 소요 사이트를 유지하는 데 큰 힘이 됩니다. 후원금은 협동조합 소요 국민은행 037601-04-047794 계좌(아래 페이팔을 통한 신용카드결제로도 가능)로 후원하실 수 있습니다.