최무영 서울대 물리학 교수 인터뷰:
알파고와 인공지능, 이렇게 본다
〈노동자 연대〉 구독
[편집자] 알파고의 바둑 대국 승리 이후, 인공지능의 미래에 대한 낙관과 두려움이 일었다. 심지어 자본주의 체제에서 인공지능이 노동자들의 일자리를 뺏을 수 있다는 걱정도 심심치 않게 들려온다. 스스로 유물론자임을 자처하던 한 논평가는 인공지능이 “숙련노동, 지식노동, 서비스노동에서까지 인간을 대체할 수 있다 … 우리는 의사 알파고, 기자 알파고, 회계사 알파고, 변호사 알파고와 경쟁해야 한다는 것이다. 전 세계에서 수많은 일자리가 사라질 것 … 이마트에서 … 쓴웃음을 짓던 여성노동자는 사라지고, 그 자리에 인공지능 로봇이 서서 … 말할지도 모른다” 하며 이런 인상을 공유했다. 〈노동자 연대〉 신문 장호종 기자가 서울대학교 최무영 물리학 교수를 만나 인공지능의 현재와 미래에 대해 인터뷰했다. 최무영 교수는 본인이 인공지능 전문가가 아님을 겸손하게 강조하며 조심스럽게 인터뷰에 응했지만, 복잡계 물리학과 생명과학 분야 전문가인 그의 지식은 인공지능에 대한 균형잡인 시각을 갖는 데 큰 도움을 줄 것이라 믿는다. 최무영 교수는 인기 과학 도서인 《최무영 교수의 물리학 강의》(책갈피)의 저자이다.
2~3년 전만 해도 인공지능이 바둑에서 인간을 이기기는 어려울 거라는 전망이 우세했었는데요. 인공지능의 개발 수준이 어디까지 와 있다고 보시나요?
시합 결과를 보고 의외라는 반응이 많다는데, 지난 겨울 1~2월에 시합이 성사된 다음에 외국에서 만난 인공지능 관계자들은 당연히 알파고가 이길 거라고 얘기했어요. 그러니까 사실은 완전히 의외는 아니라는 거죠. 당시에는 저도 알파고가 어떻게 작동했는지 잘 몰랐는데, 나중에 작동 원리를 들어보니, [알파고가] 이긴 게 당연한 거였어요. 놀랄 일이 아니고.
이전의 컴퓨터나 인공지능과는 뭐가 달라진 건가요?
인공지능 얘기를 잠깐 떠나서 바둑이나 체스나 근본적으로는 똑같거든요. 똑같이 연산이에요. 지능이 필요한 게 아니에요. 다만, 체스는 아주 쉽게 연산할 수 있지만 바둑은 연산이 워낙 복잡해요. 경우의 수가 훨씬 많기 때문에 그래요. 현실적으로 계산이 불가능했던 거지 원리적으로 불가능한 건 아니었어요. 원리적으로는 경우의 수를 다 따져서 최적을 찾으면 돼요. 하지만 경우의 수가 워낙 많아서 아무리 빨리 계산하더라도 그걸 다 찾으려면 엄청난 시간이 걸리니까 현실적으로 불가능하다는 거였어요. 현실적으로 컴퓨터의 성능이 이 연산을 하기에는 안 될 거라고 생각한 거죠. 그런데 이번에 알파고는 인공지능이라 할 만한 걸 조금 써서 조금 더 효율적으로 연산한 거죠.
‘지능’과 ‘연산 능력’ 사이에 근본적인 차이가 있다고 보시는 건가요?
그건 지능을 어떻게 정의하느냐에 달린 문제인데, 사실 쉬운 문제가 아니죠. 철학이나 인문학에서도 고민하는 문제고요. 단순히 연산을 놓고 보면 우리가 절대로 컴퓨터를 못 당하거든요. 당연히 컴퓨터가 아니라 조그만 계산기도 못 당하죠. 그런데 그걸 지능이라고 부르지는 않잖아요.
그럼 지능이란 과연 무엇인가? 통일된 정의는 없을 텐데, 제 생각에는 막연하나마 창의적인 것, 이해하고 해석하는 창의적인 능력, 지성, 이런 것들을 품고 있을 거예요. 다만 그걸 정량적으로 정하는 것은 쉬운 문제가 아닌 것 같아요.
대개 인공지능을 크게 두 가지로 나눠요. 강한 의미의 인공지능과 약한 의미의 인공지능으로요. 우리가 보통 인공지능이라고 말하는 것은 강한 인공지능이죠. 의식이 있고, 자기 인식이 있고, 따라서 자아가 있는 겁니다. 쉽게 말해서, 진정한 의미의 인공지능이 있다면 인간이 시켜도 안 할 수 있다는 거죠. ‘안 한다’, ‘싫다’. 공상과학 영화에 나오는 것처럼 인간 말을 안 듣고 반란을 일으켜서 인간을 다 타도하고 기계들 세상이 된다. 그런 건 강한 의미의 인공지능인데 그런 건 물론 지금 없어요.
현실에 있는 인공지능은 아주 약한 의미인데요. 이건 특정한 기능을 인간처럼 수행하는 거예요. 일반적인 것이 아니라 특정한 것, 스스로 생각하고 이런 것이 전혀 아니라, 인간이 시키는 특정한 기능을 수행하는데, 그걸 우리가 보면 마치 지능이 있는 것처럼 보이는 거죠.
전통적인 컴퓨터는 우리가 시키는 대로만 해요. 우리가 알고리즘을 짜서 연산을 시키면 그대로만 하고 더는 아무것도 못합니다. 정확하게 풀이법을 짜 줘서 그걸 시키는 대로만 하는 거죠. 그런데 약한 의미의 인공지능은 우리가 꼭 연산을 하나하나 지정하지 않고서도 할 수 있는 게 있는 겁니다. 예를 들어, 체스 같은 경우는 무식하게 가능한 걸 다 계산해서 최적을 찾아내는 거죠. 그건 우리가 시키는 대로 써 준 대로만 수행하는 겁니다. 바둑은 원리적으로는 불가능하지 않더라도 현실적으로 그걸 다 계산하는 데 시간이 너무 오래 걸리기 때문에 불가능하다고 했어요. 그런데 그걸 컴퓨터한테 학습을 시켜서, 즉 반복적인 훈련을 시켜서 미리 입력해 놓지 않은 상황이 들어와도 그동안 배운 대로 시행할 수 있도록 한 거예요. [알파고에] 그런 것을 조금 쓴 겁니다. 그걸 전문용어로는 기계학습(머신 러닝)이라고 하는데요. 최근 몇 년 사이에 엄청난 인기를 모으고 있는 연구 주제예요. 최근 몇 년 사이에 비약적으로 발전한 것을 [알파고가] 보여 준 겁니다.
사실은 그건 새로운 건 아니에요. 우리가 보통 ‘패턴 리코그네이션’이라고 부르는, 우리말로 무늬 인식 같은 게 있습니다. 예를 들어, 사람 얼굴을 인식하는 프로그램이 있죠. 구글 같은 데에서 이미 사용하고 있는데, 사진을 보여 주면 누구인지 알아맞히고 심지어 꽃을 보여 주면 꽃도 인식하고요. 그건 예를 들면 고양이의 모습을 아주 많이 보여 줘서 훈련을 시키는 겁니다. 그래서 이미 본 그림이 아니어도 고양이 비슷한 게 보이면 ‘아 이게 고양이구나’ 하고 판단하는 거죠. 시리(Siri)라고 아이폰에 있는 음성인식도 마찬가지예요. 영상 인식도 기본적으로는 컴퓨터가 학습해서, 훈련을 계속 받아서 수행하는 거죠. 그런 것을 약한 의미의 인공지능이라고 할 수 있어요. 강한 의미의 인공지능은 아직은 전혀 상상할 수 없고요. 기계가 인간을 지배할 거라는 생각은 전혀 현실이 아니에요. 농담으로 말하자면, 문제가 되면 전원을 빼 버리면 되죠. 물론 강한 인공지능이 생기면 전원을 빼는 것을 방해할지도 모르지만, 그건 공상과학 영화에서나 있는 거예요.
약한 인공지능을 계속 반복하고 쌓아가면 강한 인공지능에 도달하지 않을까요?
그건 사실, 지능의 근원이 무엇인지에 달려 있는 거죠. 인간은 인식하고 지능도 있는데, 즉 판단하고 해석하고 이해하고 창조하고, 창의적인 능력을 발휘하는데요. 그게 어떻게 생겨나는 것인가요? 예를 들어, 우리가 철저히 유물론의 입장에서 철저하게 따지고 보면 지능은 두뇌의 작용이고 두뇌라는 게 신경세포들, 즉 뉴런들의 집합이죠. 그런데 신경세포들의 상호작용 때문에 우리 입장에서 보면 뭔가 새로운 기능이 전체 집단의 성질로 떠오른다고 해요. 영어로 이머전스(Emergence), 떠오름이라는 게 생겨난 건데요. 알파고 같은 것도 인공적인 신경그물 얼개를 쓴 것이거든요. 우리 두뇌를 인위적으로 흉내낸 겁니다. 그런데 그것을 잘 하다 보면 언젠가 우리가 상상하지 못했던 성질이 떠오르지 않을까, 다시 말해 신경세포가 아주 많이 모였을 때 전체 집단성질로 지능이라고 하는 것이 떠올랐듯이, 혹시나 인공적으로 만든 신경그물 얼개 회로가 굉장히 많은 소자를 엄청나게 모아서 어떻게 하면 우리가 예상하지 못했던 전체의 집단성질이 새롭게 떠올라서(emerge), 강한 인공지능이 생겨날 수도 있지 않을까 하는 물음인데요. 이건 원리적으로 배제할 수는 없지만 적어도 아직은 생각할 수 없어요. 생각할 수 없는 한계죠. 그것도 철저하게 우리의 의식, 자의식이 우리 신경세포들의 상호작용 때문에 생겨났다고 전제했을 때 얘기고 그걸 믿지 않는 사람들도 많이 있을 수 있죠. 그렇게 철저히 모든 게 물질로 환원되는 것이 아니라고 생각하면 강한 인공지능이라는 것은 영원히 있을 수 없겠죠. 그건 가장 기본적인 문제, 즉 물질과 의식을 어떻게 인식할 것인지에 달려 있다고도 할 수 있겠습니다.
머신 러닝과 인간의 학습, 생각은 뭐가 다른가요?
머신 러닝은 우리가 볼 때는 생각하는 건 아니고, 우리가 시키는 대로만 철저하게 한 거죠. 학습했다는 것도 우리가 훈련을 시켜 준 것이거든요. 종래의 단순한 컴퓨터와의 차이는 있어요. 그런 컴퓨터는 1 더하기 1을 수행하라고 시키면 그것밖에 할 수 없고 그걸로 끝인데, 이건 훈련을 시켜 준 거예요.
학습에는 여러 가지 방법이 있어요. 가장 많이 하는 것은 수퍼바이즈 러닝(지도학습)이라고 고양이 영상을 계속 보여 주는 거예요. [컴퓨터가] 이차원 영상을 ‘본다’는 건 픽셀로 다 나눠서 음영과 컬러에 대한 전체 정보를 파악하는 거예요. 그리고 우리가 이런 건 고양이라고 답을 주는 겁니다. 이 반복이 훈련이죠. 그다음에 새로운 고양이를 보여 주고 판단하게 하는 거죠.
그게 어떻게 가능하냐면 사람의 두뇌를 조금 흉내내기는 한 겁니다. 요새 많이 쓰는 것은 인공적으로 신경회로를 두뇌처럼 만든 건데, 신경세포 같은 회로 소자들을 만들어서 그 사이의 연결 부위를 얼마나 강하게 할지를 조정해서, 한 번 훈련할 때마다 조금씩 바꿔주는 거예요. 거기에 맞춰서. 그런 식으로 충분히 훈련을 많이 시키면 거기에 알맞은 세기로 연결이 다 되는 거죠. 그 연결이 생기면 새로운 것을 보고도 그 연결에 맞춰서 ‘이건 고양이다. 이건 아니다’ 하고 결론을 내릴 수 있게 되는 거예요. 엄밀히 말하면 우리는 그걸 다 아니까 우리가 시킨 대로 한 거지만, 기존의 컴퓨터와는 차이가 있는 거죠. 일일이 인간이 답을 다 주는 게 어려우니까요.
다른 방법도 있기는 합니다. 지도를 안 하는 학습법이라든가 강화학습이라고 해서, 알파고는 사실 그걸 쓴 거죠. 답을 준 건 아니고 어떤 걸 하도록 한 뒤에 제대로 하면 보상을 주고 나쁘게 하면 벌칙을 주고 이러다 보상을 점점 키우는 방식으로 유도하는 학습 방법이 있는 건데, 알파고가 그런 걸 썼다고 알려져 있죠. 보통 고양이를 인식시킬 때에는 고양이를 많이 보여 주면서 훈련을 시켜주는 건데 알파고는 기보를 갖고 계속 훈련을 시켰다고 해요. 그것만이 아니라 중요한 것으로 몬테카를로 탐색이라는 걸 썼다고 알려져 있어요. 우리가 바둑의 경우에 모든 가능한 것을 탐색하는 것은 불가능하죠, 시간적으로도요. 그런데 그걸 확률적으로 가장 그럴 법한, 답이 있을 만한 부분만 집중적으로 하고 그중에 또 집중을 하고 그렇게 해서 가장 가능성이 높은 데만 집중적으로 탐색하면 훨씬 효율적으로 할 수 있거든요. [알파고는] 그런 방법을 썼다고 알려져 있어요.
그런데 영상 인식은 요새 굉장히 발전해서 필기 인식 같은 경우는 오차를 3퍼센트까지 낮췄다고 해요. 그건 사람보다 좋다고 하는 거거든요. 그럼 어마어마한 거 아니냐고 하는데 어마어마한 건 맞죠. 문제는 그걸 하다 보면 정말 엉뚱하게 말도 안 되는 데에서 실수를 하거든요. 완전히 말도 안 되는 이상한 영상을 보여 주는데 그걸 고양이로 인식하는 경우가 있습니다. 사람이 보면 누가 봐도 당연히 고양이가 아닌데요. 그런 경우가 생길 수 있거든요. 우리가 보통 과적합, 오버피팅(over-fitting)이라고 하는데 적합화를 너무 지나치게 하면 오히려 훨씬 결과가 나빠지는 걸로 알려져 있습니다. 그래서 문제가 있죠. 우리가 적합화를 얼마나 해야 하는지도 잘 모르고요. 비유하자면 요즘 학생들이 죽어라고 공부만 하니까 패턴에 박힌 문제는 굉장히 쉽게 풀지만 조금만 벗어나면 전혀 못 푸는데, 똑같은 게 생기는 겁니다. 그러니까 패턴에 있는 식은 사람보다 훨씬 잘 맞히는데 패턴에 없는 것은, 사람은 그래도 아는데 전혀 모르는 경우가 생기는 유명한 예들이 있습니다.
다만, 알파고처럼 확률을 높여 가는 방식으로 계산하면 사람이 절대로 당할 수가 없는 거죠. 그 원리를 알고 보면 사람이 절대 이길 수 없는 게 당연한데요. 체스 같은 경우는 모든 경우를 다 찾은 거니까 사람이 백전 백패인데, 바둑의 경우는 그게 불가능하니까 가장 그럴듯한 부분만 집중적으로 한 건데, 아주 드물게 거기 아닌 데 답이 있을 수가 있어요. 그러면 알파고가 질 수 있는 거죠. 그래서 농담 삼아 백전 백패는 아니고 백전 일승은 할 수 있지 않을까 하는 거죠. 이세돌이 한 번 이긴 게 그런 경우가 아닐까 생각합니다.
강한 인공지능은 아직은 전혀 현실적이지 않다고 하셨는데, 보통 사람들의 학습 경험 중에는 방금 말씀하신 머신 러닝 같은 방식도 적지 않게 있는 것 같습니다. 인간 뇌에서 의식의 발전이라는 게 기계의 학습과 근본적인 차이가 있는 건지요.
그것도 중요한 질문인데, 인간도 어쨌든 태어나서 학습에 의해 형성되는 거 아니냐고 보면 무슨 차이가 있냐고 물을 수 있죠. 기계가 제대로 학습하려면 지도학습, 선생(인간)이 옆에서 가르쳐 주는 건데, 사람도 선생이 가르쳐 준 거 아니냐 하고 생각할 수도 있죠.
그런데 거기 재미있는 게 하나 있어요. 인공지능이 정말 사람과 같은 거냐 다른 거냐를 판단하는 방법 중에 널리 알려진 게 튜링 테스트예요. 튜링이라는 사람이 컴퓨터, 인공지능 쪽의 선구자죠. 20세기 중반에 컴퓨터가 어떻게 풀이법을 만들어서 어떻게 연산을 하는지를 처음으로 이론적으로 밝힌 사람이니까 천재 같은 사람인데요. 튜링 테스트가 어떤 거냐 하면 대강 이런 거죠. 문이 닫힌 방 안에 누가 있는지 모르는 상태에서 밖에서 어떤 질문을 해요. 그다음에 답을 들어 보고 사람이 대답했는지 기계가 대답했는지 알 수 없으면 인간과 같은 것, 즉 인공 ’지능’ 아니겠냐는 거예요.
그런데 이에 대한 유명한 반론이 있어요. 중국어 번역 문제인데, 안에 사람이 있어서 밖에서 우리말로 하는 것을 중국어로 번역해 주면 안에 사람이 있다고 여기지 않겠느냐는 거예요. 그런데 번역기가, 또는 어떤 사람이 중국말을 전혀 모르는데 표를 갖고 있는 거예요. 중국말을 전혀 모르지만 한국말과 중국말이 1 대 1로 돼 있는 표가 있고 그 표에 따라서 답을 하면, 그건 그 상황을 이해했다고 할 수는 없는 거죠. 그러면 이건 도저히 지능이라고 할 수 없는 건데 그걸 밖에서 구별할 수 있겠느냐, 구별할 수 없을 것이다 하는 거죠. 튜링 테스트에 대한 유명한 반론인데 결국 인공지능인지 아닌지 판단하는 게 쉬운 문제가 아니라는 거죠.
다만, 인공지능과 인간 사이의 중요한 차이가 하나 있죠. 인공지능의 경우에는 학습을 어떻게 하느냐 하는 설계를 우리가 하나하나 다 해 줘야 해요. 알파고가 성공한 것이 딥 러닝이라는 것 덕분이라고 하죠. 요새 머신 러닝 중에 가장 획기적으로 인기를 끌고 있는 것인데 우리말로 깊은 학습, 한자말로 심화학습, 심층학습이에요. 그런데 딥 러닝이 별게 아니라 우리가 인공 신경그물 얼개를 설계할 때 보통 입력과 출력이 있는데 그 사이에 감춰진 층을 넣는 걸 말하는 거예요. 감춰진 층이 있어야 연산을 제대로 할 수 있거든요. 그런데 이 감춰진 층 사이에 정보가 입력에서 출력으로 한 방향으로만 나아가는 게 아니라 가다가 필요하면 돌아오기도 하고, 되먹임(피드백)을 시키기도 하고, 리커런트 네트워크라는 표현을 쓰는데 그런 설계를 잘 해야 해요. 그런 설계를 전부 인간이 해야 하는 거예요. 그걸 제대로 못하면 제대로 작동하지 않죠.
그런데 인간은 우리 두뇌를 그렇게 설계하는 건 아니고 학습하면서 두뇌가 스스로 바꿔가는 것이거든요. 인간의 두뇌는 자라면서 신경세포들이 만들어지고 그 사이의 연결이 정보처리의 핵심인데 신경세포들이 자라는 것도 그렇지만 그 사이의 연결이 만들어지는 것은 인간의 학습에 의해서 스스로 만들어지는 거예요. 세포가 변화하면서 더 만들어지기도 하고 심지어 필요없으면 제거되기도 하죠. 실제로 많이 제거되기도 합니다. 그렇지만 인공지능은 적어도 현재까지는 전혀 그럴 수는 없죠. 따라서 분명히 차이가 있죠. 약한 의미의 인공지능은 앞으로도 좋은 의미로든 나쁜 의미로든 굉장히 많이 발전할 텐데요. 하지만 강한 의미의 인공지능까지 언제 갈 수 있을까 하는 문제는 잘 모르겠네요.
회로 하나하나를 인간이 설계한 것에 비해 저절로 연결되는 것이 더 우수한 결과를 낸다는 뜻으로 들리기도 하는데요.
그건 어느 게 우수한 거냐, 우수의 기준이 뭐냐 하는 문제죠. 물론 단순연산은 인간이 컴퓨터와 비교가 안 되지만, 과연 우리가 정말로 지능의 핵심이라고 하는 창조적인 능력, 그건 분명히 상상이 중요한 건데 그런 것을 포함해서 자의식, 자기 스스로 하는 자아 인식, 그런 것들은 다른 문제죠. 그건 현재로서는 기계가 가진다고 볼 수 없으니까요. 단순연산에서는 우리가 상대가 안 되고 심지어 영상인식이나 그런 것들조차 이미 어떤 의미에서 기계가 인간을 능가한다고 할 수가 있죠. 물론 약점이 있지만요. 다만, 어느 게 더 우수한 거냐 그건 우리가 어떤 면을 우수하다고 보느냐에 따라 다른 거죠. 모든 게 더 우수하고 모든 게 더 못하다 그렇게 말할 수 있는 것은 아니라고 봐야겠죠.
요즘 많은 사람들이 진화심리학의 주장을 상식처럼 여기고 있는 것 같아요. 기계를 학습시키는 방식과 진화심리학에서 말하는 인간의 본성 형성 방식이 비슷해 보이는 게 인공지능에 대한 사람들의 평가에도 영향을 주는 것 같습니다.
그렇죠. 어떻게 보면 인공지능의 문제에서 그걸 아주 극단적으로 밀고 가는 것과 진화심리학의 입장하고 어떻게 보면 유사하다고 여길 수는 있겠네요. 개인적으로는 진화심리학에 동의하는 편은 아니어서요. ‘인간이란 무엇인가’ 하는 문제에서 본성이라고 하는 게 과연 있는가? 진화로 만들어진 건가? 글쎄요. 전문가는 아니어서 확답은 없겠지만 그 문제에 대해서는 좀 회의적입니다.
사실 저는 알파고가 이긴 것을 어떻게 평가할지를 두고는 여러 가지 이견이 있을 것 같아요. 하지만 당연한 것은 알파고가 씨피유(CPU, 중앙처리장치)와 지피유(GPU, 영상처리장치)를 심지어 2천 개나 쓴 거니까 엄청난 거예요. 어떻게 보면 불공정 게임이라고 주장하는 것도 일리가 있는 거죠. 연산능력에서 상대가 안 되니까요. 컴퓨터 하나만으로도 연산능력에서 우리가 지는데 2천 개를 갖고 한 거니까요. 어쨌든 기본적으로 바둑이라는 것은 원리적으로는 연산이에요. 경우의 수가 굉장히 많다 뿐이지 원리는 연산인데 엄청나게 많은 경우의 수를 어떻게 나눠서 만들 수 있는가 하는 문제였으니까요.
바둑 얘기가 나온 김에 말하자면 사실 바둑이 성행하는 나라가 한국, 중국, 일본인데요. 어떻게 보면 무슨 바둑이 ‘기풍이 있다’, ‘두껍다’, 심지어 ’입신의 경지다’ 하며 바둑을 신비화하는 경향이 있는데 이번에 그게 상당히 깨진 게 아닌가 해요. 바둑하는 분들에게는 안된 얘기지만 저는 그건 잘 된 거라고 봐요.
무슨 뜻이냐면 저는 프로 기사라는 건 별로 동의하기 어렵거든요. 프로 운동선수라는 것을 동의하기 어려운 것처럼요. 제가 정확하게는 모르지만 이분들은 교육도 제대로 받지 못하는 것 같더라고요. 대부분 어렸을 때, 너댓 살부터 죽어라고 종일 바둑만 연습하는 게 아닌가, 제 주위에는 없으니까 잘 모르겠습니다만, 어쨌든 대학교육은 물론이고 중고등학교 정도만 마치는 것 같은데 이건 교육적으로는 대단히 잘못된 거라고 생각해요.
바둑이라고 하는 건 인간의 즐거운 놀이가 돼야 한다고 생각해요. 스포츠와 마찬가지로 인간의 즐거운 놀이가 돼야 할 것을 지옥훈련을 받아서 직업으로 한다는 건 회의적입니다.
인간이 기계한테 졌다고 하는데 저는 전혀 동의하지 않습니다. 인간이 인간한테 진 거죠. 그걸 확대 해석해서 동양이 서양한테 졌다고 하는 사람도 있는 것 같은데 물론 그것도 아니고요. 제가 보기에는 좀 지나친 말씀일 수도 있지만 농담으로 얘기하면 바둑 기술자가 전산 기술자한테 진 거죠. 그리고 사람의 지능, 즉 자연 지능이 인공 지능한테 진 건데 물론 연산에서 진 거죠. 그건 당연한 거죠.
연산인데 복잡한 연산이라서 기존의 방법으로 안 된 거지만 본질적으로 연산에서 진 거니까 크게 놀랄 일은 아닌 거죠. 바둑은 원리적으로는 영상이나 음성 인식보다는 훨씬 쉬운 문제고 더 잘 정의된 문제예요. 경우의 수가 엄청나게 많아서 최적을 찾는 게 대단히 어려운 문제인 것은 맞지만 말이죠. 예를 들어 고양이는 우리가 수학적으로 딱 정의하기가 어렵거든요. 그런 면에서 오히려 더 어려운 문제일 수 있다는 거죠.
장호종 : 말씀 크게 도움이 됐고요 고마웠습니다. 안녕히 계십시오.