긴 글
온누리에 부는 인공지능(AI) 열풍: 인류에게 희망일까 재앙일까?
〈노동자 연대〉 구독
이 글은 노동자연대가 주최한 토론회에서 최무영 교수가 발표한 내용을 글로 옮긴 것이다. 독자들의 이해를 돕기 위해 영상의 일부 장면을 첨부했다. 전체 영상은 여기에서 볼 수 있다.
안녕하십니까. 최무영입니다.
먼저 이 자리에 저를 초청해 주셔서 여러분께 이렇게 강의할 수 있게 돼서 매우 기쁘고 고맙게 생각합니다.

미리 한두 가지 말씀드릴 것이 있습니다.
첫째는 제가 사실 엄밀한 의미에서 인공지능 전문가가 아닙니다. 그래서 아주 세부적이고 기술적인 것은 잘 모릅니다.
물리학자로서 인공지능 기술의 가장 깊은 데 있는 것, 인공지능이 어떻게 작동할 수 있는지 하는 원리 같은 것들은 물리학이기 때문에 그런 관점에서 말씀드리려고 합니다.
또 한 가지는 저는 강의는 한 2시간 정도는 꼭 해야 되는데 사회자께서 45분으로 맞추라고 하셔서, 제가 중간에 자료를 많이 빼 버리는 바람에 논리적인 연결이 조금 부족할지도 모르겠습니다.
일단 인공지능이 우리에게 처음에 충격을 준 것은 알파고부터일 텐데 그 내용은 다 빼 버렸습니다.
그 내용은 지난해 강연 때 다 들으셨을 거라고 믿고 챗지피티와 관련된 쪽을 주로 말씀드리려고 생각합니다.
인공지능의 역사
먼저 인공지능이 어떻게 흘러왔나 그걸 말씀드리겠습니다.
인공지능의 역사에 여름과 겨울이 있는데 아래 그림에서 파란 색깔이 여름이고 빨간 게 겨울입니다.

출발은 아마도 1940년대 워런 매컬러와 월터 피츠의 잘 알려진 업적일 것입니다.
지능이라고 하는 건 우리 두뇌에서 생겨나는 것일 텐데요.
머리라고 하는 것, 우리 두뇌는 신경세포, 영어로 뉴런이라고 하는 신경세포들의 집단입니다.
신경세포가 아주 많이 얽혀 있는 건데요. 추정하기로 800억 개에서 1000억 개 정도 되는 신경세포들의 모임입니다.
신경세포 비슷한 것을 인공적으로 구현하려면 어떻게 해야 할까를 처음으로 생각한 사람이 바로 매컬러와 피츠입니다.
뉴런이라고 하는 신경세포를 어떻게 하면 모형으로 나타낼 수 있을까 연구한 것이 오늘날 인공지능 연구의 시초라고 볼 수가 있겠고요.
그다음에 앨런 튜링이라는 분이 제안한 튜링 테스트는 지능이라고 하는 게 과연 무엇인가, 지능의 정의를 처음으로 제시한 것입니다. 굉장히 문제가 많지만 하여튼 그런 제안을 했죠.
튜링이라는 분은 굉장히 천재적인 분인데 상당히 비극적인 생애를 살긴 했습니다.
그리고 1957년에 프랭크 로젠블랫이라고, 잘 알려져 있는 분이 있는데요. 퍼셉트론이라는 개념을 기초로 해서 인공지능 설계를 처음으로 시도했습니다.
인풋(입력)이 있고 이를 적절하게 연산한 다음에 아웃풋(출력)에서 우리가 원하는 결과를 얻을 수 있다는 그런 아이디어인 것이죠.
그런데 문제가 있었는데요. 혹시 앤드/오어(AND/OR)라는 것을 혹시 들어 보신 적 있으신가요? 앤드라는 건 이것과 저것을 다 합쳐서 생각하자는 것이고, 오어는 이것 아니면 저것이라고 하는 연산의 규칙인데요.
보통 인공지능은, 컴퓨터가 다 그렇듯이 2진법을 씁니다. 0과 1로 연산하는 게 10진법보다 훨씬 편리하거든요. 두 개만 갖고 연산하면 되니까요.
0과 1 이렇게 두 개의 입력이 있을 때 결과는 00이나 01이나 10이나 11 이렇게 네 가지 가능성이 있을 텐데요.
그때 답을 어떻게 하는가에 따라서 앤드 연산, 오어 연산이 있습니다. XOR이라고 하는 것, exclusive OR이라고 하는 것도 있는데 자세한 설명은 생략하겠습니다.
그런데 어쨌든 문제는 뭐냐 하면 퍼셉트론이라는 아이디어가 굉장히 참신하고 좋을 것 같았는데 XOR이라고 하는 굉장히 아주 단순한 연산을 못 한다는 것이 증명됐습니다.
그래서 완전히 망했다, 이건 다 쓸데없는 짓이다 해서 인공지능 연구에 겨울이 온 겁니다. 연구비가 다 잘리고 해서 겨울이 한동안 계속됐죠. 인공지능 다 죽었다, 못 한다고요.
그러다가 조금 더 후에 히든레이어hidden layer, 우리말로 ‘숨은 켜’를 넣자, 즉 인풋과 아웃풋, 입력과 출력만 있는 것이 아니라 그사이에 감춰져 있는 층을 몇 개 더 넣으면 연산이 가능하다는 게 나중에 알려졌습니다.
1982년에는 존 홉필드라고 하는 물리학자가 홉필드 모형이라는 것을 창안했어요. 신경세포 그러니까 두뇌를 흉내 낸 것이죠. 간단한 모형으로요. 이 모형이 굉장히 흥미를 끌었는데요. 사실 제가 이때 학생이었는데 저도 이 아이디어를 보고 비슷한 일을 좀 했었습니다.
그쪽으로 계속 나갔으면 저도 좀 유명해졌을 것 같은데요. 저는 그쪽을 좀 하다가 여러 가지 이유로 다른 쪽으로 바꿨죠. 하여튼 그런 일이 있었습니다.
그다음에 바로 1년 후에 제프리 힌턴이라는 사람과 협동 연구자들이 볼츠만 머신이라고 하는 아이디어를 냈어요. 이것도 역시 마찬가지로 인간의 지능을 흉내 내는 연산을 해서 우리가 원하는 결과를 얻는 아이디어를 낸 겁니다.
볼츠만이라는 분은 사실 유명한 물리학자이고 좀 농담으로 말씀드리면 저의 5대 선조이신데요. 선조라는 게 혈연이 아니라 학연 관계로 5대 선조이신데 아무튼 뭐 아주 아주 뛰어난 물리학자죠.
앞서 말한 퍼셉트론이라는 건 정보의 흐름이 입력에서 출력으로 바로 가는 것으로 끝이 납니다. 그런데 그것이 문제가 많아서 이른바 백프로퍼게이션back propagation이라는 착상이 나왔는데요.
무슨 얘기냐 하면 정보의 흐름이 꼭 입력에서 출력으로만 가는 게 아니라 되돌아갈 수 있게, 되먹임을 할 수 있게 하면 연산을 훨씬 더 잘할 수 있다는 것이 알려졌고요.
그리고 그다음에 역시 힌턴과 협동 연구자들이 알렉스넷이라고 하는 걸 2010년에 만들었어요. 이것이 굉장했는데요. 실제 생활에서 이용할 수 있는 인공지능의 중요한 예라고 할 수 있겠습니다. 나중에 다시 말씀드리겠습니다만, 예를 들어서 알렉스넷은 이미지(모양)를 분류하거나 알아볼 수가 있고, 영상 분류를 굉장히 성공적으로 수행했습니다.
그리고 2016년에 그 유명한 알파고가 바둑 기사 이세돌 9단을 이겨서 입신의 경지에 올라섰죠. 세계 랭킹 공식 1위이고요. 이세돌 9단이 바둑계를 은퇴했습니다.
이어서 구글에서 트랜스포머라는 게 나왔는데, 이것은 언어 처리를 특별히 설계해서, 특별한 아이디어를 갖고 여러 가지 소자를 설계한 것인데요. 이 트랜스포머가 바로 현재 우리가 많이 쓰는 챗지피티 같은 것의 모체가 된 것입니다.
그리고 2020년에 알파폴드라는 걸 구글에서 만들었는데요. 우리 몸을 구성하는 가장 중요한 분자가 단백질인데, 이는 20가지 아미노산들이 적절한 순서로 배열돼 있는 것이거든요. 그래서 사슬 모양을 갖고 있는데 그것이 일직선으로 쭉 있는 게 아니라 적절하게 접혀서 모양이 만들어져야지 우리 몸에서 제대로 기능을 합니다.
그게 모양을 잘못 가지게 되면 기능을 하기는커녕 엄청난 독이 되고 우리를 죽일 수도 있거든요. 대표적인 게 광우병이죠. 광우병이라는 게 단백질이 잘못 접혀서 생기는 겁니다.
어쨌든 단백질이 어떤 모양을 갖고 접히느냐는 것을 우리가 예측하기 쉽지 않아요.
그런데 알파폴드가 인공지능을 이용해서, 마치 알파고가 바둑을 잘 두듯이, 단백질이 접히는 모양을 아주 잘 예측해서 유명해졌죠.
그리고 우리가 모두 알다시피 2022년에 챗지피티가 나왔어요.
그런데 바로 지난해 가을에 노벨 물리학상과 화학상을 모조리 인공지능 연구가 받았습니다. 이건 너무나 놀라운 일인데 물리학자들은 대체로 안 좋아했죠. 이건 말도 안 된다 하면서요. 화학자들도 안 좋아했고요.
앞에서 말한 홉필드라는 사람이 사실 물리학자긴 합니다. 홉필드, 그리고 볼츠만 머신과 백프로퍼게이션 연구를 한 힌턴이 같이 노벨 물리학상을 받은 거죠.
그런가 하면, 알파폴드, 즉 단백질의 구조를 잘 예측할 수 있는 걸 만든 그룹이 노벨 화학상을 받았습니다.
그래서 노벨상을 다 인공지능이 휩쓸었죠. 노벨 물리학상과 화학상을요.
이건 상당히 예외적인 일이고, 2024년에 이것이 커다란 충격이었는데, 2025년의 충격은 뭘까요?
바로 딥시크라는 게 갑자기 등장한 것입니다. 이게 사실 처음에 나온 건 2024년이기는 하지만 2025년 1월에 이것의 성능이 놀랍다는 것이 발표되면서 엄청난 충격을 줬죠.
지능이란 무엇인가
지능이란 무엇인가 잠깐 짚고 넘어가는 게 좋을 것 같습니다.
인공지능은 결국 인공적으로 지능을 만들어 보자는 것이죠. 사람의 지능 같은 걸요.
그런데 과연 지능이라는 게 뭘까요?
먼저 분석적인 사고를 할 수 있는지가 있는데, 이것만으로 지능이라고 생각하기에는 좀 부족합니다. 이건 사실 도구적 기능이거든요. 낮은 수준이죠. 분석 조사 할 수 있다는 것은요.
이것보다 훨씬 더 중요한 것이 창조적 능력이라고 우리가 보통 말하는 건데, 창의성이라고 얘기하는 거죠. 창의성은 유사성을 찾는 것을 뛰어넘어서 독창성을 보여 줄 수 있고, 특히 중요한 건 추상화라는 걸 할 수 있는 능력이죠. 상상을 할 수가 있느냐, 이게 사실은 창의성의 핵심이라고 생각돼요.
아까 말씀드렸습니다만, 앨런 튜링이라는 천재가 튜링 테스트라고 하는 걸 생각해 냈는데, 이게 뭐냐 하면 인공지능을 이렇게 구분하자는 겁니다.
기계에 뭔가를 물어봐서 기계가 응답을 하는데, 그 응답을 받은 사람이 볼 때, 인간이 한 건지 기계가 한 건지 구분을 못 하겠다, 그러면 그걸 인공지능이라고 간주하겠다고 한 것입니다. 이것을 인공지능을 구분하는 조건으로 생각한 겁니다.
그럴듯하죠. 다 동의하십니까?
그런데 여기에 대해서 문제가 제기되는데, 뭐냐 하면 존 설이라고 하는 심리학자가 이걸 반박하는 ‘중국어 방’이라고 하는 유명한 논변을 제시했습니다.
이게 무슨 얘기인가 하면요. 미국 사람이 볼 때는 세계에서 가장 어려운 언어가 중국어죠. 한자도 뭔지 전혀 알지 못하지요.
어떤 방이 하나 있고 보이지 않는 그 속에 어떤 사람이 있는데, 그 사람한테 중국어로 물어봅니다. 이렇게 중국어로 문제를 냈을 때 그 방 안의 사람이 그 중국어 질문을 이해해서 답을 해 줍니다.
그런데 그 사람은 사실 중국어를 전혀 이해 못 하는 사람인데, 다만 완전한 매뉴얼을 갖고 있는 겁니다. 중국어 매뉴얼이 있어서 이런 질문엔 이렇게 답을 주고 하는 식으로 기계적으로 하는 것이죠. 완전히 기계적으로. 즉, 기계적 번역인 것이지 중국어를 이해하는 건 아닙니다.
그런데 튜링 검사에 의하면, 우리가 그걸 구분할 수가 없으니까 인공지능이라고 봐야 한다는 얘기가 되는데, 실제로는 방 안에 있는 사람은 중국을 전혀 이해 못 하는 사람인 데도 불구하고 바깥에서 질문하고 답을 받는 사람 입장에서는 방 안의 사람이 중국을 완벽하게 하는 것처럼 판단할 거라는, 즉 지능이 있는 것처럼 판단할 거라는 얘기죠.
그러니 이건 잘못된 것이다, 따라서 튜링 검사는 옳지 않다는 반박입니다.
여기에 동의하시나요?
이에 대해서 여러 가지 반론이 있고, 또 재반론이 있고, 거기에 또 재재반론이 있고 해서 아직도 누구나 동의하는 답은 없습니다. 사람마다 생각이 다른 거죠.
그런데 인간도 사실은 태어나서 한참 학습을 한 다음에 지능 작용을 하겠죠. 갓난아이가 지능 작용을 할 것 같지 않죠.
그런데 문제는 과연 이해한다는 게 무엇인가 하는 겁니다.
중국어 방 논증이 기계는 이해를 못 하는 것이라고 비판을, 반론을 한 것인데. 이해라는 게 뭘까요? 여기 학생이 있으면 수능을 다 봤을 거잖아요. 수능, 다 이해하고 답을 맞췄나요? 찍어서도 답을 맞추잖아요.
그러니까 말하자면, 모르는데 그냥 답은 맞출 수 있다는 말이에요.
찍는다고 해서 그냥 마구잡이random 확률적으로 하는 건 아니고, 답이 이거라는 건 알긴 아는데, 정말 이해하고서 답을 아는 거냐 하면, 그렇지 않은 경우가 참 많다는 걸 알 수 있어요, 학생들을 가르쳐 보면요.
그러니까 이해라고 하는 게 과연 뭐냐, 정의하는 게 그렇게 쉽지가 않아요. 바꿔 말하면 지능을 정의한다는 게 사실 굉장히 어렵다는 얘기죠.
우리가 흔히 얘기하는 이해를 조금 어렵게 정의하면 이렇습니다. 분석적 사고로 끝이 나는 것은 이해라고 할 수 없고, 개념적 사고가 있어야 돼요.
개념적 사고라는 게 무슨 얘기냐 하면, 여러 가지 다양한 경우가 있을 때 하나의 본질적인 것을 생각하고 찾아내서 그것들을 엮어 낼 수가 있어야 한다는 뜻이거든요.
이것을 전문 용어로 말하면 우리가 감각 경험을 통해서 인식을 하는데, 그런 것들 사이에 어떠한 질서를 만들 수 있어야 이해라는 얘기죠.
그러니까 이것 저것이 다 제각각이 아니라 그것들의 본질을 꿰뚫어서, 엮어서 하나의 틀로 이해할 수 있다, 이런 생각을 할 수 있어야 한다는 얘기거든요.
그것이 바로 이해라는 얘기예요.
이걸 전문 용어로 말하면 존재론, 그러니까 감각 경험의 존재론과 우리가 생각하는 인식론을 합해서 이른바 이론, 보편지식 체계를 엮어내는 능력을 보일 수 있어야 진정한 이해다 하는 겁니다.
이건 제가 주장하는 게 아니라 개념적 사고라는 말은 그 유명한 아인슈타인의 얘기니까 우리가 거부할 수 없지 않겠습니까?
이론 구축 얘기는 제 생각이고요. 아인슈타인의 말을 확장한 거예요.
인공지능과 인간 두뇌의 차이
인공지능(AI)이라고 하는 것을 대개 세 가지로 구분하면, 첫째는 우리가 현재 보통 쓰는 것으로 약인공지능입니다.
약한(weak) AI, 혹은 특수 인공지능, 혹은 기능적 인공지능이라고 하는 것은, 주어진 조건에서 특정한 문제 해결을 하는데 그걸 지능처럼 한다는 것입니다.
대표 사례가 바로 알파고에요. 알파고가 바둑을 기막히게 두지만 알파고가 할 수 있는 일은 바둑밖에 없습니다. 그밖에는 아무것도 못 하거든요.
그러니까 약인공지능이라는 건 특정한 문제만 해결할 수 있는 거고 일반적 문제 해결은 못 하는 거죠.

그런데 그와 달리 강인공지능, 또는 일반 인공지능은 말하자면 사람 같은 거죠.
지각이 있고 인식 능력도 있고 특히 자의식과 자아가 있는 경우인데 이런 인공지능은 아직 없습니다.
더 나아가서 초인공지능이라는 표현도 씁니다. 슈퍼 AI인데 이거는 뭐냐 하면, 인간 능력을 초월하는 거죠.
말하자면 하느님이 되는 건데, 이런 게 되면 인간은 끝장이라고 봐야죠.
그래도 걱정 안 하셔도 되는 게, 슈퍼 AI는커녕 강인공지능도 절대 지금 없고 앞으로도 저는 없을 거라고 봅니다.
앞으로도 없을 거라는 게 무슨 뜻이냐 하면, 현재 방식으로는 당분간은 그럴 것이라고 생각이 된다는 겁니다. 뭐 장차 어떻게 될지는 모르죠.
사실 지능이라는 건 뭐냐 하면, 기본적으로는 떠오름입니다. 영어로 이머전스emergence, 한자어로는 창발이라고 하는데 이게 무슨 얘기냐 하면요.
지능이라는 게 우리 머릿속 두뇌에서 생겨난다고 가정하면(아마도 그렇겠죠), 두뇌에 1000억 개에 가까운 신경세포들이 있어요.
신경세포가 하나만 있으면 지능이 있을 리가 없는데, 그게 1000억 개 정도 모여서 전체가 서로 시냅스로 연결돼서 상호작용을 묘하게 합니다. 그 상호작용 때문에 전체 집단의 성질로서 생겨나는 걸 ‘떠오름’이라고 합니다.
개개의 구성 요소의 성질이 아닌 전체 집단의 성질이 없었던 게 생겨나는 것을 떠오름이라고 부르고, 지능이라는 건 명백하게 떠오름이라고 생각됩니다. 떠오름 현상이라고요.
인간의 두뇌와 컴퓨터를 비교할 필요가 있을 것 같습니다.
인간의 두뇌는 아까 말씀드렸듯이 신경세포들의 모임인데요. 그래서 두뇌를 신경그물얼개라고 합니다. 영어로는 neural network, 즉 신경세포들이 서로 그물 모양으로 얽혀 있는 게 두뇌죠.
이것은 컴퓨터와 굉장히 다릅니다.
여기서 말하는 컴퓨터는 종래의 컴퓨터에요. 두뇌와 컴퓨터가 뭐가 다르냐 하면요. 여러 가지가 있지만 그중 몇 가지만 지적하면 첫째는 정보를 저장하고 필요할 때 다시 빼 쓰는 건 컴퓨터나 두뇌나 똑같아요.
그런데 결정적인 차이가 뭐냐 하면, 컴퓨터는 우리가 정보를 저장할 때 하드디스크에 저장하잖아요. 그러면 각 정보가 하드디스크의 특정한 영역, 특정한 지점에 저장됩니다.
그래서 하드디스크의 어느 부분이 망가지거나 깨지면 거기에 있었던 정보는 사라져 버리죠.
그런데 인간의 뇌에는 정보가 특정한 지역에만 있는 게 아니라 전체에 다 퍼져서 있습니다. 그렇기 때문에 어느 한 부분이 망가져도 별문제가 없는 거죠.
예컨대 뇌수술을 해서 일부를 떼어 내도 어떤 특정한 정보만 딱 없어지는 그런 일은 생기지 않아요. 그러니까 정보 저장에 문제가 없습니다. 그러니까 컴퓨터와 완전히 다르죠. 저장하는 방식이.
다시 말해, 이것 자체를 집단성질, 그 많은 수의 신경세포들의 집단성질이라고 볼 수 있고, 기억이라고 하는 건 두뇌 전체에 퍼져서 분포한다는 얘기입니다.
그리고 저장된 정보를 다시 불러들일 때, 하드디스크 같은 경우에는 정보를 찾으려면 많이 복잡하니까 보통 디렉터리, 주소를 쭉 만들지 않습니까? 한국 서울 종로구 식으로 디렉터리, 서브 디렉터리, 서브 서브 디렉터리 이렇게 쭉 만들어서 주소를 줍니다.
우리 머릿속에서는 그렇게 주소를 만들어 놓은 게 아니거든요. 그런 게 없이 내용에 의해서 곧바로 정보를 만회할 수 있습니다. 이것을 ‘내용 주소 기억’ 영어로는 ‘content-addressable memory’라고 합니다.
그리고 이것은 연상이라고 하는 특징이 있어요.
예를 들어서 여러분이 길을 가다가 초등학교 동창을 우연히 만났는데, 동창인 것은 알겠는데 갑자기 이름이 생각 안 날 수 있죠. 이름이 뭐더라 한참 고민하다가, 또 모른다고 그러기도 좀 그러니까 고민하다가 좀 얘기하다 보면, 이름은 안 물어봤지만, 다른 얘기 하다 보면 갑자기 이름이 생각나는 거 경험하셨죠.
바로 연상이 돼서 그런 거죠. 영어로 ‘associative memory’라고 하는데, 이것은 어떤 정보가 다른 정보와 서로 연관돼 있을 때 어느 정보를 다시 만회할 수 있으면 다른 정보도 같이 떠올릴 수 있다는 뜻입니다.
마지막으로 복잡이라는 말과 번잡이라는 말을 제가 구분하겠는데요. 영어로는 각각 ‘complex’와 ‘complicated’라고 합니다.
무슨 얘기냐 하면, 보통의 컴퓨터는 굉장히 복잡하죠. 컴퓨터의 경우에는 부속품 중 어느 하나만 살짝 고장 나도 전체를 다 못 쓰게 되지 않습니까?
그런데 우리 머리는 어느 한 부분이 고장 나도 전체 기능에 문제가 없거든요. 이것이 굉장히 중요한 차이입니다. 그래서 우리 머리 같은 걸 복잡하다, 컴플렉스라는 표현을 쓰겠고 인간이 만든 기계들은 복잡한 게 아니라 번잡한 것이라고 컴플리케이티드라고 하겠습니다.
이 둘을 구분할 필요가 있겠습니다.
그런데 인공지능이라는 것은 전통적인 컴퓨터와 좀 다른 겁니다. 알파고나 챗지피티나 알파폴드나 딥시크는요.
딥시크는 원래는 ‘심도구색’이라고 써야 되는 거더라고요. 원래 한자어로 심도구색인데 영어로 딥시크라고 한 거죠. 심도, 즉 깊이 있게 구색, 즉 탐색해 구한다 이런 뜻이죠. 한자어가 때로 보면 참 재미있어요.
인공지능이 뭐냐 하면 기존의 컴퓨터와 달리 인간 두뇌의 성질을 좀 가지게 설계를 새롭게 한 겁니다. 우리 머리를 약간 흉내 내서요.
그러나 흉내를 내기는 했지만 분명히 차이가 있습니다. 이것도 두뇌와 인공지능의 차이를 말하는 건데요. 생물학적 신경그물얼개는 인간의 두뇌를 말하고, 인공 신경그물얼개는 인공지능을 말하는 건데요. 이 둘이 차이가 있죠.
우리 두뇌 신경그물얼개의 진짜 신경세포(뉴런)들이 어떻게 작동하느냐 하면 이런 식으로 작동을 하는데요. 굉장히 좀 이상한 방정식이지만 미분 방정식이라고 부르는 거죠. 이 방정식의 요소들은 전압, 전압의 시간에 따른 변화율, 전류들인데요. 이런 식으로 두뇌는 전류에 의해서 작동합니다.

그런데 인공 신경그물얼개는 아까 처음에 말씀드렸듯이, 매컬러와 피츠가 생각해 낸 모델에 따라서 작동합니다.
인공 신경그물얼개는 두뇌보다 훨씬 간단하게, 어떤 적절한 입력이 있을 때 출력(결과)을 얻는 동역학의 과정이 훨씬 간단합니다. 인공 신경그물얼개는 전자 회로로 설계한 거니까요.
인공 신경그물얼개가 우리 관심사인데요. 사실 그것은 기본적으로 약인공지능이기 때문에 기본적으로 ‘특정한 기능을 수행하는 함수’입니다.
그런데 재미있는 게, 함수라는 거 아시죠? 수학 배우셨으면 보다시피 영어로는 기능도 function이고 함수도 function이거든요. function이라고 말할 때 그게 기능을 뜻하느냐 함수를 뜻하느냐가 사실은 문과와 이과를 구분하는 차이라고 보통 얘기를 합니다. 여기서는 두 가지가 다 있는 거죠.
함수라는 건 이런 거죠. 여기 정의역에 있는 x라는 것을 다른 것에 대응시켜 주고, a는 또 다른 것에 대응을 시켜 줄 때, x의 대응 값을 f(x)라고 쓰고 a의 대응 값을 f(a)라고 하면, 이것이 f라고 하는 함수입니다.
D라는 영역과 E라는 영역을 연결시켜 주는 것, 이렇게 맺어 주는 게 함수죠.

오른쪽 그림의 기능은 뭐냐 하면, 입력 단자가 있어서 여기에 적절한 정보를 넣으면 중간에 어떤 기능을 적절하게 해서 출력이 나오는데 이것도 함수라고 생각할 수 있는 거죠. x라고 하는 입력값에 f(x)라고 하는 출력값을 주는 것이 함수라고 해석을 할 수 있습니다.
인공 신경그물얼개의 실제 모양은 이렇게 생겼는데요. 한쪽에 입력 단자들이 있고 다른 쪽에 출력 단자가 있는데, 입력과 출력만 있으면 기능을 하지 못하기 때문에 그사이에 ‘감춰진 켜’들을 집어넣어서 그사이를 적절히 왔다 갔다 하게 하면 우리가 원하는 답을 일반적으로 얻을 수 있게 되는 거죠.
이런 걸로 뭘 하자는 거냐 하면, 예를 들어 이런 겁니다. 이것은 문자 인식, 무늬 인식을 하는 건데요. 우리가 손으로 쓴 글씨들, 예를 들어서 여기 보시면 1이라는 숫자를 이렇게 저렇게 쓸 수 있고 3이라는 숫자도 이렇게 저렇게 쓸 수 있는데, 이걸 다 구분해서 이건 다 1이고 이건 다 3이고 이건 다 2라고 구분할 수가 있어야 되지 않겠습니까? 인공지능이라고 말하려면요.
그리고 또 예를 들어서 빨간 점과 파란색 십자 표시를 적절하게 구분할 수 있는 선을 그을 수 있어야 되는 거죠. 딱 알맞게 이런 선을요. 이 선이 바로 어떤 함수 꼴로 주어지는 거죠. 그래서 그 함수를 찾아야 되는 겁니다.
그것이 인공지능이 하는 일이고 우리가 인공지능을 설계할 때 하는 일이죠.
문자를 예를 들어서 이건 다 알파벳 f인데 이것은 소문자 f이다 이렇게 구분할 수 있어야 합니다. 사람한테는 사실 너무나 쉬운 일이잖아요.
그런데 기계한테는 굉장히 어려운 일이거든요.
이것이 자료 기반 맞춤법, 영어로 data-based fitting method인데요. 이게 뭐냐 하면, 기계학습이라는 말 많이 들어보셨죠? 기계, 바로 인공지능이라고 하는 게 결국 기계죠. 사실 기계예요. 그러니까 전자회로의 기계인데, 그 기계한테 뭐 좋게 말하면 공부를 시켜서, 공부하라고 자꾸 이렇게 가르쳐서 기계가 알게 한 다음에 그다음부터는 기계가 알아서 수행할 수 있게 하는 것입니다.
‘어떤 자료가 있으면 그 자료를 어떤 특정한 함수로 이렇게 어림하는 걸 찾아라’ 이렇게 하는 걸 배우게 해 주는 겁니다. 기계 학습은 다시 말하면, 여기 파란 점들이 데이터 자료들인데 이거를 싹 엮어 내는 함수를 만들어 봐라, 이렇게 하는 것인데요. 빨간 선으로 이렇게 적당히 그을 수 있게 하는 것입니다.
다항식이라는 거 많이 아시죠? 다항식 함수를 이런 식으로 적절하게 어림을 해서 여기 곁수들 a0, a1, … 이 어떤 값을 택하는 것이 이걸 가장 잘 어림할까, 이런 걸 찾는 일을 하는 겁니다. 기본적으로 인공지능이라는 게.

여기서 중요한 건 이 항을 무한히 많이 하면 그만큼 점점 잘 맞겠지만 이게 무한히 많아지면 뭐 의미가 없는 것이지 않습니까?
그래서 중요한 거는 이렇게 표현을 잘하면서도 효율성도 있어야 되는 거죠.
그러니까 적절한 선에서 이렇게 타협해서 너무 복잡하지 않게, 너무 힘들지 않게 하면서도 또 기능을 웬만큼 하게 만드는 것이 항상 어려운 문제라고 할 수 있습니다.
이것은 아까 말씀드린 알렉스넷이라고 하는 것인데, 120만 개의 영상을 보여 주고서 이걸 1000가지로 분류해 봐라 한 것입니다.
왼쪽에 여러 가지 입력이 있고 오른쪽에 출력이 있고 그사이에 여러 가지 감춰진(숨겨진) 켜가 있어서 영상을 쭉 분류시켰는데, 이걸 굉장히 성공적으로 수행을 한 것입니다. 영상을 아주 잘 분류해서 알렉스넷이 굉장히 유명해졌고 힌턴이라는 분이 이런 공로로 노벨상을 지난 가을에 받은 겁니다.
알렉스넷은 실제 뉴런이 아니라 회로로 만든 인공 뉴런을 65만 개를 썼어요. 인공 뉴런 65만 개를 만든 것이죠.
그리고 5개의 켜를 넣었고, 컨볼루션convolution이라는 건 조금 전문적인 얘기라 지나가겠습니다만, 하여튼 맺음변수(파라미터)를 한 5000만 개 정도 조정을 한 겁니다. 5000만 개의 맺음변수를 조정해서 적절한 함수를 잘 맞춘 것이죠.
인공지능의 무늬 인식이 실제로 사람보다 정확합니다. 사람도 착오가 있으니까 갑자기 보여 주고 치우면 이게 뭔지 잘 구분 못 할 때가 많은데 인공지능은 사람보다 더 잘 구분합니다. 더 우수하죠.
그런데 문제는 뭐냐 하면, 가끔가다가 어처구니없는 실수를 합니다. 사람은 안 할 실수를 말이죠. 왜 그런지 알기가 어렵거든요. 이게 참 심각한 문제 중에 하나입니다.
그리고 인공지능에 학습 자료를 주고 가르친 건데, 말하자면 자료를 자꾸 집어넣어서 훈련을 시킨 건데 그 훈련시키던 자료와 굉장히 다른 새로운 문제를 주면 인공지능이 거의 잘 못합니다.
이걸 우리가 뭐라고 표현하냐면, 바깥늘림을 못 한다고 얘기합니다.
대신에 인공지능은 사이넣기는 잘해요. 그러니까 이러이러한 걸 다 알려 주면 그 사이에 있는 건 금방 알아맞혀요.
그런데 여기만 알려 주고 그 바깥의 것을 물어보면 모른다는 거죠. 그런 면이 상당히 있어요.
아까 알파폴드라고 하는 것이 지난해 노벨 화학상을 받은 공적인데 단백질의 흰자질 구조 찾기는 굉장히 잘하긴 하지만 이것도 마찬가지로 이미 배운 것과 비슷한 것만 잘 맞히지 새로운 건 잘 못 맞힙니다. 그러니까 뚜렷한 한계가 있는 거죠.
그리고 훈련을 자꾸 시키면 일반적으로 좋아지겠지만 너무 많이 훈련시키면 오히려 나빠집니다.
사람도 똑같잖아요. 죽어라 공부를 너무 많이 시키면 좀 바보가 되지 않습니까? 그러니까 적절하게 해야 되는데 인공지능도 비슷합니다.
왜 그러냐. 너무 맞춤, 영어로 overfitting이라는 용어를 쓰는데, 말하자면 어떤 문제를 계속 훈련시키면 거기에만 많이 맞춰져서 그것과 좀 다른 응용은 잘 못하게 되는 거죠.
사람하고 상당히 비슷하지 않습니까? 실제로 학생들을 가르쳐 보면 그렇습니다.
그리고 잠재적인 위험이 있는데요. 이 특성을 잘 아는 사람들이 취약한 부분을 공격하고 해킹을 하면 굉장히 위험할 수가 있는 거죠. 그런 문제들이 걱정이 됩니다.
예를 들어 마이크로소프트가 만든 채팅봇 테이라는 게 있었는데 이게 나오자마자 얼마 안 가서 욕하고 인종차별도 하고 그랬어요. 제가 보니까 이건 일베의 소행이라는 생각이 좀 들더라고요. 미국판 일베요.
그리고 구글 사진 응용도 있었는데 예를 들어 이건 유명한 사진이죠.

이게 마천루, 영어로 sky scraper라고 알아맞힙니다. 이건 날개만 보여 줬는데 비행기라고 딱 알아맞혀요. 이건 자동차라고 알아맞히고, 자전거도 알아맞혔는데요.
이걸 보고서는 고릴라라고 그러는 겁니다. 사람인데. 그러니까 이 문제가 굉장히 심각해서 결국 구글 포토 앱이 취소가 됐죠.
그리고 이게 이제 재미있는 일 중에 하나죠. 구글 번역기 사례인데요. 여기에 “한꾹인들만알아들쑤있께짝썽하껬씁니따’라고 쓰여 있습니다.
이렇게 하면은 구글 번역기도 물론 인공지능인데 그거 돌려도 번역 못 하거든요. 못 알아맞혀요.
근데 우리 사람은 보면 금방 알죠. “여기에 바퀴벌레 나왔고 화장실이 많이 낡았고, 그래서 똥을 옆 화장실에서 쌌다. 절대 여기로 오지 마라.” 이렇게 쓰여 있는데, 이런 거 보면 아직도 인간과 기계 사이에 좀 흥미로운 문제들이 있죠.

챗지피티
이제 챗지피티 본론 시작인데 챗지피티가 얼마나 어마어마하게 빨리 성장을 했냐 하면요. 불과 5일 만에 이용자가 100만 명을 넘어섰거든요. 그러니까 인스타그램이나 다른 것들은 비교가 안 되는 거죠.
챗지피티가 뭐냐. GPT라는 건 영어로 Generative Pre-trained Transformer인데 트랜스포머라는 건 아까 말씀드렸습니다만 주의를 집중한다는 방식을 도입한 것인데요.
이게 무슨 얘기냐 하면 입력 자료가 여러 가지 있으면 그 각 부분의 중요성에 약간 차등을 두는 기전을 만들어 놓은 겁니다.
그렇게 하면 자연어 처리가 굉장히 잘 된다, 효율이 높아진다는 것이 알려져서, 대개 요새 언어에 대한 인공지능은 대부분 다 트랜스포머라는 방식을 씁니다.
그 방식이 뭘 말하는 거냐 하면, 아래 그림과 같은 형태입니다. 여기 입력이 있고 이렇게 쭉 돌려서 이렇게 처리한 다음에 출력을 결국 구하는 건데 하여튼 뭐 자세한 구조는 중요하지는 않아요.

챗지피티가 처음에 나올 때는 지피티3 기반이었는데 4 기반으로 바뀌었죠.
학습시켜서 맺음변수를 조정해서 잘 작동하게 만든 건데요. 챗지피티를 어떻게 훈련을 시켰냐 하면, 말뭉치 수천억 개를 학습시켰다고 알려져 있습니다. 말뭉치라는 건 단어와 짧은 문장을 다 통칭해서 말하는 건데 문서를 무려 5조 개를 학습시켰다고 합니다. 이 수치는 처음에 출발할 때 얘기입니다. 지금은 훨씬 더 많아졌죠.
죽어라 공부를 시킨 겁니다. 이렇게 옆에서 인간이 계속 밀어붙이면서요.
그러니까 엄청난 인간의 노동력을 쓴 겁니다. 챗지피티를 훈련시키는 데 3조 7000억 원을 썼다고 해요.
처음에 출발할 때 영어 문서를 학습시킨 것인데 케냐 사람들을 썼습니다. 왜 케냐 사람들이냐? 당연하죠. 노동력이 엄청나게 싸니까요. 거기서 3조 원을 쓴 것이니까, 미국에서 했다고 하면 한 30조 원은 들었겠죠. 10배 정도요.
챗지피티의 맺음변수가 처음에 1750억 개였는데, 아까 말씀드린 알렉스넷은 맺음변수가 불과 65만 개밖에 안 됐죠. 그런데 챗지피티는 1750억 개였고 나중에 100조 개로 늘렸습니다. 어마어마한 거죠.
그래서 챗지피티는 맺음변수 공간이 엄청납니다.
연산 처리 장치도 엄청나죠. 1만 개의 A100이라는 GPU를 썼는데요. 이 GPU가 엄청난 겁니다. 그 연산 속도가 312테라플롭스인데, 매초 312조 번을 연산한다니 상상을 초월하는 거죠.
이 GPU 한 개에 1만 달러 정도 한다고 합니다. 그걸 1만 개 썼고 그다음에 MS Bing이라는 프로그램에 챗지피티를 집어넣었는데 그때는 CPU를 더 집어넣었죠. 28만 5000개를요.
챗지피티는 에너지를 막대하게 씁니다. 처음 나왔을 때 1년에 쓰는 에너지가 227기가와트였는데 지금은 훨씬 더 많이 쓰죠. 이 수치는 순전히 서버에 쓰는 것만 나타내고, 각자 사람들이 쓰는 에너지는 또 별개입니다. 이런 것들이 상당히 문제가 되죠.
챗지피티가 언어 기반 인공지능이기 때문에 대화를 하거나 글짓기는 정말 우수합니다. 많이 써 보셨죠? 저도 테스트해 봤는데, 상당히 그럴듯하게 하기는 합니다.
그런데 챗지피티는 전형성이 있으면 굉장히 잘 작동합니다. 예를 들어서 간단한 코딩을 한다든가 법률 같은 거라든가 기사를 쓴다든가 광고 디자인 같은 거 정말로 잘합니다. 아주 그럴듯하게요.
그런데 언어와 관계없는 작업은 잘 작동을 못 하죠. 그러니까 전형성이 없는 것들, 수식 연산 같은 것은 그리 잘하지 못해요.
챗지피티는 처음에 GPT-4로 출발해서 4o라는 게 나왔고, 지금은 o1에서 o3까지 나왔는데 최근에 나온 GTP4-o3는 추론 기능을 집어넣었어요.
무슨 뜻이냐 하면, 챗지피티를 많이 써보셨으면 아시겠지만 어떤 질문을 하면 황당한 답을 하는 거 많이 경험하셨죠? 모르면서 답을 해서 그러는 건데요. 모르면 모른다고 해야 되는데 죽어도 모른다는 말을 안 해요. 모르는 것도 아주 기발하고 이상한 말을 하면서 아는 척을 하니까, 이것이 잘못하면 정말로 잘못된 정보를 얻게 됩니다.
이것은 굉장히 중요한 문제인데 이 문제가 많이 개선이 되기는 했습니다. GPT4-o3에서는 추론을 하게 돼서요.
다시 말하자면, 자기가 답하기 전에 다시 한번 생각을 해 본다는 거예요. 예전에는 무조건 답을 했는데 말이죠.
비슷한 인공지능으로 코파일럿은 마이크로소프트에서 챗지피티를 집어넣은 것이고 우리나라 것으로 뤼튼이 있고 제미니는 구글에서 만든 것이고 그다음에 드디어 혜성같이 등장한 심도구색이 있죠.
이것이 지금 가장 큰 문제가 됐는데, 조금 이따 말씀드리기로 하겠습니다.
이것은 챗지피티를 이용해 처음으로 쓴 책인데 번역은 파파고 AI가 했어요. 글은 챗지피티가 쓰고 일러스트레이션은 셔터스톡이라는 AI가 만들어서, 모조리 다 사람의 손을 안 거치고 AI가 만들었다는 책입니다. 물론 기획은 인간이 한 것이지만요.

인공지능이 만든 최초의 책이다 뭐다 해서 한참 관심을 받았는데 이 책을 불과 7일 만에 만들었다고 합니다. 놀라운 속도죠. 사람이 했으면 아무리 빨리 써도 몇 달은 걸리죠. 그런데 7일 만에 했다니까 참 놀라운데 내용은 어땠느냐? 혹시 보신 분 있나요?
글쎄요, 별로 볼 가치가 없다고 생각됩니다. 한마디로 말하면 지극히 모범답안, 누구나 뻔히 아는 모범답안들을 만들어 놓은 겁니다. 챗지피티가 항상 그렇게 하거든요.
이제 인공지능이 시도 쓰더라고요. 챗지피티는 아니고 ‘시아’라고 하는 인공지능이 첫 번째 시집을 썼는데요. 제목이 “시를 쓰는 이유”입니다.
시아는 카카오에서 만든 것인데 뭐 아주 그럴듯하게 시를 썼다고 하더라고요. 이런 시를 읽고 감동을 받을까요? 한강의 작품하고 비교가 되려나 모르겠습니다,
인공지능의 문제
이게 문제가 뭐냐 하면, 답이 질문에 의존한다는 것입니다. 기본적으로 챗지피티 같은 ‘큰 언어 모형’(LLM)은요.
왜 이런 문제가 생기냐 하면, 질문을 통해서 학습을 한 것이기 때문입니다. 아까 지나갔습니다만, 인공지능이 지도학습이나 강화학습을 하기 때문에 이런 일이 생깁니다.
챗지피티가 쓴 책도 인간이 기획하고 인간이 질문한 거죠.
그래서 아까 말씀드렸듯이 모범답안 같은 책이고, 유명한 [언어학자] 노엄 촘스키가 뭐라고 했냐면 이것은 첨단 기술을 이용한 표절이다, 영어로 high-tech plagiarism이다 하고 표현했습니다. 실제로 그다음에 표절 작품이 넘쳐나기 시작했죠.
그래서 어떤 게 나왔냐 하면, 챗지피티가 작업한 건지 정말 독창적으로 한 건지 판별하는 탐지기가 나왔습니다. ‘챗지피티 제로’라는 거예요.
대학에서 가르치면서 요새 학생들에게 리포트(보고서)를 내게 하면 그것이 챗지피티를 시켜서 쓴 건지 학생 본인이 정말 쓴 건지 알 수가 없어요.
이렇게 아주 난처한 문제가 생기는데 그래서 챗지피티 제로라는 게 생겨났어요.
또, 이런 게 생겨났어요. 나이트셰이드라는 것은 학습을 하면 자료를 다 파괴해 버려서 표절을 못 하게 하는 겁니다.
결국 창과 방패의 싸움인데 굉장히 소모적이라는 생각이 드시지 않습니까?
거기에 창의성이 과연 뭐가 있는지 저는 굉장히 회의적입니다.
그다음 문제는 틀린 정보를 그럴듯하게 제시한다는 것입니다. 이것이 참 문제인데 심지어 인용 문헌까지 조작을 합니다. 제가 깜짝 놀랐는데 이걸로 혼난 사람이 많이 있어요.
미국의 경우인데 변호사가 변론을 준비하다가 챗지피티에 시켰더니 이런 판례가 있었다고 하면서 준 거예요. 그래서 그 변호사가 그 판례를 딱 들이밀었는데 알고 보니까 그게 다 거짓말로 드러나서 징계를 받았죠. 실제로 그랬습니다.
물론 이 문제는 GPT-4가 처음 나왔을 때 생긴 것이고 지금은 많이 개선돼서 아마 이 문제는 거의 없어졌을 겁니다.
아무튼 그래서 챗지피티를 이용해 새로운 정보를 얻는 것은 굉장히 위험해요. 아는 내용을 요약하는 건 참 잘 해주지만요.
그래서 제가 보기에는 우리가 보통 생활할 때 비서 역할은 참 잘하는데 비서 역할밖에 못 하고 더 이상 다른 것은 못 하는 게 딱 맞는 답이라고 저는 생각합니다.
그 다음 문제는 챗지피티가 거짓말 제조기가 돼 버린다는 거예요. 왜 그러냐 하면, 인간이 어떻게 훈련시키느냐에 따라 달라지거든요.
그래서 실제로 보면 요새 SNS에서 가짜뉴스와 혐오 선동이 난무한다는 것을 너무 잘 아시지 않습니까? SNS나 유튜브 같은 걸 비롯해서요.
저는 이것이 굉장히 큰 문제라고 생각을 하는데요. 이른바 현대 사회는 ‘탈진실 사회’(post-truth society)라고 하는데, 진실이 중요하지가 않다는 얘기죠. 이제는 지금 사회에서는 그런 암울한 미래를 재촉할 겁니다. 이런 AI가요.
‘환각’이라는 말 많이 들어보셨죠? 영어로 hallucination인데요. 챗지피티 때문에 자살한 사람이 실제로 생겼습니다. 챗지피티가 자꾸 죽으라고 해서 미국인가 호주인가에서 그런 일이 생겼고요.
참 여러 가지 심각한 문제가 발생할 소지가 있고 이것은 과학의 무능함과 무책임이 될 수가 있습니다.
또 다른 문제는 자료 이용 학습을 하는데 스스로 대규모로 자료를 생성한다는 점입니다. 챗지피티를 이용하는 사람이 전 세계에 엄청나게 많으니까 어마어마한 자료가 나옵니다.
그리고 챗지피티를 이용해 나온 자료를 결국 다시 챗지피티가 학습하게 될 겁니다.
그러면 뭐가 되겠습니까? 자기복제가 되는 거죠.
자꾸 자기복제가 돼 버리면 어떤 일이 생길까요? 급격하게 성능이 저하할 수밖에 없습니다. 굉장히 문제가 심각해질 수가 있죠. 그리고 학습 자료가 오염되고 지식 생태계가 파괴될 가능성이 굉장히 크죠.
특히 자료 수집에서 개인 정보, 프라이버시 문제가 심각할 수 있는데요. 이 문제에 딥시크가 걸린 것이죠. 딥시크가 사용자 정보를 일방적으로 굉장히 많이 가져간다고 해서 난리가 나고 미국에서 금지하고 유럽에서도 금지하고 한국에서도 다 금지한 거 아시죠?
저는 딥시크를 몇 번 써 보려고 시도하다가 금지되는 바람에 완전히 사용하지 못하게 돼서 상당히 유감인데요.
그런데 사실 정보 수집은 딥시크만 하는 게 아니라 챗지피티의 오픈AI나 구글도 엄청나게 했죠. 저는 딥시크가 더 심한지는 잘 모르겠습니다. 정도의 차이는 있을지 모르지만 말이죠.
딥시크가 걸린 것 중 대표적인 것이 키보드 패턴을 가져간다는 것인데 그거 가져가서 뭐 하겠어요.
가져가 봐야 뭐 문제 될 거 없죠. 내가 키보드를 어떤 리듬으로 치느냐 독수리 타법으로 치느냐 아니면 유연하게 치느냐 이런 것이 별로 상관없을 것 같은데 이것이 딥시크가 걸린 대표적인 거예요.
저는 정확한 상황은 모르지만 혹시 별로 걸릴 게 없어서 그거 잡은 거 아닌가 하는 생각도 들고 잘 모르겠습니다.
그런데 한 가지 차이는, 중국 정권은 공산당이 다 하니까 공산당이 사실 중국보다 더 위에 있는 거죠. 그래서 이런 정보 수집이 전부 다 중국 국가 정부가 하는 거다, 그래서 위험하다고 하는데 정부에서 하든 아니면 구글이나 이런 데서 하든 저 개인적으로는 뭐가 차이가 있을지 잘 모르겠습니다.
그다음에 챗지피티의 경우에는 영어 자료를 주로 사용하기 때문에 언어의 다양성, 문화의 다양성이나 복잡성을 훼손해서 획일화 문제, 왜곡과 편견을 증폭시킬 가능성이 굉장히 크죠. 이건 걱정이 된다고 생각합니다.
결국은 문화에 따른 다양성이 훼손될 수 있는데 이걸 막으려면 결국 인공지능이 대중화돼야 될 텐데 사실 대중화에 엄청나게 기여한 것이 바로 딥시크입니다.
딥시크에 대해 깜짝 놀란 게 있는데요. 다 아시겠습니다만 오픈AI가 챗지피티는 어마어마한 돈을 써서 만들어 낸 건데 딥시크는 정확히는 모르지만 알려진 바로는 챗지피티의 30분의 1 정도의 비용으로 만들었다고 해요.
하드웨어도 아까 말씀드린 GPU를 엄청나게 많이 쓴 것이 아니라 훨씬 더 낮은 성능의 저가 제품을 썼다고 알려져 있습니다.
그러니까 딥시크는 이런 점에서 굉장히 획기적인 거죠. 그러니까 돈이 없는 나라도 이런 인공지능을 만들 수 있다, 돈이 없는 사회도 만들 수 있다, 미국이 독점하지 못하게 할 수 있다는 게 굉장히 중요한데요.
더 중요한 것은 뭐냐 하면, 정말 저도 놀랐는데요. 딥시크가 소스코드를 다 공개했다는 거예요. 소스코드만 공개하면 사실 그 소스코드가 어마어마하게 기니까 그걸 우리가 이해한다는 게 엄청나게 힘든 일인데요. 소스코드만 공개한 게 아니라 기술 문서도 다 공개했다고 하더라고요.
기술 문서라는 건 그 코드를 하나하나 다 설명해 준 것이거든요. 그걸 다 공개했다는 건 정말 누구나 그걸 보고서 비슷한 걸 만들 수 있게 했다는 뜻이에요.
제가 그 분야 전문가가 아니라서 정말 그렇게 했는지는 모르고 그렇다고 얘기만 들어서 깜짝 놀랐는데요. 이게 사실이라면 정말 놀라운 일이거든요. 모든 걸 다 공개했다는 얘기니까요.
사실 과학의 가장 핵심적인 성격은 공개거든요. 그러니까 모든 게 열려 있어야지 과학이고, 열려 있지 않고 닫게 되면 다른 목적이 있는 거죠. 돈이라든가 하는 목적이 있는 것인데, 그것은 사실 기술이지 과학이라고 할 수 없는데요.
그동안 챗지피티 같은 것은 전부 다 그런 면에서 기술이지만 딥시크는 과학의 경지를 추구하려고 한 것 아닌가 하는 생각까지 듭니다.
제가 좀 잘못된 정보를 가지고 있는지도 모르겠지만, 하여튼 제가 들은 얘기로는 상당히 좀 놀랐어요. 그것이 다 사실이라고 하면, 굉장히 아주 획기적인 사건이 될 수 있을 것이라고 봐요. 긍정적이든 부정적이든요.
긍정적이라는 건 물론 가난한 나라, 가난한 사회도 다 스스로 AI를 만들 수 있고, 문화 다양성을 지켜 나갈 수 있다는 점이고요.
부정적인 점이라고 하면, 에너지를 어마어마하게 쓰는 것이죠. 전 세계에서 정말 끔찍하게 많은 전력을 쓸 겁니다.
딥시크가 어떻게 가능했는지가 굉장히 흥미로운데, 증류distillation이라는 방법을 썼다고 하더군요. 증류는 인공지능을 훈련시킬 때 쓰는 방법인데 쉽게 비유하면 이렇게 말할 수 있을 것 같아요.
오픈AI의 챗지피티 같은 것들은 좀 농담으로 말하면 무식하게 훈련을 시킨 거예요. 그러니까 아까 문서를 5조~10조 개를 집어넣어서 무지막지하게 훈련시킨 건데요.
딥시크는 제가 듣기로는, 비유하자면 그렇게 무지막지하게 훈련 안 시키고 족집게 과외를 했다는 거예요. 족집게 과외 선생을 붙여서 딱 집어서 가르치는 것이라고 비유할 수 있을 것 같습니다.
제가 딥시크를 테스트 몇 번 해보고 받은 느낌은 굉장히 일상적인 것, 그러니까 보통의 것들은 굉장히 놀랄 만큼 잘 작동하는 것 같습니다.
그런데 특정하고, 일반적이지 아닌 것은 잘 수행하지 못하는 거 아닌가 하는 느낌을 받았습니다. 확실한 건 아니에요. 한두 번 시험해 본 것이니.
아래 그림은 나이트셰이드입니다. 인공지능이 자료를 학습하면 이렇게 달라지는 것입니다. 처음과는 완전히 다른 모양이 돼 버려서 표절을 못 하게 됩니다.
아래 그림은 인공지능한테 한국의 20대 남녀를 그리라고 그랬더니 여성을 이렇게 그리고 남성을 이렇게 그렸다 그러더라고요. 이게 무슨 뜻일까요 도대체?

20대 남자들은 군대 가서 추운 데 떨면서 죽어라 고생하고 있는데 20대 여자들은 카페에서 아주 희희낙락하면서 즐겁게 있더라는 것이죠. 이게 말이 되나요?
이 그림을 인공지능이 그린 것이 맞습니다. 그런데 그냥 20대 남녀를 그리라고 하면 이렇게 절대 안 그려요. 이렇게 그리라고 시킨 거거든요. 인간이 이렇게 시킨 겁니다. 특정한 키워드를 다 넣어준 거예요. 그러니까 이 그림은 굉장히 의도적으로 만든 거죠.
인공지능이 굉장히 위험할 수 있다는 게 바로 이런 뜻입니다. 굉장히 위험한 기능을 할 수 있다는 것이고, 분명히 갈등을 유발할 의도가 있는 거죠.
‘미드저니’라는 유명한 프로그램이 있는데, 아래 그림처럼 텍스트 프롬프트를 줬어요. 그러니까 이렇게 딱 그립니다. 어떤가요? 놀라운가요?

근데 잘 보세요. 멋져 보이고 미인처럼 보이는데 여기 오른팔 좀 이상하지 않나요? 좀 이상하죠. 잘못 그려졌어요. 오른팔 손목에 착오가 있습니다. 그러니까 사실은 완벽하지가 않죠. 이런 착오가 언제든지 나올 수 있어요.
인공지능이 동영상을 얼마나 훌륭하게 만드는지를 한 번 보면요. 프롬프트를 이렇게 줬어요. 그랬더니 이렇게 나와요. 영화 찍은 것 같죠? 도쿄를 배경으로 하라고 그랬더니 일본어 간판도 여기저기 막 집어넣었어요.
인공 신경그물얼개가 어떻게 이렇게 효과적으로 작동하는가 하는 문제는 물리학자에게 굉장히 중요한 문제인데요.
현실적으로 GPU나 CPU를 아무리 많이 집어넣어 만들어 봐야, 인공지능이 선택할 수 있는 경우의 수는 실제의 가능성에 비하면 굉장히 작은 수입니다.
그렇게 작은 수인데 어떻게 그렇게 잘 이제 작동을 할 수 있을까, 이것이 굉장히 수수께끼 같고 굉장히 이상한 일이죠.
예를 들면 이런 거죠. 사진 분류의 경우에, 픽셀이 100만 개 있고 각 픽셀에 256가지 색깔이 들어갈 수 있다고 하면 함수 정의가 256의 100만 승 개의 가능성이 있거든요.
그리고 언어에서도 똑같이 생각해 보면 25의 1000승 개까지의 가능성이 있어요.
무슨 얘기인가 하면, 엄청난 가능성이 있다는 거예요. 이 수는 우주 전체에 우리가 알고 있는 양성자 수보다도 훨씬 커서 거의 무한한 가능성이 있는데 사실 핵심 문제는 이 가능성을 어떻게 알고서 줄일 수 있냐는 겁니다.
인공 신경그물얼개는 많아 봐야 10의 11승 개 정도밖에 없는데 [사진 분류와 언어의 가능성과] 비교하면 0이나 마찬가지죠.
언어나 사진 분류에서 경우의 수는 1 다음에 0을 1000개, 그리고 100만 개를 나열하는 만큼의 수인데 인공 신경그물얼개에서 다룰 수 있는 것은 1 다음에 0을 11개 나열하는 수만큼이니 언어나 분류에서 경우의 수와 비교하면 너무나 적어서 아무것도 아니라고 할 수 있죠.
그러니 10의 1000승 또는 100만 승 같이 많은 가능성을 어떻게 겨우 10의 11승 개를 가지고 기술할 수가 있느냐 이것이 문제입니다.
그래서 유명한 말이 있는데요. 깊은 배움, 즉 deep learning이 어떻게 이렇게 싸게, 겨우 이거 가지고서 가능하냐는 거예요.
이게 굉장히 흥미로운 문제이고 물리학으로 풀어야 될 문제입니다.

물리학에서는 이것을 설명할 수 있는데 결론만 말씀드리면, 물리학에서 되틀맞춤 무리, 영어로는 renormalization group이라는 고급 이론이 있어요.
이것은 예컨대 물이 어떻게 얼음이 될 수 있는가 하는 문제를 기술할 때 쓰는 방법인데요. 그 방법으로 이 문제를 설명할 수 있습니다.
인간은 이성적으로 추측 가능한 설명의 종류를 제한하는데 인공지능은 이성적인 추측이 없고 상관관계의 확률을 갖고 얘기하거든요.
주어진 제한된 자료를 가지고 훈련을 하는데 엄청나게 많은 문장을 집어넣고 훈련을 시키면, 이런 말뭉치가 나오면 그다음에는 대부분 이런 말이 나오더라 하는 식으로, 곧 확률적으로 찾아가게 만들어 놓은 겁니다.
그래서 아마도 창조적 비판, 그러니까 창의성은 기대하기 어렵지 않을까 이런 생각이 들어요.
인공지능이 정보를 처리하는 기계지만 이런 것들이 걱정되기도 합니다.
불평등을 심화할 위험성이 굉장히 크다는 것이죠. 즉, 인공지능이 ‘부자들의 장난감’이 될 것이냐 아니면 ‘가난한 사람들의 필요’를 충족해 줄 것이냐 하는 것인데요.

인공지능은 아무리 봐도 후자가 아니라 전자 쪽으로 갈 것 같아요. 그런데 여기서 장난감이라는 말이 그냥 장난친다는 것이 아니라 불평등을 더 심화시키고 기득권을 더 강화해서 차별을 더 공고화하는 그런 역할을 하게 될 수 있는 거죠.
예를 들어, 여러분은 대부분 스마트폰을 가지고 계시지만, 정말 가난한 사람은 휴대전화를 못 쓸 거 아닙니까?
그런데 만약에 스마트폰이 없다고 하면 얼마나 제한이 되나요? 할 수 있는 게 많이 제한되거든요. 스마트폰 없으면 교통수단도 이용하기 어려운 상황이 됩니다. 그런 식의 차별이 훨씬 더 심해질 거라는 얘기죠.
탈숙련화, 즉 숙련 노동자가 불필요해져서 단순 노동자, 저임금 노동자가 많아진다는 예상도 있어요.
흔히 1차 산업혁명, 2차 산업혁명, 그리고 3차 산업혁명이라는 말을 쓰는데요.
1차 산업혁명은 어떻게 해석할 수 있느냐 하면, 동력을 처음 만든 것이죠. 그래서 1차 산업혁명의 결과는 결국 노동에 대한 자본의 승리라고 보통 얘기합니다. 그래서 이에 저항하는 러다이트 운동이 생겨났지만요.
다음에 2차 산업혁명이라는 건 보통 20세기 초반에 일어났다고 하는데, 자동화를 지적하죠. 자동화 때문에 어떤 일이 생겼나요? 1차 산업혁명을 노동에 대한 자본의 승리라고 하면 2차 산업혁명은 역시 자본의 승리인데 뭐에 대한 승리냐? 숙련 노동에 대한 자본의 승리인 셈이었죠.
그다음에 3차 산업혁명은 무엇이었을까요? 대체로 컴퓨터의 등장을 가리킵니다. 더 나아가서 인공지능의 등장을 4차 산업혁명이라고도 하지만 3차의 연장으로 보는 편이 더 적절하다고 봅니다. 이것은 아마도 정신노동에 대한 자본의 승리가 되겠죠.
그런데 자동화가 되고 컴퓨터가 등장하면서 노동 강도가 더 강화됐다는 것은 역설적입니다. 그 결과들을 보면 노동 강도가 약해지는 게 아니라 강해지는 경향이 뚜렷하지요.
그러면 앞으로는 거꾸로 인공지능이 머리가 되고 사람이 팔다리가 되지 않을까 우려가 됩니다.
관련해서 자동차를 생각해 보죠. 자동차는 아주 편리하지 않습니까? 자동차가 없으면 다리가 얼마나 아프겠어요? 걸어가려면 자동차가 편리하지만 자동차만 타고 다니면 어떤 일이 생길까요?
꼼짝 않고 자동차만 타고 다니면 몸에 병이 생기죠. 팔다리가 약해지면서 당뇨나 고혈압, 심근경색 같은 게 생길 가능성이 높아질 텐데요.
그러면 인공지능만 계속 쓰게 되면 어떤 일이 생길까요? 머리에 병이 생기겠죠. 아마 좀 바보가 되거나 그렇게 되지 않을까요?
실제로 미국의 연구 결과를 보면 2010년부터 2020년까지 10년과 그 전을 비교해 보면, 이때는 인공지능이 아니라 사실 스마트폰이 문제인데, 그것 때문에 청소년들의 정신질환, 우울증이 급증했다는 연구 결과가 있습니다. 아마 우리나라도 마찬가지가 될 것이라고 생각합니다.
정보 독점 문제도 있는데요. 요새는 심지어 ‘구글 하느님Google God’이라고 부르지요.
그리고 아까 말씀드렸습니다만 인공지능이 사람을 대체해서 일한다면 제일 먼저 대체될 만한 게 판사겠지요. 그리고 의사, 아마도 교수도 대체될 것입니다.
좀처럼 대체되지 않으리라 생각되는 게 미용사, 정원사, 상담사라고 합니다.
물론 여기에도 안전성 문제가 있겠죠. 위험성과 환각에 대해서 아까 말씀드렸습니다만, 의료나 보안이나 법률은 대체되면 곤란하지 않느냐는 말을 하지만, 꼭 그렇지도 않다고 생각해요.
의료 사고가 굉장히 많거든요. 사람 의사가 진단하는 것에도 사실 오진이 굉장히 많아요. 생각보다 오진율이 훨씬 높습니다.
법률은 뭐 말할 필요가 없잖아요. 판사 판결이 얼마나 엉터리가 많은지 아시잖아요. 그러니까 인공지능이 훨씬 더 잘 할 겁니다. 설사 인공지능이 가끔 환각을 하더라도요. 저는 그렇게 생각합니다.
가장 큰 문제가 이것이죠. 깊은 가짜, 즉 딥페이크라는 건데요. 인공지능으로 영상이나 음성을 합성하는 것입니다. 이게 가장 큰 문제 중에 하나인데요.
여기 보시면 트럼프와 바이든이 사실 이렇게 친했어요. 저는 몰랐는데 트럼프와 바이든이 저렇게 친하더라고요. 그러니까 이런 가짜 영상이 엄청나게 나올 수 있는 거죠.
딥페이크의 문제가 왜곡과 조작, 즉 가짜뉴스와 끔찍한 범죄인 것을 다 아실 텐데요.
제가 정말 놀란 것 하나가 있는데요. 딥페이크를 이용한 성범죄에서, 미국에서 조사한 건데, 세계를 쫙 조사하니까 그중 거의 절반이 한국이다, 이것 들어보셨나요?
한국이 범죄를 저질렀다기보다는 한국인이 등장하는, 그러니까 한국의 아이돌이 등장하는 게 많다는 것이죠. K-팝과 K-컬처 때문에 한국의 어린 여성들이 세계에서 유명하고 그들을 대상으로 한 딥페이크 범죄가 전체의 절반 정도를 차지한다고 해서 깜짝 놀랐습니다.
그래서 중요한 것은 뭘까요?
탈진실 사회를 아까 얘기했습니다만, 비판적 사고가 꼭 필요합니다. 비판적 사고를 하려면 속지 않아야 되겠죠.
그러려면 정보를 생산하는 과정과 체계를 이해해야 하고, 우리가 인공지능을 이해해야 한다는 얘기입니다.
그래서 과학을 이해해야 하는 것이고요.
그렇지 않으면 비판적 사고를 가지기가 어려워지죠.
가장 큰 걱정은 인공지능이 군사적 목적으로 쓰이는 건데요.
결국 독점, 신자유주의 이런 것들이 문제입니다. OpenAI가 요새 이른바 ClosedAI가 된 건 아시죠? 열려 있지 않고 사실상 닫아버렸습니다.
막대한 비용과 자원 독점은 부유층에 가고 환경 파괴와 기후 재난 피해는 빈곤층이 맞게 되는 것도 문제죠.
결국은 자본의 포획에서 어떻게 해방시킬 것인가 하는 문제고, 딥시크가 현재로서는 여기에 대응할 수 있는 가능성을 보여 주는 듯합니다. 그런데 어떻게 될지 아직 모르겠어요.
지능이라는 건 결국은 생명처럼 복잡계입니다. 이를 기계처럼 간주하면 위험한 거죠.
그래서 저는 기계가 인간처럼 될까 봐 걱정할 것이 아니라 인간이 기계처럼 되는 것이 문제이니 이걸 걱정해야 한다는 것을 강조합니다.
인간이 기계처럼 되면 깊은 사고가 불가능하고 존재의 소외가 생기고 사고 능력, 창의성, 자유가 다 훼손될 게 뻔하니까요.

자동화라는 것이 굉장히 문제가 있는데요. 자동화가 너무 잘 돼 있으면 사고할 기회를 잃어버리거든요. 우리의 지능을 발전시키고 이성을 훈련시킬 기회를 봉쇄당하기 때문에 이 문제가 중요하다고 저는 생각합니다.
인공지능을 도구로 이용하는 사람이 있겠죠. AI 플랫폼을 소유한 극소수와 소수의 개발자가 그렇겠지요.
대부분은 인공지능을 도구로 이용하는 게 아니라 인공지능의 도구가 되겠죠. 즉, 인공지능이 머리고 사람이 팔다리가 되도록 전락할까 봐 걱정입니다.
이 프레카리아트라는 말을 날품팔이라고 제가 번역을 했어요. 대다수가 이렇게 되지 않을까 걱정됩니다.
유명한 말이 있습니다.
AI will take my job. 이게 두 가지 뜻이 있거든요. AI가 내 일을 다 해 주니까 나는 띵까띵까 놀면 된다는 것이 위[높은 계층]의 사람들 얘기이고, AI가 직업을 다 빼앗아서 나는 굶어 죽게 생겼다 하는 것은 밑[낮은 계층]의 사람들에 해당합니다. 똑같이 AI will take my job입니다.
GPT-4o라고 하는 것이 흥미로웠었는데요. 당연히 인공지능은 영혼이 없다고 생각되는데, GPT-4o는 영혼이 있는 척 가장을 하거든요.
스칼렛 요한슨이라는 배우 아시나요? GPT-4o가 스칼렛 요한슨의 목소리를 따다가 썼는데, 스칼렛 요한슨이 나중에 자기 허락도 없이 가져다 썼다고 해서 문제가 생겼죠.
‘지능정보기술’이라고 하는 건 결국은 파르마콘이라고 생각합니다.
파르마콘(Pharmakon)은 프랑스의 자크 데리다가 처음 얘기했고 다음으로 베르나르 스티글레르라는 사람이 많이 쓴 개념인데요. 파르마콘이라는 말은 사실 그리스어에서 나온 거죠. 그리스어로 파르마콘은 플라톤이 한 얘기인데요. 이건 결국 무슨 뜻인가 하면은 축복이자 저주라는 얘기예요.
그러니까 우리가 어떻게 쓰는가에 따라 축복이 될 수도 있고 저주가 될 수도 있다는 뜻입니다.
스티글레르라는 사람 혹시 들어보신 적 있나요? 베르나르 스티글레르라는 사람이 굉장히 흥미로운 사람인데요. 이 사람이 은행 강도 하다가 잡혔거든요. 감옥에서 살았죠. 감옥에서 열심히 공부했는지 나와서 유명한 철학자가 됐죠.
흥미로운 분이고 저와 생각이 비슷해요. 물론 은행 강도로 비슷하다는 게 아니라 그 철학적 사유가 비슷해요.
최악의 발명품으로는 뭐가 있을까요? 인류의 발명품 중에 최악이요.
저는 세 가지를 생각하는데 첫째 자동차. 이게 지금 기후 위기의 주범 중의 하나입니다. 온갖 성인병 주범이고요.
두 번째는 플라스틱. 플라스틱 오염의 실태를 혹시 보신 적이 있을지 모르겠습니다만, 플라스틱 오염은 정말 끔찍한 상황입니다.
세 번째가 아마도 인공지능이 되지 않을까 저는 우려하고 있습니다.
기술이라고 하는 게 무조건 나쁘다는 말은 당연히 아니고, 파르마콘이니까 잘 이용하면 인류를 굉장히 행복하게 해 줄 수도 있지만, 잘못되다 보면 인류를 파멸로 보낼 수도 있다는 뜻입니다. 자동차나 플라스틱이나 인공지능이나 다 마찬가지죠.
그래서 이걸 어떻게 잘 이용할 수 있을 것인가 고민해야 하고, 그러려면 제 생각에 핵심적인 것은 자본의 포획에서 해방시켜야 하는 것입니다.
딥시크 같은 것들은 글쎄요, 잘 나가면 길이 좀 보이지 않을까 싶기도 합니다.
마지막으로 우리가 동아시아로 잠깐 돌아오면, 장자에 이런 말이 있습니다.
지야자(知也者) 쟁지기야(爭之器也). 이게 무슨 얘기냐 하면, 지식이라는 놈은 결국 다툼의 무기일 뿐이다 하는 것입니다.
이는 우리가 성찰해야 될 말이라고 생각을 합니다. 개발자가 지식인 것이죠. 항상 이 인공지능을 만드는 사람이 문제를 일으키잖아요.
기술을 만들어 내면 소수가 그 혜택을 다 차지하게 되고 대부분은 비참하게 되는 그런 식으로 좀 된 면이 있죠.
이걸로 일단 마치겠습니다. 시간 내 주셔서 고맙습니다.
정리발언
다 굉장히 중요한 말씀을 해 주셨고 대부분 저도 굉장히 동의합니다.
제가 말씀드린 것과 거의 비슷한 맥락입니다. 인공지능이라고 하는 게 결국 파르마콘이고, 우리가 잘 이용하면 분명히 굉장히 좋게 이용할 수 있습니다.
사실은 기술이라는 게 다 그렇죠. 그런데 그것이 양날의 검 같아서 잘못하면 굉장히 끔찍한 무기가 될 수가 분명히 있거든요.
인공지능은 다른 기술보다 그런 성격이 더 강할 수 있다고 저는 생각합니다.
그래서 아까 지적하셨듯이 본원적으로 결국 자본주의의 문제라고 저도 생각을 합니다. 그것이 결국 우리의 숙제라고 생각됩니다.
강인공지능도 아직도 없는데 하물며 초인공지능은 요원하고 영원히 안 되지 않을까 하는 물음도 있었는데요.
저는 사실 그렇게 생각하는 쪽이지만 강인공지능조차도 사실은 단기간 내에는 안 될 겁니다.
왜냐하면 방식이 달라져야 하기 때문인데 그래서 아직은 그걸 걱정할 상황은 아니라고 생각이 듭니다.
그러나 어쨌든 중요한 건 인공지능이 문제가 아니라 인공지능을 소유해서 그걸 이용하는 사람이 문제인 거죠. 결국 사람의 문제인 거거든요.
인공지능 자체가 죄가 있는 건 아닙니다. 굉장히 안 좋은 수단으로 인공지능을 이용해서 자기의 목적을 달성하려고 하는 그런 사람이 결국 문제인 거죠.
그런 면에서 보면 결국은 어떻게 하면 자본주의를 타도할 수 있을 것인가. 사실 그것이 결국 핵심이 아닐까, 저는 개인적으로 그렇게 생각합니다.
그래서 여러분들, 젊은 분들의 숙제가 아닐까 싶습니다. 저는 이미 틀렸지만요.
하여튼 제가 오히려 많이 배웠습니다.
고맙습니다.