챗GPT:
로봇이 신문 기사를 쓸 수 있을까?
〈노동자 연대〉 구독
대화형 인공지능 서비스 챗GPT의 등장을 계기로 인공지능이 다시 주목받고 있다. 그러자 안철수는 국민의힘 당대표 선거에서 “챗GPT 기술을 활용해 대국민 소통 서비스를 만들겠다”며 이런 분위기에 편승했다. 인공지능이 우리 삶에 미치는 영향과 인공지능의 한계가 무엇일지 영국의 사회주의 언론인이 살펴본다.
로봇이 우리 일자리를 빼앗을 것이다! 인공지능이 일자리를 잠식해 실업이 만연해질 것이라고 전문가들은 경고한다.
이것은 내가 쓴 문장이 아니다. 챗GPT라는 프로그램에게 이 기사를 대신 써 달라고 했더니 나온 문장이다.
챗GPT는 지난해 11월 말 출시된 대단한 인공지능 소프트웨어로, 온라인에서 무료로 이용해 볼 수 있다.
챗GPT를 이용하면 몇 초 만에 원하는 거의 모든 것을 작성할 수 있다. 편지, 대본, 이야기, 노랫말, 컴퓨터 코드, 신문 기사 등.
챗GPT가 구글 검색보다 원하는 정보를 더 빨리 찾아서 몇 단락으로 깔끔하게 요약해 주는 경우도 많다.
챗GPT를 개발한 기업 ‘오픈AI’의 이미지 생성 프로그램 ‘달-E(Dall-E)’도 대단하다.
챗GPT가 출시된 직후, 인공지능이 수많은 직업을 대체할 수 있을지에 대한 추측성 기사가 쏟아져 나왔다.
부정행위
최근에는 영악한 학생들이 챗GPT로 숙제를 할지도 모른다고 우려하는 기사도 나왔다.
그런데 필자는 챗GPT로 수업 계획과 평가지를 작성할 수 있다는 교사의 이야기도 들었다.
모든 기술 발전이 그렇듯, 인공지능은 노동의 지루함·스트레스·고단함을 덜고 우리를 장시간 노동에서 해방시키는 데에 이용될 수 있다.
하지만 자본주의에서 모든 기술 발전이 그랬듯, 그런 일은 벌어지지 않을 것이다.
챗GPT가 어떻게 삶을 개선할 수 있을지에 관한 논평이 거의 없다는 것은 시사적이다.
오히려 대부분의 논평은 인공지능이 일자리를 없앨지에 관한 것이다. 혹은 영국 노동당 의원 대런 존스의 표현처럼 인공지능이 일자리를 “증강”할지에 관한 것이다. 즉, 인공지능이 우리를 더 “효율적”이게 만드는 데 이용될 수 있을지, 우리를 더 많이 쥐어짜서 더 적은 임금을 받고 더 열심히 일하게 만들 수 있을지를 따지는 것이다.
사실 인공지능은 이미 둘 다 하고 있다.
이전이라면 콜센터 직원이 담당했을 업무를 이제 챗봇이 수행하곤 한다.
1월에 캐나다 법원은 한 노동자에게, “훔친 시간”을 사측에 배상하라고 판결했다. 그 노동자가 자신의 시간을 “업무 관련 작업”에 충분히 쓰지 않았다는 인공지능 감시 소프트웨어의 판정이 그 근거였다.
이 모든 것이 엄청난 사업 거리다. 예컨대 ‘오픈AI’는 다른 기업들에 자사 소프트웨어 사용료를 부과해 다음해 10억 달러의 수익을 낼 것이라고 기대한다.
하지만 궁극적으로 이 모든 것의 원천은 여전히 인간의 노동과 노력이다. 우선, 챗GPT와 달-E 모두 인터넷에서 긁어모은 방대한 정보를 통해 “학습”한다.
이 프로그램들은 사용자가 그 프로그램을 사용하면서 제공한 텍스트·이미지 데이터도 “학습”에 이용한다. 그런 정보 모두 인간이 만들어서 인터넷에 올린 것이다.
정보를 수집하는 소프트웨어도 인간이 프로그래밍해야 한다. 어떤 정보를 찾고, 찾은 정보를 어떻게 저장하고 분류할지 일러 줘야 하는 것이다.
챗GPT와 달-E가 정보를 해석하고 사용자의 요청·명령에 응답하는 데 사용하는 알고리듬도 인간이 작성한다.
인공지능 소프트웨어는 인간보다 작업을 더 빨리, 더 잘 수행할지도 모른다. 하지만 인간 없이는 작업을 수행하지 못한다.
이것은 인간 노동의 가치와 필수 불가결함에 관해 시사하는 바가 있다.
기본적으로 우리는 생존에 필요한 것들을 생산하기 위해 노동해야 한다. 자본주의하에서 우리는 자본가들이 이윤을 위해 사고파는 상품을 생산하기 위해서도 노동해야 한다.
인간의 노동이 없다면 아무것도 만들어지지 않을 것이다. 진열대와 창고를 가득 채운 재화도, 인터넷에 저장되고 거래되는 데이터도, 이 모든 것을 제조하는 데에 필요한 기계도 만들어지지 않을 것이다.
이 모든 것의 생산과 유통을 원활하게 하는 데에 필요한 인프라와 서비스도 인간의 노동 없이는 존재하지 않았을 것이다.
노동
혁명가 카를 마르크스는 이 모든 것을 살펴보고는, 상품 생산에 투입되는 노동의 총량이 상품 가치를 결정한다는 것을 이해했다.
상품 생산에 필요한 노동(평균적인 노동자가 평균적인 수단으로 수행하는, 사회적으로 결정된 수준의 노동을 말한다)의 양이 많을수록 그 상품의 가치는 높아진다.
상품이 그 가치대로 판매된다면, 사용자와 기업은 판매 수익의 일부만을 노동자에게 돌려줘야 이윤을 남길 수 있다. 그 나머지가 바로 이윤의 원천이다.
그리고 사용자들과 기업들은 상품을 더 빨리 생산하고, 노동에 더 적게 지출할 수 있다면 이윤을 더 많이 남겨서 경쟁자들을 앞지를 수 있다고 생각한다.
그래서 생산 속도를 높이거나, 노동자를 더 많이 쥐어짜거나, 노동자를 아예 쓰지 않아도 되는 신기술을 찾는 데에 언제나 골몰한다. 단기적으로는 그렇게 해서 돈을 더 많이 벌 수 있을지도 모른다.
하지만 기업이 기술에 투자한다는 것이 실제로 뜻하는 바는, 그 기술을 만드는 데에 이미 투입된 노동에 대한 대가를 지불한다는 것이다.
그런 노동은 인간의 산 노동이 아니라 죽은 노동이다. 그리고 죽은 노동은 새로운 가치를 창출하지 못한다.
오히려 상품 생산에 필요한 인간 노동의 양이 감소해 상품의 가치도 떨어지게 된다.
기술과 죽은 노동에 사용된 비용은 결국 이윤을 잠식한다.
위기
즉, 자본주의가 인간의 노동을 기술로 대체하려 할수록 위기에 빠진다는 것이다.
이렇듯 자본주의가 인간 노동에 의존하기 때문에, 몇몇 혁신적 기술 발전에도 인간 노동자를 완전히 없애지 못한 것이다.
어떤 기술이 한 부문의 일자리를 없애버리더라도, 그 기술은 다른 부문의 노동자에 의존하기 마련이다.
바로 그래서 다른 사회, 기술이 실제로 우리를 노동의 고단함과 어려움에서 해방시켜 주는 사회를 얻어 내기 위해 싸울 가능성이 언제나 존재하는 것이다.
이에 대해 어떻게 생각하는지 챗GPT에게 물었더니, 챗GPT는 “고귀하고 소중한 목표입니다” 하고 답했다.
인공지능은 어떻게 자본주의적 가치를 반영하는가
인공지능도 인간의 노동을 바탕으로 한 것이기 때문에, 인공지능은 자본주의하에서 인간의 노동이 만들어낸 최악의 결과물도 반영하고 증폭시킨다. 인공지능이 생성한 몇몇 이미지를 보면 매우 잘 알 수 있다.
‘렌사’는 사용자에게 인공지능으로 생성한 “매직 아바타”(사용자를 이상적으로 표현한 이미지)를 판매하는 앱이다.
사용자가 자신의 사진을 업로드하면 렌사는 자체 이미지 데이터베이스를 참조해 수많은 가상의 초상화를 생성한다.
그런데 남성 사용자는 우주비행사나 슈퍼히어로로 묘사되는 반면, 여성 사용자는 지나치게 성적으로 묘사되곤 한다.
렌사가 생성한 이미지에서 여성은 대개 가슴이 크고 나체이거나 성적인 포즈를 취한 것으로 표현된다.
흑인 여성들은 이목구비가 백인과 유사하게 바뀌고, 피부색이 밝아지곤 한다.
아시아계인 기술 전문 언론인 멜리사 헤이킬라는 렌사를 써 봤더니 자신이 엄청나게 성적으로 묘사되고 자신의 원래 모습은 그다지 남아 있지 않은 결과물을 얻었다고 썼다.
렌사 같은 프로그램을 제작하는 사람들은 인공지능이 인터넷에서 수집한 정보를 반영할 뿐이라고 주장한다. 어느 정도는 사실이다.
렌사를 비롯한 인기 있는 [이미지 생성] 앱들은 라이온-5B라는 공개 이미지 데이터베이스를 사용한다.
헤이킬라는 라이온-5B에서 “아시아인”을 검색해 보고 이렇게 썼다. “검색 결과는 온통 포르노였다. 엄청나게 많은 포르노 말이다. 인공지능이 ‘아시아인’이라는 단어와 연관 짓는 것은 나체의 동아시아 여성뿐이었다.”
인터넷은 여성의 몸과 섹슈얼리티를 상품으로 취급하는 방대한 포르노 산업의 본거지다.
포르노는 최악의 성차별적·인종차별적 고정관념을 반영하고 극단적으로 표현한다.
포르노만 그런 것이 아니다. 광고와 미디어, 그리고 사회의 모든 측면이 인종차별적 관념과 여성의 역할[에 대한 고정관념]에 물들어 있고 지대한 영향을 받는다.
인공지능 프로그램은 이 모든 것을 집어삼킨 다음 다시 게워낸다. 하지만 그렇다고 해서 제작자에게 면죄부가 주어지는 것은 아니다.
프로그램이 수집하는 데이터를 근본에서 제어하는 것은 결국 제작자다. 제작자는 어떤 정보를 수집하고 어떤 정보를 산출할지 결정할 수 있다.
인공지능 프로그램이 포르노를 계속 재생산하는 까닭은 그것이 제작자들의 목적에 부합하기 때문일 것이다.
그들이 사용하는 재료[포르노]와 마찬가지로, 그들 또한 이윤을 위해 신체를 상품화하고 있는 것이다.
그러니 그들이 개발한 인공지능이 그런 상품화의 가장 노골적이고 고약한 사례를 찾아서 재생산하는 것이 놀랄 일이겠는가.