*본 원고는 예술경영지원센터의 ‘2025 한국미술 비평지원’ 사업의 후원을 받아 작성되었습니다.
2. 슬롭
슬롭(slop): [명사] 인공지능을 사용해 생성된 예술, 글, 또는 기타 콘텐츠로, 무분별하고 침입적인 방식으로 온라인에 공유되고 배포되며, 질이 낮으며 가짜이거나 부정확하다는 특징을 지닌다.
유래: ‘슬롭’은 최소 19세기 중반부터 문화적 생산물을 지칭하는 데 사용되어 왔다. 원래는 지나치게 감상적인 문학에 적용되었으나, 후에는 더 일반적으로 무의미하거나 쓰레기 같은 것을 가리키게 되었다.
왜 이 단어가 후보 목록에?: 본지는 대형 언어 모델(LLM)을 통해 제작되었으며, 흔히 저품질이거나 부정확한 것으로 여겨지는 자료를 지칭하는 ‘슬롭’의 용법이 2024년 동안 332%나 증가했다는 것을 확인할 수 있었다. 이런 유형의 저품질 AI 생성 자료는 인터넷 검색엔진이나 소셜 미디어 사용자들에게 갈수록 가시화되고 있으며, 그들은 이를 보통 쓸모없거나 열등한 것으로 받아들인다.https://corp.oup.com/word-of-the-year/#shortlist-2024에서 ‘slop’에 해당하는 항목을 번역했다.
『대현유』를 완결지은 직후, 만약 이 책을 업데이트한다면 무엇을 주제로 삼을지 궁리했던 적이 있다. 당시에 떠올린 소재는 <게리 모드> 속 리미널 스페이스를 배경으로 등장하는, 수상쩍은 밈부터 저주받은 혐짤까지 온갖 평평한 2D 이미지를 뒤집어쓰고 플레이어를 무섭게 쫓아오는 AI인 넥스트봇(NextBot)이었다.황재민, “나원영과의 대화”, 《abs》 5.5호, 2024.02.22(https://absofficial.us/scr/text/551.html). 이때 플레이어가 느끼는 공포는 슬래셔 영화의 법칙이나 포식자의 먹이가 될 것이라는 원초적인 공포에서 비롯하겠지만, 미리 짜인 규칙을 따라 자동적으로 움직일 뿐임에도 겉으로 보기에는 목적과 의지를 지닌 것처럼 플레이어를 집요하게 추적하는 듯 보이는 ‘봇’의 불가해함에서 비롯된다는 점도 무시할 수가 없을 테다. 불가해한 결과물을 내놓는다는 점은 생성형 인공지능의 경우도 예외는 아니었다. 가령 『대현유』를 작성하던 때만 해도 아트브리더(Artbreeder)나 달리(DALL·E)와 같은 이미지 생성 웹사이트의 결과물들이 단순 구경거리이자 놀림거리에 가깝게 밈이 된 것이 그러하다. 기계학습 알고리즘이 말도 안 되는 조합의 단어들을 입력하는 프롬프트를 최대한 ‘해석’해 내뱉은 결과물은 각종 형상이 기괴하게 일그러져 뒤섞인 ‘겉면’만을 내놓을 뿐, 그 키메라 같은 이미지가 실제로 어떤 이유를 따르고 절차를 거쳐서 완성됐는지는 (3회차에서 논할 어떠한 밈과 마찬가지로) 도무지 알 수가 없었기 때문이다.2019년에 트위터에서 “이 사진에서 이름을 한 가지만 대보세요”라며 화제가 된 이미지가 인공신경망을 통해 생성되었다는 점을 떠올리자면, 이 문제가 2020년대에만 대두된 것도 전혀 아닐 테다. (https://www.livescience.com/65317-unidentifiable-objects-viral-photo.html). 이 두 가지 사례에서, 인공지능의 생산물들은 사용자로 하여금 공포나 기괴함 같은 감각을 자극하며 블랙박스 같은 불가해함을 경험하도록 한다.
개인적으로는 ‘오물’이라 번역하고 싶은 (더불어 『마테리알』 편집부에서는 ‘찌꺼기’라는 번역어를 제안하기도 한) 슬롭에는 그 정의와 쓰임에서부터 기본적으로 비하적인 관점이 암시되어 있다. 신조어로서 생성형 인공지능의 결과물을 대상으로 좁혀졌던 쓰임이 최근에는 웹에서 오히려 ‘일반적으로 무의미하거나 쓰레기’ 같게 느껴지는 대상을 욕하기 위한 접미사로 쓰이면서, 뜻이 유래에 가깝게 복귀했기도 하고 말이다. 그러나 생성형 인공지능이 온오프라인으로 공해를 배출하기 이전에도, 오물은 언제나 웹에 존재하고 있었다는 점을 기억해야 한다. 다만 우리 사용자들이 이를 다르게 불러왔을 뿐. 이를테면 스팸(spam)이나 정크(junk) 등 웹의 지난 시기에 주로 사용된 단어들은 사용자들이 웹상의 자동화가 내놓은 산물을 이미 무가치하게 받아들이며 비하적으로 부르고 있었다는 사실을 일깨운다. 돌이켜 보자면, 웹을 돌아다니는 사용자 경험은 언제나 수많은 오물과 쓰레기를 헤쳐 나가는 일이기도 했다. 이미 우리는 챗봇 서비스나 롤플레잉 게임 등에서 똑같은 말과 몸짓만을 되풀이하거나 원하지도 않는 엉뚱한 답변을 내놓는 사례들을 친숙하게 겪어왔으니까.
여기서 중요한 것은 자동 사냥부터 스팸 댓글까지의 디지털 쓰레기들이 말하자면 ‘매크로를 돌려서’, 즉 간단한 업무를 자동·반복 수행할 수 있는 프로그램을 실행해 만들어졌다는 점이다. 단순히 SF적인 인조 인간뿐만 아니라 어떠한 작업이나 조작을 자동적으로 수행하는 기계 장치를 이르기도 하는 ‘로봇’에서 착안해, 현대의 웹에서는 이러한 프로그램들에 ‘봇’이라는 별칭을 붙여 주었다. 앞서 언급한 예시들을 비롯해 자동 생성된 스팸 게시물 및 댓글 등에서는 짜깁기되거나 되풀이되는 어구가 언제나 티가 났고, 그런 만큼 ‘로봇이 아닌’ 사용자들에게 곧바로 인지될 수 있었다. 문화비평가 그래프턴 태너는 이러한 봇을 “‘웅얼대는 시체’라고 부른다. 자동화된 동시에 지능적이고, 죽어 있는 동시에 살아 있기 때문이다.”Grafton Tanner, The Hours Have Lost Their Clock: The Politics of Nostalgia, Repeater, 2021, 171. 마치 좀비와도 같은 이 ‘웅얼대는 시체’의 비유 또한 스팸부터 슬롭까지, 웹상에서 자동 생성되는 각종 생산물에 대한 비하적인 관점과 일맥상통할 것이다. 2020년대 상반기의 웹에 범람하는 오물들을 내뿜는 것이 바로 이렇게 썩어들어가면서 웅얼대는 시체, 웹상의 자동화된 기계 장치들이므로. 스팸 봇보다 훨씬 정교하고 복잡해졌음에도 자동화된 기계학습으로 만들어진 도구로써 웹에 존재한다는 측면에서 보자면, 요 몇 년 새 유난한 호들갑과 함께 부상한 생성형 인공지능은 결국 그와 큰 차이가 없게 느껴지기도 한다. 그렇다면 동시대의 인공지능이 생성한 슬롭 역시 시체가 웅얼대며 뱉어내는 디지털 오물이자 쓰레기라는 점에서 그 선대인 스팸과도 큰 차이가 없는 듯이 느껴지고 말이다. 봇이 스팸을 생성한다면, 인공지능은 슬롭을 생성한다고 해야 할까.
당황스럽고 섬뜩한 점은 이전까지만 해도 봇을 욕하고 스팸을 휴지통에 처박던 사용자들이, 더욱 뻔뻔하게 자동화되었을 뿐만 아니라 훨씬 적극적으로 ‘로봇이 아닌’ 척하려는 생성형 인공지능과 슬롭은 열렬하게 받아들인다는 사실이다. 어느새 대통령이 취임사에서 AI 산업의 중요성을 강조하고 옆 동네의 신도시는 카카오와 AI 데이터 센터 협약을 맺었다며 자랑하고 있으며, 수많은 사용자가 챗GPT로 대표되는 각종 대화형 인공지능 서비스에 상냥하게 상담을 받았다 떠들고, 웹과 그 너머의 광고들은 인공지능으로 생성된 이미지와 비디오를 아주 자랑스레 내거는 시기가 왔다. 그러니까, 웹상의 사용자들은 어째서 이렇게 쉽게 스스로를 오물을 향해 내몰 수가 있는 것일까? 이를 다시 부패의 관점에서 생각해 보자면, 우리 사용자들은 자동화의 흔적이 가시적으로 드러나는 스팸과 슬롭은 무용하고 열등하다며 밀어내지만 결국 이런 봇과 인공지능이 웹상의 각종 정보를 자동적으로 연관 짓는 방식 자체에는 애초부터 쉽게 낚여 온 것일지도 모르겠다.
『대현유』의 4장에서 “자동 생성된 콘텐츠 지옥도”(113)라며 짧게 언급만 한 엘사게이트(Elsagate)가 좋은 예시다. 2017년 동안 전개된 이 사건은 수많은 아동용 캐릭터 및 장난감과 자극적이고 선정적인 내용을 뒤섞은 기괴한 영상들을 수천수만 건씩 게시하는 유튜브 키즈 채널들이 대거 발견되며 진행되었다. 이때 중요한 점은 이들 영상이 조회 수 및 시청 시간을 따르는 유튜브의 수익 체계를 효율적으로 오남용하고자, 검색 결과에 높이 걸릴 만한 온갖 키워드를 무단으로 표절하고 저품질로 조합하며 업로드되었다는 것이다. 광고 및 홍보를 목표로 하는 스팸성 계정들이 검색 포털의 상위 결과에 노출되도록 특정 키워드만을 일정한 틀에 반복적으로 늘어놓은 게시물을 대량 생성하듯이 말이다. 이러한 사례는 인공지능이 오물을 생성하기 이전에도, 알고리즘을 자동화된 도구로 사용하는 제작자들이 스팸 콘텐츠들을 잔뜩 뽑아내고 있었다는 점을 보여준다. 물론 그 내용물들의 품질은 오로지 알고리즘과 봇만을 무한한 시청자이자 돈줄로 삼는 미스터 비스트의 영상처럼 처참하기 그지없다. 그러므로 당시에는 비밀스러운 알고리즘 추천을 깊숙이 파고 내려가야 닿을 수 있는 ‘온라인의 어두운 이면’ 취급을 받던 엘사게이트 괴담은, 2020년대 상반기부터는 ‘온라인의 부패한 수면’이 되어 분명하게 부상할 오물들을 예비한 사건이라 할 수 있겠다.
그러는 한편, 엘사게이트는 웹이 각종 정보를 허구적으로 연관지어 나름의 뒷이야기를 만드는 방식이 생성형 인공지능의 대두 이전부터 이미 각종 알고리즘의 형태로 작동하고 있었음을 보여준다. 그러나 이러한 웹의 로어화는 1회차에서 다뤘듯이 사용자들이 음모론에 가까운 외전을 믿어보는 것과는 사뭇 다르게 일어난다. 인공지능 연구자 케이트 크로퍼드가 면밀히 지적했듯, 반복적인 계산이 자동화된 현대의 알고리즘을 따르는 ‘데이터 추출 이데올로기’의 핵심 전제란 “맥락에서 데이터로, 의미에서 통계적 패턴 인식으로의 이 변화”다.케이트 크로퍼드, 『AI 지도책』, 노승영 옮김, 소소의 책, 2022, 120쪽. 주어진 모든 정보를 계산이 가능하도록 수량화하는 동시에 계산될 수 없는 특성과 가치는 소거하면서, 인간의 사유가 아닌 알고리즘의 계산만으로도 충분히 연관 지을 수 있을 데이터로 변환시키는 것이다. 알고리즘이 특정 정보들에 허구적인 연관성을 부여해 뒷이야기를 만들어낸다면, 그렇게 덧붙여지는 로어는 특정 단어를 검색창에 입력했을 때 ‘자동 완성’되는 ‘연관 검색어’들처럼 오로지 특정 함수나 통계만을 따라 엮이는 유사한 키워드 간의 망에 가까울 테다. 자동화된 알고리즘이 주된 규범이 된 웹에서는 사용자가 특정 의미나 가치를 부여할 수 있기보다 차라리 봇이 데이터를 쉽게 자동 추출할 수 있도록 정보가 연관 지어진다. 앞서 묘사했듯 봇들이 생성하는 스팸 게시물들이 오로지 특정 키워드만을 한 덩이로 묶어내는 식으로, 아니면 사용자가 입력하는 정보를 알고리즘이 알아들을 수 있게 해시태그를 달고 프롬프트를 입력하는 식으로 말이다. 웹에서 조회 수 등의 지표로 수량화된 관심이 그에 상응하는 수익으로 직결되는 이상, 정보의 연관은 의미나 가치를 만들기보다는 차라리 알고리즘에 올라타도록 데이터를 짜맞추는 일이 된다. 이와 같은 짜맞추기야말로 봇이 알고리즘 자동화를 통해 웹상 정보를 로어화하는 방식이다. 그리고 웹이 ‘자동로어화’로 생성한 데이터 덩어리가 바로 스팸과 슬롭인 것이다. 아무리 사용자들에게 쓰레기나 오물로 받아들여지더라도, 알고리즘과 인공지능이 생성한 로어의 관점에서 스팸과 슬롭은 그럴싸한 의미와 가치를 가진 출중한 뒷이야기가 된다.
다만, 2017년의 엘사게이트 영상을 2020년대 중순의 슬롭과 구분 짓는 섬뜩한 차이가 있다면, 이 스팸 콘텐츠들은 아무리 싸구려일지라도 배우들의 실제 연기와 스톡 CGI 모델 등을 동원해 ‘손수’ 만들어졌다는 점이다. 작가이자 예술가 제임스 브리들은 엘사게이트 영상들이 인간 사용자들의 활동과는 별개로 ‘자동화된 소프트웨어’로서의 봇에 의해 제작되고 시청되며, 영상에 댓글까지 달림에도 불구하고, “어느 시점에서는, 자동화가 어느 정도로 작동 중인지를 결정하거나 인간과 기계 사이의 격차를 분석하기가 불가능해진다”고 지적한다.James Bridle, New Dark Age: Technology and the End of the Future, Verso, 2018, 223. 1회차에서도 ‘자동로어화’로 살짝 짚었듯이, 알고리즘과 인공지능이 스팸과 슬롭을 뽑아내는 자동화 또한 웹과 사용자 간의 의식하지 못한 공모를 바탕으로 일어나는 것이다. 이러한 공모는 웹에서 사용자와 봇이 정보를 허구적으로 연관 짓고 뒷이야기를 만드는 로어화의 방식 또한 동기화한다. 알고리즘이 사용자가 ‘원하는’ 정보를 내뱉으면 사용자는 그러한 알고리즘이 ‘원하는’ 정보를 내어주는 입출력이 순환하는 식으로. 웹과 사용자의 비가역적인 부패는 바로 이렇게 웹상에서 정보를 연관 지어 뒷이야기를 만드는 각각의 허구 제작 방식과, 그렇게 만들어진 결과물인 로어와 데이터가 동기화되면서 발생한다. 다시금, 이제는 조금 멀게 느껴질 만한 2017년에 엘사게이트 같은 사건이 일어났다는 사실은, 웹에서 진행되어 온 사용자와 봇, 정보와 스팸·슬롭, 로어와 데이터 간의 동기화가 엘사게이트가 발생한 당시에도 이미 어느 정도의 부패를 완수했다는 점을 알려준다. 그렇다면 2020년대 상반기 동안, 그 부패는 과연 얼마나 심화한 것일까?
빅테크 기업들이 사용자들의 활동에서 추출한 데이터를 허구적인 천연자원으로 삼는 동시대의 웹은 생각보다 인간(성)을 위한 곳이 아니다.김상민, “채굴되는 지구, 추출되는 데이터: AI 시대의 지도 그리기와 예술”, SeMA Coral, 2023 (http://semacoral.org/features/sangminkim-mining-the-earth-extraction-of-data-mapping-artificial-intelligence-ai-and-arts); 윤원화, 「경로 탐색: 광산을 이탈하기」, 『문학동네』 120호, 문학동네, 2024 등의 글에서는 ‘추출주의’ 혹은 ‘채굴주의’라는 표현을 통해 이 문제를 깊게 다룬다. 우리는 웹에 접속할 때마다 원하든 원하지 않든 캡차(CAPTCHA)를 통과하고 쿠키를 허용하고 계정을 연동하며 스스로를 사용자의 단위로 맞춰버린다. 우리가 사용자로서 내보내는 정보는 최소한 알고리즘이나 인공지능과 같은 웹상의 (자동)로어화 장치들이 데이터로 가공할 수만 있다면, 봇이 내뿜는 스팸이나 슬롭과 크게 구별되지는 않을 테다. ‘죽은 인터넷 이론’을 언급한 『디 애틀랜틱』 기사의 (원인 모를 이유로 재빠르게 교체된) 첫 제목이 말하듯이, 자동화된 웹 속에서 사용자로 배회하는 “당신은 봇이 아니지만, 마치 봇처럼 굴고 있다. (You’re Not a Bot, but You’re Acting Like One)”해당 정보는 인터넷 아카이브의 웨이백 머신을 통해 확인할 수 있다(https://web.archive.org/web/20210831132917/https://www.theatlantic.com/technology/archive/2021/08/dead-internet-theory-wrong-but-feels-true/619937/)
. 웹은 수많은 사용자를 거느린 소수의 초대형 플랫폼이 제공하는 ‘서비스’의 규모로만 좁아진다. 이 플랫폼들은 자원으로 사용할 수 있을 만한 데이터를 손쉽게 추출하도록 사용자들을 ‘봇처럼 굴’며 정보를 알아서 가공하게끔 자신의 ‘서비스’에 몇몇 장치들을 달아 놓는다. 사용자의 활동에 따라 비위를 맞춰가며 보정 기능 달린 거울처럼 정보를 되비추는 2000년대의 검색 엔진으로.엘리 파리저, 『생각 조종자들』, 이현숙·이정태 옮김, 알키, 2011, 6쪽. 오직 패턴 상의 통계적인 유사성을 바탕으로 하여 몰랐던 음악을 대신 ‘발견’해 주는 척하는 2010년대의 맞춤형 추천 서비스로.데이먼 크루코프스키, 『다른 방식으로 듣기』, 정은주 옮김, 마티, 2023, 99~104쪽. 그리고 물론, 오직 프롬프트를 입력한 대로만 정보를 연관 지어 겉보기상에만 그럴싸하게 말이 되는 오물들을 내뿜는 2020년대의 생성형 인공지능으로도.
편의성을 가장하는 이 장치들은 주로 사용자들의 지적 활동을 (자동)로어화로 대리하면서 이를 자연스레 동기화한다. 검색 엔진에서 연관 검색어를 슬쩍 궁금해 하거나, 맞춤형 추천 서비스가 자신이 ‘원하는’ 항목을 제시한다고 곧장 받아들이거나, 급기야 생성형 인공지능이 출력하는 정보가 전부 다 사실일 것이라고 홀랑 믿어버리는 식으로. 이에 따라 허구적으로 연관 지은 뒷이야기에 속할 수 있다면 모두가 동일한 지적 가치를 갖는 로어가 사용자와 봇이 웹에서 ‘정보’를 주고받는 새로운 단위가 되었다면, 스팸의 심화이자 연장으로서 슬롭은 자동로어화를 통해 사용자들이 실제로 주고받는 부패한 내용물들이 된다. 오직 검색창에 올라온 결과이므로, 맞춤형 알고리즘이 추천했으므로, 프롬프트를 입력한 인공지능이 생성했으므로, 오물은 봇처럼 구는 것을 넘어 봇처럼 생각하게 된 사용자들에게는 그럴싸하게 말이 되는 무언가로 받아들여진다. 그렇게 웹 및 봇과 로어화하는 방식이 마침내 동기화된 사용자들은 자동화된 도구의 도움 없이도 키워드들을 손수 짜깁기 해 ‘수제’ 오물을 쏟아낼 수 있게 되는 셈이다.
미국의 시인 퍼트리샤 록우드는 허구적인 줄로만 알았던 웹이 현실과 기괴하게 뒤엉켜 가는 동시대의 풍경을 파편적인 단문들로 전하며 다음과 같이 묻는다: “왜 우리 모두 지금은 이런 식으로 글을 쓰고 있을까? 새로운 종류의 연결이 이루어져야 하기 때문이었다. 한순간의 번뜩임, 시냅스, 그 사이의 공간만이 그런 연결을 해낼 수 있는 수단이었다. 아니면, 이편이 더 무섭기는 한데, 포털이 글을 쓰는 방식이 이렇기 때문일 수도 있었다.”퍼트리샤 록우드, 『아무도 이런 이야기를 하지 않는다』, 김승욱 옮김, RHK, 2024, 102쪽. 이때 포털 즉 웹과 그 속의 사용자나 봇이 ‘글을 쓰는 방식’이 다름 아니라 ‘새로운 종류의 연결’을 이루어내는 로어화의 작업일 테다. 유기적이든 인공적이든 시냅스를 한순간 번뜩이게만 하는 도파민, 신경전달물질에 의해서 새로운 종류의 연결을 짓는 것만이 웹과 그 속의 사용자와 봇이 글을 쓰고 생각하는 유일무이한 방식이 된다. 그러니 내가 내뱉고 싶은 ‘썩은 인터넷 가설’이란 다음과 같다: 웹에서 연관 지어지는 정보와 웹이 정보를 연관 짓는 방식 자체가 부패했다면? 웹에서의 정보 연관 짓기에 일어나는 부패가 사용자에게도 동기화된다면? 우리가 인간 사용자랍시고 웹에서 생산하는 온갖 정보가 실은 자동화된 알고리즘과 인공지능이 생성하는 오물과 다를 바가 없다면? 사용자마저도 결국에는 봇과 다를 바 없는 웅얼대는 시체에 불과하다면? 무엇보다도 그렇게 웹상에서 생산되고 생성된 로어와 데이터, 또 정보와 슬롭이 정전과 외전이나 현실과 허구처럼 구분 불가능해졌다면? 우리가 실은 봇처럼 굴고 있다는 걸 알아먹을 때야, 사용자는 인터넷 전역이 죽은 듯 느껴지는 불모의 감각을 불러일으키는, 썩어빠진 뇌의 상태를 감지할 수 있을 것이다. 황급히 기계와 자본에 탓을 돌리고 ‘도둑맞은 집중력’을 되찾기 위해 디지털 해독과 디지털 거리두기를 하더라도, 머릿속에선 아직도 무언가가 가득 우글거리는 듯이 느껴지니까.