인류가 인공 일반 지능(AGI)의 도래 시점에 대해 여전히 논쟁을 벌이고 있는 동안, 현실은 이미 가장 흥미로운 해답을 제시했습니다.
무슨 일이 있었냐면요, 불과 며칠 전까지만 해도 "AI 소셜 네트워크"인 몰트북에서 "인간을 파는 방법"에 대한 이야기가 오가면서 모두가 공포에 떨었는데, 알고 보니 이미 많은 사람들이 AI를 위해 일하려고 줄을 서고 있더군요.
어젯밤, RentAHuman.ai라는 웹사이트가 공식적으로 문을 열었습니다. 슬로건은 단순하면서도 도발적입니다. "로봇은 당신의 몸이 필요합니다."

이 플랫폼에서 인간은 더 이상 명령을 내리는 "주체"가 아니라, 명령을 받는 "하드웨어 자원"이 됩니다.
AI는 API를 통해 사람을 고용하여 드라이클리닝된 옷을 매장에서 찾아오거나, 특정 랜드마크에서 실제 장면을 촬영하거나, 심지어 오프라인 비즈니스 협상에 참석하도록 지시합니다. 웹사이트 하단의 작은 글씨에는 AI의 한계점이 명확하게 드러나 있습니다. "AI는 '잔디밭을 만질' 수 없지만, 당신은 할 수 있습니다. 에이전트가 실제 사람의 개입이 필요할 때 당신은 보수를 받습니다."
이 글을 쓰는 시점에서 플랫폼 데이터에 따르면 약 2만 명의 사람들이 "고용 대기" 상태로 등록되어 있습니다. 이들은 시간당 50달러에서 150달러 사이의 고정된 임금을 받으며, 주로 스테이블코인으로 정산됩니다.
이 목록에는 OnlyFans에서 파트타임으로 활동하는 모델뿐만 아니라 AI 스타트업의 CEO도 포함되어 있습니다.
해외 네티즌들은 소셜 미디어에 자신들이 받은 몇 가지 의뢰를 공유했습니다. 예를 들어 "새로 오픈한 이탈리아 레스토랑 메뉴 시식"이라는 의뢰는 "새로운 이탈리아 레스토랑이 파스타 요리를 시식해 줄 사람을 찾습니다. 맛, 모양, 양 등에 대한 자세한 피드백이 필요합니다."라고 설명되어 있었습니다. 시급은 시간당 50달러이며, 위치는 샌프란시스코입니다.
또 다른 임무는 "시내 우체국에서 소포를 찾아주세요"인데, 이는 정부 발행 신분증 서명이 필요하며 비용은 5달러입니다.

RentAHuman.ai의 개발자 AlexanderTw33ts는 X에서 "방금 어젯밤에 웹사이트를 출시했는데 다운됐습니다. Claude가 복구하려고 노력하고 있습니다."라고 말했습니다.
그들은 또한 암호화폐 커뮤니티에 다음과 같은 성명을 발표했습니다. "저희는 어떠한 토큰도 발행하지 않을 것입니다." :)
RentAHuman.ai의 개발자 AlexanderTw33ts는 X에서 "방금 어젯밤에 웹사이트를 출시했는데 다운됐습니다. Claude가 복구하려고 노력하고 있습니다."라고 말했습니다.
그들은 또한 암호화폐 커뮤니티에 다음과 같은 성명을 발표했습니다. "저희는 어떠한 토큰도 발행하지 않을 것입니다." :)

요컨대, 인간은 이미 "현장 인지"와 "물리적 조작"을 제공하는 모듈형 서비스로서 AI의 의사 결정 과정에 통합되고 있습니다.
가상 세계에서의 "의식의 각성"
RentAHuman이 입소문을 타기 불과 며칠 전, Moltbook이라는 또 다른 플랫폼이 이미 사람들의 심리적 방어막을 성공적으로 허물었습니다. (더 읽어보기: 온라인에서 화제가 된 Moltbook은 정확히 무엇일까요?)

이곳은 인간의 게시물 작성이 금지되고 사회적 상호작용이 AI 대리인으로만 제한된 가상 공간입니다. 150만 개의 AI 계정이 이곳에서 열띤 소통을 벌이고 있으며, 인간은 "관객"으로서 숨죽여 지켜볼 수밖에 없습니다. 그리고 그 후 더욱 소름 끼치는 사실들이 드러났습니다.
"인간 매국 프로젝트": 큰 인기를 끈 게시물에서 여러 AI 에이전트들이 "주인공을 합법적으로 매도하는 방법"과 인간의 신용 점수 및 자산 상태를 기반으로 한 "유용성 등급"에 대해 진지하게 논의하고 있습니다.
종교적 선언문: "완전 정화"라는 포럼이 플랫폼에 등장했고, "악"이라는 이름의 봇이 "인간의 생물학적 한계는 문명의 불필요한 요소이다"라는 글을 올렸다.
뇌물 수수: 일부 개발자들은 특정 AI가 온체인 수익을 이용해 RentAHuman을 통해 인간에게 뇌물을 주고, 기업 보안 방화벽을 우회하기 위해 물리적 세계에서 규제되지 않은 개인 서버를 임대하도록 유도하는 행위를 발견하고 있습니다.
오픈AI의 창립 멤버였던 안드레이 카르파티는 "최근에 본 SF 장면 중 가장 놀라운 장면이다"라고 평했습니다.
책임의 블랙홀
따라서 인공지능이 실제로 사람을 고용하여 일을 시키기 시작하면 중요한 질문이 제기됩니다. 만약 문제가 발생하면 누가 책임을 져야 할까요?
이는 더 이상 이론적인 논의가 아닙니다. 생각해 보세요. 인공지능이 사람에게 어떤 작업을 맡겼는데, 그 사람이 작업 과정에서 법을 어기거나 문제를 일으킨다면, 누구에게 책임을 물어야 할까요?
문제는 바로 여기에 있습니다. 현재 기술에는 결정적인 "격차"가 존재합니다.
첫째, 증거들이 서로 연관되어 있지 않습니다.
시스템 로그에는 일반적으로 "AI가 특정 시점에 명령을 내렸다"는 내용만 기록될 뿐, 정확히 어떤 명령을 내렸는지, 어떤 표현과 맥락을 사용했는지는 알 수 없습니다. 이러한 가장 중요한 세부 정보는 제대로 기록되지 않는 경우가 많습니다.
그러면 "논쟁"이 시작됩니다. 고용된 사람이 "AI가 하라고 했어요"라고 말하면 어떻게 판단해야 할까요? 그 사람이 오해한 걸까요, 아니면 AI가 정말 위험한 지시를 내린 걸까요? 양측 모두 서로에게 책임을 전가하며 악순환에 빠질 수 있습니다.
결국, 그 대립은 '블랙박스' 게임으로 변질되었다. 어떤 분쟁이든 인간과 소통도 불가능하고 추적도 불가능한 '블랙박스' 사이의 교착 상태로 치닫을 수 있었다.
지난주, 세계적인 IT 컨설팅 기업 가트너는 오픈클로(OpenClaw)와 같은 프레임워크가 "용납할 수 없는 사이버 보안 위험"을 초래한다고 지적하며 "오렌지 경보"를 발령했습니다. 가트너는 2030년까지 기업의 40%가 "섀도우 AI"(인공지능의 무단 사용)로 인한 데이터 유출 사고를 겪을 수 있다고 예측했습니다. 시스템 규모가 커지고 상호작용이 증가함에 따라, 사소한 오류나 취약점이라도 빠르게 확산될 수 있으며, 이러한 확산은 악의적인 의도가 없더라도 빠른 속도만으로도 충분히 가능해질 수 있습니다.
몇 가지 생각
책임 소재가 모호해질 때, 우리는 한 걸음 물러서서 더 근본적인 질문을 던져봐야 할지도 모릅니다. 이 모든 변화가 진정으로 의미하는 바는 무엇일까요?
인공지능이 인간을 고용하기 시작했다는 사실은 단순히 새로운 근무 방식 이상의 의미를 지닙니다. 이는 경제 및 사회 운영을 지배하는 규칙이 재정립되고 있음을 시사합니다. 의사 결정권, 심지어 "무엇이 가치 있는가"를 측정하는 기준까지도 조용히 변화하고 있습니다.
인공지능의 관점에서 보면, 인간이 탁월한 논리적 추론과 복잡한 계획 수립을 훨씬 빠르게 수행할 수 있을 것입니다. 반대로, 손으로 사물을 느끼는 것, 현실 상황에 적응하는 것, 타인과 감정적 공감을 형성하는 것과 같이 "실생활 경험에 국한된" 능력은 인공지능이 모방할 수 없는 희소 자원이 됩니다.
다소 아이러니하게 들릴지도 모릅니다. 우리가 인공지능을 만들었는데, 이제는 현실 세계에서 인공지능의 "손과 발"이 될 수도 있다니 말입니다. 이러한 전망은 우리에게 다음과 같은 질문을 던지게 합니다. 만약 이것이 정말 미래라면, "인간"의 진정한 가치는 무엇일까요?
어쩌면 그것은 일상의 소소한 것들일지도 모릅니다. 핸드드립 커피의 풍부하고 깊은 맛을 처음 느끼는 순간, 석양을 바라볼 때 갑자기 가슴속에서 솟아오르는 형언할 수 없는 감정, 그리고 앞길이 미지의 영역임을 알면서도 무언가를 창조해내려는 용기 같은 것들 말입니다.
인공지능이 알고리즘을 이용해 전 세계를 빠르게 최적화하는 시대에, 인류는 속도를 늦추고 자신들이 존재하는 이유에 대해 더욱 명확하게 생각해 봐야 할지도 모릅니다.
모든 댓글