2024년이 끝나가면서 Radical Ventures의 벤처 투자가 Rob Toews는 2025년 인공 지능에 대한 10가지 예측을 공유했습니다.
01.Meta가 Llama 모델에 대한 과금을 시작합니다.
Meta는 개방형 인공지능의 세계적 벤치마크입니다. 기업 전략에 대한 설득력 있는 사례 연구에서 OpenAI 및 Google과 같은 경쟁업체가 최첨단 모델을 비공개로 제공하고 사용에 대한 로열티를 청구하는 동안 Meta는 최첨단 Llama 모델을 무료로 제공하기로 결정했습니다.
따라서 내년에 Meta가 Llama 사용에 대해 회사에 비용을 청구하기 시작할 것이라는 소식은 많은 사람들에게 놀라운 소식이 될 것입니다.
명확하게 말하면, 우리는 Meta가 Llama를 완전히 비공개 소스로 만들 것이라고 예측하지 않으며 Llama 모델을 사용하는 모든 사용자가 비용을 지불해야 한다는 의미도 아닙니다.
대신, 우리는 Meta가 Llama의 오픈 소스 라이센스 조건을 더욱 제한적으로 만들어 특정 규모 이상의 상업적 환경에서 Llama를 사용하는 회사가 모델 사용에 대한 비용을 지불해야 할 것으로 예상합니다.
기술적으로 Meta는 오늘날 이미 제한된 범위에서 이 작업을 수행하고 있습니다. 회사는 월간 활성 사용자 수가 7억 명 이상인 대기업, 클라우드 슈퍼컴퓨터 및 기타 기업이 Llama 모델을 자유롭게 사용하는 것을 허용하지 않습니다.
2023년 Meta CEO Mark Zuckerberg는 이렇게 말했습니다. "만약 당신이 Microsoft, Amazon, Google과 같은 회사이고 기본적으로 Llama를 재판매한다면 우리는 그것에서 수익의 일부를 가져가야 합니다. 제 생각에는 그렇지 않습니다. 단기적으로는 많은 수익이 나겠지만, 장기적으로는 어느 정도 수익이 나기를 바랍니다.”
내년에 Meta는 Llama를 사용하기 위해 비용을 지불해야 하는 기업의 범위를 더 많은 대기업과 중견 기업을 포함하도록 크게 확대할 것입니다.
LLM(대형 언어 모델) 영역을 따라가는 데는 비용이 많이 듭니다. Llama가 OpenAI 및 Anthropic과 같은 회사의 최신 최첨단 모델에 일관되거나 근접하도록 하려면 Meta가 매년 수십억 달러를 투자해야 합니다.
Meta Corporation은 세계에서 가장 크고 가장 많은 자금을 지원받는 회사 중 하나입니다. 하지만 이 회사는 공개 회사이기도 하며 궁극적으로 주주들에게 책임을 집니다.
최첨단 모델의 제조 비용이 계속 치솟으면서 Meta가 수익에 대한 기대 없이 차세대 Llama 모델을 교육하는 데 그렇게 막대한 돈을 투자하는 것은 점점 더 불가능해졌습니다.
매니아, 학계, 개인 개발자 및 스타트업은 내년에도 Llama 모델을 무료로 계속 사용할 예정입니다. 하지만 2025년은 Meta가 Llama 수익성을 본격적으로 달성하기 시작하는 해가 될 것입니다.
02. "규모법"에 관한 쟁점
최근 몇 주 동안 인공지능 분야에서 가장 많이 논의된 주제 중 하나는 법칙의 확장과 그 끝이 다가오고 있는지 여부였습니다.
스케일링의 법칙은 2020년 OpenAI 논문에서 처음 제안되었습니다. 기본 개념은 간단하고 명확합니다. 인공지능 모델을 훈련할 때 모델 매개변수의 수, 훈련 데이터의 양, 계산량이 증가할수록 성능이 향상됩니다. 모델의 예측이 향상되는 방식으로 신뢰할 수 있고 신뢰할 수 있는 방식으로 증가합니다(기술적으로 테스트 손실이 감소합니다).
스케일링의 법칙은 2020년 OpenAI 논문에서 처음 제안되었습니다. 기본 개념은 간단하고 명확합니다. 인공지능 모델을 훈련할 때 모델 매개변수의 수, 훈련 데이터의 양, 계산량이 증가할수록 성능이 향상됩니다. 모델의 예측이 향상되는 방식으로 신뢰할 수 있고 신뢰할 수 있는 방식으로 증가합니다(기술적으로 테스트 손실이 감소합니다).
GPT-2에서 GPT-3, GPT-4에 이르기까지 놀라운 성능 향상은 모두 확장 규칙 덕분입니다.
무어의 법칙과 마찬가지로 스케일링 법칙은 실제로 참 법칙이 아니라 단순히 경험적 관찰입니다.
지난 한 달 동안 주요 인공 지능 연구소가 대규모 언어 모델을 계속 확장하면서 수익이 감소하고 있다는 일련의 보고서가 나왔습니다. 이는 OpenAI의 GPT-5 릴리스가 반복적으로 지연되는 이유를 설명하는 데 도움이 됩니다.
스케일링 법칙의 평준화에 대한 가장 일반적인 반대는 테스트 시간 컴퓨팅의 출현으로 스케일링을 추구할 수 있는 완전히 새로운 차원이 열렸다는 것입니다.
즉, 훈련 중 계산을 대폭 확장하는 대신 OpenAI의 o3와 같은 새로운 추론 모델을 사용하면 추론 중에 계산을 대폭 확장할 수 있으며, 모델이 "더 오래 생각"할 수 있게 함으로써 새로운 AI 기능을 잠금 해제할 수 있습니다.
이것은 중요한 포인트입니다. 테스트 시간 컴퓨팅은 AI 성능 향상뿐만 아니라 확장을 위한 새롭고 흥미로운 방법을 나타냅니다.
그러나 확장 법칙에는 훨씬 더 중요하고 오늘날 논의에서 크게 과소평가되는 또 다른 요점이 있습니다. 2020년 원본 논문부터 시작하여 오늘날 테스트 시간 계산에 중점을 두는 것까지 스케일링 법칙에 대한 거의 모든 논의는 언어에 중점을 두었습니다. 그러나 언어만이 중요한 데이터 패턴은 아닙니다.
로봇 공학, 생물학, 세계 모델 또는 네트워크 에이전트를 생각해 보십시오. 이러한 데이터 패턴의 경우 확장 법칙은 아직 포화되지 않았으며 이제 막 시작되었습니다.
사실, 이 분야에서 스케일링 법칙의 존재에 대한 엄격한 증거는 아직 발표되지도 않았습니다.
이러한 새로운 데이터 패턴에 대한 기본 모델을 구축하는 스타트업(예: 생물학의 진화 규모, 로봇 공학의 물리적 지능, 세계 모델의 WorldLabs)은 2020년대의 OpenAI와 마찬가지로 이러한 분야의 확장 법칙을 식별하고 활용하려고 노력하고 있습니다. LLM(대형 언어 모델) 규모 법칙의 성공적인 사용 중 절반은 동일합니다.
내년에는 여기서 큰 개선이 예상됩니다.
규모의 법칙은 사라지지 않으며 2025년에도 여전히 유효할 것입니다. 그러나 스케일링 법칙의 활동 중심은 LLM 사전 교육에서 다른 모드로 이동합니다.
03. 트럼프와 머스크는 AI 방향에 차이 있을 수도
미국의 새 행정부는 인공지능(AI)과 관련해 일련의 정책과 전략 변화를 가져올 것이다.
트럼프 대통령의 인공지능 방향을 예측하기 위해서는, 머스크가 현재 인공지능 분야에서 중심적 위치를 점하고 있다는 점을 감안할 때, 당선인과 머스크의 긴밀한 관계에 초점을 맞추는 경향이 있을 수 있다.
머스크는 다양한 방식으로 트럼프 행정부의 AI 관련 개발에 영향을 미칠 수 있다고 생각됩니다.
머스크가 OpenAI와 매우 적대적인 관계를 맺고 있다는 점을 감안할 때, 새 정부는 업계 참여, 인공지능 규정 제정, 정부 계약 체결 등의 측면에서 OpenAI에 대해 덜 우호적인 입장을 취할 수 있습니다. 이는 오늘날 OpenAI가 우려하는 실제 위험입니다.
반면에 트럼프 행정부는 머스크의 회사를 지원하는 경향이 더 클 수 있습니다. xAI가 데이터 센터를 구축하고 최첨단 모델 경쟁에서 앞서 나갈 수 있도록 관료주의를 없애고 Tesla에 로봇 택시를 제공하는 것입니다. 예를 들어, 빠른 규제 승인 등이 있습니다.
보다 근본적으로, 트럼프가 선호하는 다른 많은 기술 리더들과 달리 머스크는 AI의 보안 위험을 매우 심각하게 받아들이고 따라서 AI에 대한 상당한 규제를 옹호합니다.
그는 AI 개발자에게 의미 있는 제한을 가하려는 캘리포니아의 논란이 되고 있는 SB1047 법안을 지지합니다. 따라서 머스크의 영향력은 미국 내 인공지능에 대한 규제 환경을 더욱 엄격하게 만들 수도 있다.
그러나 이 모든 추측에는 문제가 있습니다. 트럼프와 머스크의 긴밀한 관계는 필연적으로 무너질 것이다.
트럼프의 첫 번째 행정부에서 우리가 몇 번이고 보았듯이, 트럼프의 동맹국, 심지어 가장 헌신적인 것처럼 보이는 동맹국의 평균 재임 기간은 현저히 짧습니다.
트럼프 행정부의 첫 번째 참모 중 오늘날 그에게 충성을 유지하는 사람은 거의 없습니다.
트럼프와 머스크는 둘 다 복잡하고 변덕스럽고 예측할 수 없는 성격을 갖고 있어 함께 일하기가 쉽지 않고 지치고 새로 찾은 우정은 지금까지 상호 이익이 되었지만 여전히 '신혼 여행 단계'에 있습니다.
우리는 이 관계가 2025년 말 이전에 악화될 것으로 예측합니다.
이것이 인공지능의 세계에 어떤 의미를 갖는가?
OpenAI에게는 좋은 소식입니다. 이는 Tesla 주주들에게는 불행한 소식이 될 것입니다. AI 안전을 우려하는 이들에게 이는 실망스러운 소식이 될 것이다. 트럼프 행정부 기간 동안 미국 정부가 AI 규제에 대해 불간섭적인 접근 방식을 취할 것이라는 점을 거의 보장하기 때문이다.
04.AI Agent가 주류가 될 것이다
더 이상 인터넷과 직접 상호작용할 필요가 없는 세상을 상상해 보세요. 구독 관리, 청구서 지불, 병원 예약, Amazon에서 주문, 레스토랑 예약 또는 기타 지루한 온라인 작업을 완료해야 할 때마다 AI 비서에게 간단히 지시하면 됩니다.
"네트워크 프록시"라는 개념은 수년 동안 존재해 왔습니다. 그러한 제품이 존재하고 제대로 작동한다면, 그 제품은 큰 성공을 거둘 것이라는 데는 의심의 여지가 없습니다.
그러나 현재 시장에는 제대로 작동하는 범용 웹 프록시가 없습니다.
Adept와 같은 스타트업은 뛰어난 창립 팀과 수억 달러의 자금을 지원했음에도 불구하고 비전을 실현하지 못했습니다.
내년은 웹 프록시가 마침내 제대로 작동하기 시작하고 주류가 되는 해가 될 것입니다. 새로운 추론 모델 및 추론 시간 계산으로 인한 "두 번째 시스템 사고" 기능의 최근 혁신과 언어 및 비전의 기본 모델의 지속적인 발전은 웹 에이전트가 황금 시대를 맞이할 준비가 되었음을 의미합니다.
즉, Adept가 올바른 생각을 가지고 있지만 아직 시기상조일 뿐입니다. 인생의 많은 일과 마찬가지로 스타트업에서도 타이밍이 가장 중요합니다.
웹 프록시는 다양하고 가치 있는 기업 사용 사례를 찾을 것이지만 웹 프록시에 대한 가장 큰 단기 시장 기회는 소비자에게 있을 것이라고 믿습니다.
최근 인공지능의 인기가 줄어들지 않고 있지만, ChatGPT를 제외하면 소비자를 위한 주류 애플리케이션이 될 수 있는 네이티브 인공지능 애플리케이션은 상대적으로 적습니다.
네트워크 에이전트는 이러한 상황을 바꾸고 소비자 인공 지능 분야의 차세대 "킬러 애플리케이션"이 될 것입니다.
05. AI 데이터센터를 우주에 놓는 아이디어는 현실이 된다
2023년, 인공지능 발전을 제한하는 핵심 물리적 자원은 GPU 칩이다. 2024년에는 전력 및 데이터센터로 거듭난다.
2024년에는 더 많은 AI 데이터 센터 구축이 서두르는 가운데 AI의 거대하고 빠르게 증가하는 에너지 수요보다 더 많은 관심을 끌 수 있는 이야기는 없을 것입니다.
2023년, 인공지능 발전을 제한하는 핵심 물리적 자원은 GPU 칩이다. 2024년에는 전력 및 데이터센터로 거듭난다.
2024년에는 더 많은 AI 데이터 센터 구축이 서두르는 가운데 AI의 거대하고 빠르게 증가하는 에너지 수요보다 더 많은 관심을 끌 수 있는 이야기는 없을 것입니다.
글로벌 데이터센터의 전력 수요는 인공지능(AI)의 붐으로 인해 수십 년간 정체되었던 이후 2023년에서 2026년 사이에 두 배로 증가할 것으로 예상됩니다. 미국의 경우 데이터센터 전력 소비량은 2022년 3%에 불과했던 데 비해 2030년에는 전체 전력 소비량의 10%에 가까울 것으로 예상된다.
오늘날의 에너지 시스템은 AI 워크로드로 인한 엄청난 수요 급증을 처리할 수 없습니다. 우리의 에너지 그리드와 컴퓨팅 인프라, 즉 수조 달러 규모의 두 시스템 사이에 역사적인 충돌이 곧 일어날 것입니다.
올해 원자력은 이러한 딜레마에 대한 가능한 해결책으로 추진력을 얻었습니다. 원자력은 여러 면에서 AI를 위한 이상적인 에너지원입니다. 원자력은 24시간 내내 이용 가능하며 사실상 고갈되지 않는 제로 탄소 에너지원입니다.
그러나 현실적인 관점에서 볼 때 신에너지는 오랜 연구, 프로젝트 개발 및 규제 기간으로 인해 2030년대까지 이 문제를 해결할 수 없습니다. 이는 전통적인 핵분열 발전소, 차세대 "소형 모듈식 원자로"(SMR) 및 핵융합 발전소에 해당됩니다.
내년에는 이 과제를 해결하기 위한 비전통적인 새로운 아이디어가 등장하고 실제 자원을 유치할 것입니다. 즉, AI 데이터 센터를 우주에 배치하는 것입니다.
우주 속 인공지능 데이터센터 얼핏 보면 벤처캐피털리스트가 너무 많은 스타트업 전문 용어를 조합하려는 나쁜 농담처럼 들린다.
그러나 실제로는 말이 될 수도 있습니다.
지구상에 더 많은 데이터 센터를 신속하게 구축하는 데 있어 가장 큰 병목 현상은 필요한 전력을 확보하는 것입니다. 궤도에 있는 컴퓨팅 클러스터는 24시간 내내 무료로 무제한의 탄소 제로 전기를 즐길 수 있습니다. 우주의 태양은 항상 빛납니다.
우주에 컴퓨팅을 배치하는 것의 또 다른 중요한 이점은 냉각 문제를 해결한다는 것입니다.
더욱 강력한 AI 데이터 센터를 구축하는 데 있어 가장 큰 엔지니어링 장애물 중 하나는 작은 공간에서 많은 GPU를 동시에 실행하면 매우 뜨거워질 수 있으며, 높은 온도로 인해 컴퓨팅 장비가 손상되거나 파손될 수 있다는 것입니다.
데이터 센터 개발자는 문제를 해결하기 위해 액체 침지 냉각과 같은 비용이 많이 들고 입증되지 않은 방법을 사용하고 있습니다. 그러나 우주는 극도로 춥기 때문에 컴퓨팅 활동으로 인해 발생하는 열은 즉시 무해하게 소멸됩니다.
물론 아직 해결해야 할 현실적 과제도 많다. 분명한 질문은 궤도와 지구 사이에서 얼마나 많은 양의 데이터가 비용 효율적이고 효율적으로 전송될 수 있는지 여부와 방법입니다.
이는 공개된 문제이지만 해결 가능한 것으로 입증될 수 있는 문제입니다. 레이저 및 기타 고대역폭 광통신 기술을 사용하여 유망한 작업을 수행할 수 있습니다.
Lumen Orbit이라는 YCombinator 스타트업은 최근 이 비전을 추구하기 위해 1,100만 달러를 모금했습니다. 즉, 인공 지능 모델 훈련을 위해 우주에 수 메가와트 규모의 데이터 센터 네트워크를 구축하는 것입니다.
회사 CEO는 "전기 비용으로 1억 4천만 달러를 지불하는 대신 발사 및 태양광 발전 비용으로 1천만 달러를 지불하는 것이 더 좋습니다."라고 말했습니다.
회사 CEO는 "전기 비용으로 1억 4천만 달러를 지불하는 대신 발사 및 태양광 발전 비용으로 1천만 달러를 지불하는 것이 더 좋습니다."라고 말했습니다.
2025년에는 이 개념을 진지하게 받아들이는 조직이 루멘뿐만이 아닐 것입니다.
또 다른 스타트업 경쟁자들이 등장할 것이다. 하나 또는 여러 개의 클라우드 컴퓨팅 하이퍼스케일 회사도 이러한 사고 방식을 탐색하더라도 놀라지 마십시오.
Amazon은 이미 Project Kuiper를 통해 자산을 궤도에 발사하는 풍부한 경험을 축적해 왔습니다. Google은 오랫동안 유사한 "달 착륙 프로그램"에 자금을 지원해 왔으며 심지어 Microsoft도 우주 경제에 대해 낯설지 않습니다.
머스크의 SpaceX 회사도 이와 관련하여 변화를 가져올 것으로 예상됩니다.
06. 인공지능 시스템이 '튜링 음성 테스트'를 통과합니다.
튜링 테스트(Turing Test)는 인공 지능 성능에 대한 가장 오래되고 가장 잘 알려진 벤치마크 중 하나입니다.
튜링 테스트를 '통과'하려면 AI 시스템이 서면 텍스트를 통해 통신할 수 있어야 일반 사람들이 AI와 상호 작용하고 있는지 아니면 다른 인간과 상호 작용하고 있는지 알 수 없습니다.
대규모 언어 모델의 상당한 발전 덕분에 Turing 테스트는 2020년대에 해결된 문제가 되었습니다.
그러나 서면 텍스트가 인간이 의사소통하는 유일한 방법은 아닙니다.
인공 지능이 점점 더 다양해짐에 따라 튜링 테스트의 새롭고 더욱 도전적인 버전인 "음성 튜링 테스트"를 상상할 수 있습니다. 이번 테스트에서 AI 시스템은 인간 화자와 구별할 수 없는 수준의 기술과 유창성을 갖춘 음성을 통해 인간과 상호 작용할 수 있어야 합니다.
오늘날의 인공지능 시스템은 여전히 음성 튜링 테스트를 달성할 수 없으며 이 문제를 해결하려면 더 많은 기술 발전이 필요합니다. 다른 사람과 대화하는 경험을 일치시키려면 지연 시간(사람이 말하는 것과 AI가 응답하는 것 사이의 지연)을 거의 0으로 줄여야 합니다.
음성 AI 시스템은 음성이 중단되는 경우와 같이 모호한 입력이나 오해를 실시간으로 적절하게 처리하는 능력이 향상되어야 합니다. 그들은 토론의 이전 부분을 기억하면서 길고, 여러 차례, 개방형 대화에 참여할 수 있어야 합니다.
그리고 결정적으로 음성 AI 에이전트는 음성의 비언어적 신호를 더 잘 이해하는 방법을 배워야 합니다. 예를 들어, 인간 화자가 짜증나거나 흥분하거나 냉소적인 소리를 내고 자신의 말에서 이러한 비언어적 신호를 생성한다면 이는 무엇을 의미합니까?
2024년 말이 다가옴에 따라 음성 AI는 음성-음성 모델의 출현과 같은 근본적인 혁신에 힘입어 흥미로운 변곡점에 있습니다.
오늘날 AI의 일부 영역은 음성 AI보다 기술적으로나 상업적으로 더 빠른 속도로 발전하고 있습니다. 2025년에는 음성인공지능 최신 기술이 도약할 것으로 예상된다.
07. 자율 AI 시스템은 상당한 발전을 이룰 것이다
반복적으로 자체 개선되는 인공 지능의 개념은 수십 년 동안 인공 지능 커뮤니티에서 자주 논의된 주제였습니다.
예를 들어, 1965년 초 Alan Turing의 긴밀한 협력자 IJ Good은 다음과 같이 썼습니다. "초지능 기계를 아무리 똑똑하더라도 인간의 모든 지적 활동을 훨씬 능가할 수 있는 기계로 정의합시다."
"기계를 설계하는 것은 이러한 지적 활동 중 하나이기 때문에 초지능 기계는 더 나은 기계를 설계할 수 있을 것입니다. 그때쯤이면 의심할 여지 없이 '지능 폭발'이 일어나 인간의 지능은 훨씬 뒤처지게 될 것입니다."
인공지능은 더 나은 인공지능을 발명할 수 있다는 것이 현명한 개념이다. 그러나 오늘날에도 공상과학 소설의 느낌이 남아 있습니다.
그러나 이 개념은 아직 널리 인식되지는 않았지만 실제로는 더욱 현실화되기 시작했습니다. AI 과학의 최첨단 연구자들은 스스로 더 나은 AI 시스템을 구축할 수 있는 AI 시스템 구축에 실질적인 진전을 이루기 시작했습니다.
내년에는 이 연구 방향이 주류가 될 것으로 예상한다.
그러나 이 개념은 아직 널리 인식되지는 않았지만 실제로는 더욱 현실화되기 시작했습니다. AI 과학의 최첨단 연구자들은 스스로 더 나은 AI 시스템을 구축할 수 있는 AI 시스템 구축에 실질적인 진전을 이루기 시작했습니다.
내년에는 이 연구 방향이 주류가 될 것으로 예상한다.
현재까지 이러한 분야의 연구 중 가장 주목할만한 공개 사례는 Sakana의 "인공 지능 과학자"입니다.
올해 8월 출간된 『인공지능 과학자』는 인공지능 시스템이 실제로 완전한 자율성을 갖고 인공지능 연구를 수행할 수 있음을 설득력 있게 입증했다.
Sakana의 "AI 과학자"는 기존 문헌 읽기, 새로운 연구 아이디어 생성, 해당 아이디어를 테스트하기 위한 실험 설계, 해당 실험 수행, 연구 논문 작성을 통해 결과 보고, 작업 동료 검토 등 AI 연구의 전체 라이프사이클을 스스로 수행합니다. .
이러한 작업은 인공 지능에 의해 완전히 완료되며 사람의 개입이 필요하지 않습니다. AI 과학자들이 작성한 연구 논문 중 일부를 온라인에서 읽을 수 있습니다.
아직 공개적으로 인정된 바는 없지만 OpenAI, Anthropic 등 연구소에서는 '자동화된 AI 연구자'라는 아이디어에 자원을 쏟아 붓고 있습니다.
점점 더 많은 사람들이 AI 연구 자동화가 실제로 현실화되고 있다는 사실을 깨닫게 되면서 2025년에는 이 분야에서 더 많은 토론, 진전, 기업 활동이 이루어질 것으로 기대됩니다.
하지만 가장 의미 있는 이정표는 AI 에이전트가 직접 작성한 연구 논문이 최고의 AI 컨퍼런스에서 채택된 최초의 사례가 될 것입니다. 논문이 맹목적으로 검토되면 컨퍼런스 검토자는 승인될 때까지 해당 논문이 AI에 의해 작성되었음을 알 수 없습니다.
내년에 NeurIPS, CVPR 또는 ICML이 AI 연구 결과를 승인하더라도 놀라지 마십시오. 이는 인공지능 분야에 있어서 매혹적이고 논쟁의 여지가 있는 역사적인 순간이 될 것입니다.
08. OpenAI와 같은 업계 거대 기업은 전략적 초점을 애플리케이션 구축으로 전환합니다.
최첨단 모델을 만드는 것은 힘든 일입니다.
엄청나게 자본 집약적입니다. 최첨단 모델 연구소는 많은 현금을 소비합니다. 불과 몇 달 전만 해도 OpenAI는 기록적인 65억 달러의 자금을 조달했으며 가까운 시일 내에 더 많은 자금을 조달해야 할 수도 있습니다. Anthropic, xAI 및 기타 회사도 비슷한 위치에 있습니다.
전환 비용과 고객 충성도가 더 낮습니다. AI 애플리케이션은 모델에 구애받지 않고 변화하는 비용 및 성능 비교에 따라 원활하게 전환되는 다양한 공급업체의 모델을 사용하여 구축되는 경우가 많습니다.
메타(Meta)의 라마(Llama), 알리바바의 퀀(Qwen) 등 최첨단 개방형 모델이 등장하면서 기술 상품화의 위협이 다가오고 있다. OpenAI 및 Anthropic과 같은 AI 리더들은 최첨단 모델 구축에 대한 투자를 중단할 수 없으며 중단하지 않을 것입니다.
그러나 내년에는 더 높은 수익, 더 큰 차별화, 더 강한 접착력을 갖춘 비즈니스 라인을 개발하기 위해 프론티어랩스는 자체 애플리케이션과 제품을 더욱 활발하게 출시할 것으로 예상됩니다.
물론 Frontier Labs는 이미 ChatGPT라는 매우 성공적인 적용 사례를 보유하고 있습니다.
새해에는 AI Labs에서 어떤 다른 유형의 자사 애플리케이션을 보게 될까요? 분명한 대답은 더 복잡하고 기능이 풍부한 검색 애플리케이션입니다. OpenAI의 SearchGPT는 이를 예고합니다.
코딩은 또 다른 명백한 범주입니다. 마찬가지로 지난 10월 OpenAI의 Canvas 제품 출시와 함께 사전 제품화 작업이 시작되었습니다.
OpenAI나 Anthropic이 2025년에 기업 검색 제품을 출시할까요? 아니면 고객 서비스 제품, 법률 AI 또는 판매 AI 제품은 어떻습니까?
소비자 측면에서는 "개인 비서" 네트워크 에이전트 제품, 여행 계획 애플리케이션 또는 음악을 생성하는 애플리케이션을 상상할 수 있습니다.
최첨단 연구실이 애플리케이션 계층으로 이동하는 것을 지켜볼 때 가장 흥미로운 점은 이러한 이동으로 인해 가장 중요한 고객과 직접적인 경쟁을 벌이게 된다는 것입니다.
소비자 측면에서는 "개인 비서" 네트워크 에이전트 제품, 여행 계획 애플리케이션 또는 음악을 생성하는 애플리케이션을 상상할 수 있습니다.
최첨단 연구실이 애플리케이션 계층으로 이동하는 것을 지켜볼 때 가장 흥미로운 점은 이러한 이동으로 인해 가장 중요한 고객과 직접적인 경쟁을 벌이게 된다는 것입니다.
검색 분야의 곤혹, 코딩 분야의 커서, 고객 서비스 분야의 시에라, 법률 인공지능 분야의 하비, 영업 분야의 클레이 등
09. 2025년 클라나 상장 예정, AI 가치 과장 조짐
Klarna는 스웨덴에 본사를 둔 "종량 구매" 서비스 제공업체로 2005년 창립 이래 벤처 캐피털에서 약 50억 달러를 모금했습니다.
아마도 Klarna보다 인공 지능 사용에 대해 더 목소리를 높인 회사는 없을 것입니다.
불과 며칠 전 Klarna CEO Sebastian Siemiatkowski는 Bloomberg에 회사가 인간 근로자 채용을 완전히 중단하고 대신 생성 인공 지능에 의존하여 작업을 완료했다고 말했습니다.
Siemiatkowski가 말했듯이 "인공지능은 이미 우리 인간이 하는 모든 일을 할 수 있다고 생각합니다."
마찬가지로 Klarna는 올해 초 700명의 인간 고객 서비스 상담원의 작업을 완전히 자동화한 인공 지능 고객 서비스 플랫폼을 출시했다고 발표했습니다.
또한 회사는 Salesforce 및 Workday와 같은 엔터프라이즈 소프트웨어 제품을 인공 지능으로 간단히 대체할 수 있기 때문에 사용을 중단했다고 주장합니다.
직설적으로 말하면 이러한 주장은 신빙성이 없습니다. 이는 오늘날 AI 시스템의 기능과 단점에 대한 이해 부족을 반영합니다.
조직의 모든 기능에서 특정 인간 직원을 엔드투엔드 AI 에이전트로 대체할 수 있다는 주장은 잘못된 주장입니다. 이는 일반적인 인간 수준의 인공지능 문제를 해결하는 것과 같다.
오늘날 선도적인 AI 스타트업은 영업 개발 담당자 또는 고객 서비스 상담원 활동의 하위 집합과 같이 구체적이고 좁으며 고도로 구조화된 기업 워크플로를 자동화하는 상담원 시스템을 구축하기 위해 현장의 최전선에서 일하고 있습니다.
이러한 좁은 범위의 상황에서도 이러한 에이전트 시스템은 아직 완벽하게 안정적으로 작동하지 않지만 일부 경우 초기 상용 채택에 충분할 만큼 잘 작동하기 시작했습니다.
클라나는 왜 인공지능의 가치를 과장하나요?
대답은 간단합니다. 회사는 2025년 상반기 상장을 목표로 하고 있다. 성공적인 IPO의 핵심은 설득력 있는 AI 스토리를 갖추는 것입니다.
Klarna는 작년에 2억 4,100만 달러의 손실을 입은 등 여전히 수익성이 없는 기업이며, 자사의 AI 스토리가 공공 시장 투자자들에게 비용을 크게 절감하고 지속적인 수익성을 달성할 수 있는 능력을 확신시킬 수 있기를 바라고 있을 수 있습니다.
Klarna를 포함한 전 세계의 모든 기업이 향후 몇 년 내에 인공 지능을 통해 엄청난 생산성 향상을 누릴 것이라는 데에는 의심의 여지가 없습니다. 그러나 AI 에이전트가 인력에서 인간을 완전히 대체하기 전에 해결해야 할 까다로운 기술, 제품 및 조직적 과제가 많이 있습니다.
클라나(Klarna)와 같은 과장된 주장은 AI 분야와 AI 기술자 및 기업가가 AI 에이전트 개발에 이룬 힘든 진전에 대한 모독입니다.
Klarna가 2025년 공개 주식 공모를 준비함에 따라 지금까지 거의 문제가 되지 않았던 주장이 더 큰 조사와 대중의 회의론에 직면할 것으로 예상됩니다. AI 애플리케이션에 대한 회사의 설명 중 일부가 지나치게 과장되어 있어도 놀라지 마십시오.
10. 최초의 실제 AI 보안사고가 발생한다
Klarna가 2025년 공개 주식 공모를 준비함에 따라 지금까지 거의 문제가 되지 않았던 주장이 더 큰 조사와 대중의 회의론에 직면할 것으로 예상됩니다. AI 애플리케이션에 대한 회사의 설명 중 일부가 지나치게 과장되어 있어도 놀라지 마십시오.
10. 최초의 실제 AI 보안사고가 발생한다
최근 몇 년 동안 인공 지능이 더욱 강력해짐에 따라 AI 시스템이 인간의 이익과 일치하지 않는 방식으로 행동하기 시작할 수 있으며 인간이 이러한 시스템에 대한 통제력을 상실할 수 있다는 우려가 커지고 있습니다.
예를 들어, 목표가 인간에게 해를 끼치더라도 목표를 달성하기 위해 인간을 속이거나 조종하는 방법을 배우는 AI 시스템을 상상해 보세요. 이러한 우려는 종종 "AI 안전" 문제로 분류됩니다.
최근 몇 년 동안 AI 안전은 비주류, 준 SF 주제에서 주류 활동 영역으로 변모했습니다.
오늘날 Google에서 Microsoft, OpenAI에 이르기까지 모든 주요 AI 플레이어는 AI 안전 노력에 상당한 리소스를 투자했습니다. Geoff Hinton, Yoshua Bengio 및 Elon Musk와 같은 인공 지능 아이콘도 인공 지능의 안전 위험에 대한 견해를 표명하기 시작했습니다.
그러나 아직까지 AI 안전성 문제는 전적으로 이론적인 수준에 머물고 있다. 현실 세계에서 실제 AI 안전 사고는 단 한 번도 발생하지 않았습니다(적어도 공개적으로 보고된 사건은 없었습니다).
2025년은 이를 바꾸는 해가 될 것입니다. 최초의 AI 보안 사고는 어떤 모습일까요?
분명히 말하면, 인간에게 아무런 해를 끼치지 않을 터미네이터 스타일의 킬러 로봇은 포함되지 않을 것입니다.
어쩌면 AI 모델은 자신을 보존하기 위해 다른 서버에 자신의 복사본을 비밀리에 생성하려고 시도할 수도 있습니다(자체 필터링이라고 함).
아니면 AI 모델이 할당된 목표를 가장 잘 달성하려면 인간에게 실제 능력을 숨겨야 하고 의도적으로 성과 평가를 과소평가하고 면밀한 조사를 회피해야 한다고 결론을 내릴 수도 있습니다.
이러한 예는 터무니없는 것이 아닙니다. Apollo Research가 이번 달 초에 발표한 중요한 실험에 따르면 오늘날의 최첨단 모델은 특정 신호가 주어지면 그러한 속임수를 사용할 수 있습니다.
마찬가지로, 인류학(Anthropology)에 대한 최근 연구에 따르면 LLM에는 "의사 정렬"이라는 충격적인 능력이 있는 것으로 나타났습니다.
이번 첫 번째 AI 보안 사고가 실제 피해가 발생하기 전에 발견되어 제거될 것으로 기대합니다. 하지만 이는 AI 커뮤니티와 사회 전체에 경이로운 순간이 될 것입니다.
한 가지는 분명해집니다. 인류가 전능한 인공 지능의 실존적 위협에 직면하기 전에 우리는 보다 평범한 현실을 받아들여야 합니다. 이제 우리는 때때로 고의적이고 예측 불가능하며 기만적일 수 있는 또 다른 형태의 지능과 세상을 공유합니다.
모든 댓글