딥시크(DeepSeek)에 이어 마누스(MANUS) 까지 – 다원화되는 중국 오픈소스 LLM 생태계

안녕하세요 AI사업팀 김종호 사원입니다.

최근 AI 업계에서 중국발 초거대 언어모델(LLM)의 혁신적 프로젝트들이 주목받고 있습니다. 딥시크는 한때 미국 중심이었던 AI 업계에 “스푸트니크 순간”을 불러올 정도로 큰 파장을 일으키며 GPT-4에 필적하는 성능을 획기적으로 낮은 비용에 구현한 사례로 주목받았습니다. 하지만 LLM 생태계는 딥시크 하나로 끝나지 않았습니다. 2025년 3월 중국에서 또 다른 혁신적 프로젝트인 마누스가 공개되어 화제가 되고 있습니다. 이번 포스트에서는 두 프로젝트의 등장 배경과 차별점, 생태계 다원화의 의미를 중심으로 살펴보겠습니다.

딥시크란 무엇인가?

(사진=딥시크)

딥시크는 중국의 헤지펀드 기반 AI 연구소에서 시작된 대형 언어 모델 프로젝트입니다. 2015년 량원펑(Liang Wenfeng)이 설립한 퀀트 헤지펀드 하이플라이어(High-Flyer)에서 AI 트레이딩을 통해 큰 성공을 거둔 후 2023년 5월 범용 AI 기술 개발을 위해 딥시크 연구실을 별도 법인으로 분사했습니다​. 량원펑 대표는 “AI가 인류 지식의 경계를 확장해야 한다”는 비전 아래 소수 정예 연구진으로 과감한 도전을 시작했습니다​.

딥시크는 출범 이후 불과 1년 반 만에 거대 언어 모델 분야의 혁신 주자로 떠올랐습니다. OpenAI, Google 등의 빅테크가 막대한 인프라와 인력으로 경쟁하는 가운데 딥시크 팀은 약 200명 남짓의 규모로 소프트웨어 최적화에 집중해 성과를 냈습니다​. 특히 미국의 대중 기술지 Wired에서는 2025년 1월호에서 딥시크의 성과를 “소프트웨어 최적화로 하드웨어 제재를 뛰어넘은 중국 AI의 기적”이라고 소개하기도 했습니다.

딥시크의 고래 모양 로고는 바다 깊은 곳까지 지식을 탐구한다는 의미를 담고 있습니다. 중국에서 딥시크는 일종의 충격적인 등장이었습니다. 이 오픈소스 모델은 챗GPT에 필적하는 성능을 훨씬 저렴한 비용으로 구현해 자체 모델을 공개했고 이는 업계에 신선한 충격을 주었습니다​. 그 결과 중국 AI 업계의 지형이 바뀌기 시작했습니다. 대표적으로 그동안 폐쇄 전략을 고수하던 중국 빅테크 바이두(Baidu)가 딥시크의 등장을 계기로 차세대 AI 모델을 오픈소스로 전환하겠다고 발표하기도 했습니다​. 실제로 딥시크 출시 후 중국 내 AI 챗봇 사용자 수 순위에서 딥시크는 월간 3천만 명이 넘는 사용자를 확보하여 바이두의 어니봇(Ernie Bot)을 제치고 2위를 기록하기도 했습니다​.

무엇보다 주목해야 할 점은 딥시크의 오픈소스 전략입니다. 딥시크 개발사인 DeepSeek-AI는 주요 모델과 코드를 MIT 라이선스로 공개하여 전 세계 개발자들이 자유롭게 사용하고 상용화할 수 있도록 했습니다​. 이러한 파격적인 공개 전략 덕분에 깃허브 기준 불과 3개월 만에 2만 명 이상의 기여자가 참여하는 활발한 커뮤니티가 형성되었고​ 글로벌 협업이 빠르게 이뤄지고 있습니다. 중국 관영매체에서도 “중국 AI들의 잇단 오픈소스화가 세계에 통찰을 주고 있다”는 평가를 내놓았고 에릭 슈밋 전 구글 회장마저 “오픈소스에 집중하지 않으면 AI 주도권을 중국에 빼앗길 수 있다”는 견해를 밝히는 등 딥시크를 계기로 AI 생태계의 개방 트렌드가 가속화되는 모습입니다.

모델 구조 – Transformer 기반 아키텍처와 DeepSeek-V2/V3의 특징

딥시크의 모델 구조는 기본적으로 트랜스포머(Transformer) 구조를 따르고 있으며 거대 언어 모델 분야 최신 기법들이 집약되어 있습니다​. 트랜스포머란 2017년 구글이 발표한 신경망 구조로 문장 내 단어들이 서로 어떤 관련이 있는지 주목하는 메커니즘을 통해 언어를 이해합니다. 딥시크도 이 멀티헤드 어텐션 기반 구조 위에서 방대한 데이터 학습을 통해 언어 능력을 습득했습니다. 특별한 점은 DeepSeek-V2 이후 도입된 몇 가지 최적화 기술입니다.

첫째 Mixture of Experts (MoE) 구조입니다. 일반적인 LLM은 모든 입력에 동일한 거대한 네트워크를 동원하지만 MoE 구조에서는 여러 개의 전문가 네트워크를 두고 입력에 따라 일부만 활성화합니다​. 쉽게 말해 한 모델 안에 분야별로 특화된 ‘전문가’들이 여럿 있고 질문에 맞는 몇 명의 전문가만 답변에 참여하는 방식입니다. 딥시크는 이 MoE 기반 스위치 트랜스포머 방식을 채택하여 전체 모델 규모는 매우 크면서도 실제 계산량은 줄이는 데 성공했습니다​. 예를 들어 딥시크-V3 모델은 총 6,710억 개(671B)의 파라미터를 지닌 거대 모델이지만 한 번 추론 시에는 그 중 약 370억 개(37B)의 파라미터만 활용하도록 설계되어 있습니다​. 이는 게이팅 네트워크가 토큰마다 적합한 전문가 FFN만 선택해 사용하는 원리로 불필요한 연산을 생략해 효율을 높입니다.

스위치 트랜스포머 방식의 MoE 레이어 개념도 (출처: Fedus et al. (2021), Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity, arXiv:2101.03961)

일반적인 트랜스포머의 FFN 레이어를 여러 전문가(FFN1~4)로 분리하고 라우터(router)가 각 입력 토큰을 가장 알맞은 전문가에게 보내도록 구성됩니다. 이 방식으로 딥시크는 거대한 모델을 유지하면서도 필요한 부분만 활성화하여 연산 효율을 극대화합니다.

둘째 강화학습(Reinforcement Learning, RL) 기반 훈련입니다. 딥시크 개발팀은 기존 지도학습 데이터로 미세튜닝하는 것에 더해 모델 스스로 시행착오를 통해 학습하도록 대규모 RL을 도입했습니다​. 2024년 발표된 DeepSeek-R1-Zero 모델은 아예 인간 피드백 없이 거대한 언어모델을 RL로 돌리는 실험을 통해 강력한 추론 능력의 발현을 확인했는데 문장 표현력이 떨어지고 언어 혼용 등의 부작용도 나타났습니다. 이를 개선하기 위해 딥시크 팀은 사전학습 데이터로 기본기를 다진 후 RL을 적용하는 멀티스텝 학습법을 도입하여 DeepSeek-R1 모델을 완성했습니다. 그 결과 딥시크-R1은 OpenAI의 최신 모델과 견줄 정도의 뛰어난 추론 성능을 갖추게 되었고 지도학습+강화학습을 병행하여 언어이해와 추론능력을 모두 잡은 것입니다.

이러한 혁신 기술들은 DeepSeek-V2 시리즈부터 본격 적용되어 모델 효율을 크게 끌어올렸습니다. 2024년 5월 공개된 V2 모델들은 GPT-4 대비 1/10 비용으로도 유사한 성능을 내는 것을 목표로 했으며 실제로 혼합전문가 구조와 강화학습 최적화 덕분에 연산 비용 90% 절감을 이루었다고 합니다​. 이어 2024년 말 선보인 DeepSeek-V3는 약 670억개 규모(67B) 파라미터의 업그레이드 모델로 지식 범위와 언어 능력이 한층 강화되었습니다​. V3는 중국어와 영어 모두에서 뛰어난 성능을 보여 중국 내수와 글로벌을 동시에 겨냥했고 맥락 길이도 최대 64K 토큰까지 처리 가능하여 초장문 입력도 거뜬했습니다​.

참고로 딥시크는 코드 전문 모델(DeepSeek-Coder), 수학 전문 모델(DeepSeek-Math), 멀티모달 모델(DeepSeek-VL: Vision-Language) 등 파생 모델들도 속속 선보이고 있습니다​. 예를 들어 2023년 11월에는 7억 및 67억 파라미터 규모의 범용 LLM을 공개한 데 이어 2024년 4월에는 수학 문제 해결에 특화된 7B 모델을 내놓는 등 도메인별로 모델을 최적화해왔습니다​. 이러한 모델 구조상의 실험과 발전을 빠르게 오픈소스로 공유한 덕분에 연구 커뮤니티와 개발자들은 딥시크를 기반으로 다양한 응용을 시도할 수 있게 되었습니다.

마누스란 무엇인가?

(사진=마누스)

마누스는 중국 스타트업 모니카(Monica)에서 개발한 자율 AI 에이전트(Autonomous AI Agent)입니다. 2025년 3월 6일에 첫 선을 보인 마누스는 겉보기엔 ChatGPT 같은 대화형 AI와 유사하지만 동작 방식은 완전히 다릅니다. 기존 LLM 기반 챗봇들이 사용자 프롬프트에 답변하는 수준에 머문다면 마누스는 스스로 계획을 세우고 실행하는 능동형 AI를 지향합니다​. 개발 배경을 살펴보면 2024년 말 딥시크 V3 모델이 GPT-4에 도전장을 내밀며 중국의 AI 역량을 과시한 이후 모니카는 단순한 모델 성능 경쟁을 넘어 “AI 조수에서 독립적 행위자로”의 전환을 목표로 마누스를 탄생시켰습니다​. 이 때문에 현지 언론에서는 마누스를 일컬어 딥시크에 이은 “제2의 딥시크 모먼트”라고 부르기도 합니다.

마누스의 가장 큰 특징은 멀티 에이전트 아키텍처입니다. 마누스는 하나의 거대한 LLM이 아니라 여러 개의 전문 AI 에이전트로 이루어진 협업 시스템으로 동작합니다. 중앙의 총괄 에이전트가 사용자 요청을 받아 적절한 하위 에이전트들에게 작업을 분담하며 필요에 따라 웹 브라우징, 코딩, 데이터베이스 질의 등 외부 도구도 구동합니다.

마누스 작업 수행 과정 (출처: https://www.geeksforgeeks.org/manus-ai-new-general-ai-agent/)

마누스 작업 수행 과정은 사용자 입력을 받아 작업을 세분화하고 각 전문 에이전트가 서브태스크를 수행한 뒤 결과를 종합합니다. 실패나 오류 상황에서는 자동으로 계획을 조정하여 끝까지 결과를 만들어냅니다.

예를 들어 사용자가 “일본 여행 일정을 계획해줘”라고 부탁하면 마누스는 즉시 여행 정보 조사 -> 항공 / 호텔 예약 -> 상세 일정표 작성 등의 하위 작업으로 분할합니다​. 그런 다음 각 작업을 담당하는 전문화된 에이전트들을 병렬로 가동하는데 한 에이전트는 여행지 정보를 수집하고 다른 에이전트는 항공권과 숙소를 예약하며 또 다른 에이전트는 일정을 편집하는 방식입니다. 이 과정에서 필요한 경우 웹에서 실시간 데이터를 크롤링하고 예약 API를 호출하고 심지어 리눅스 샌드박스 환경 내에서 코드까지 실행하면서 사용자 요청을 끝까지 자동 처리합니다​​. 최종적으로 모든 하위 결과물이 모이면 마누스는 이것을 하나로 합쳐 완결된 산출물을 사용자에게 제공합니다. 흥미로운 점은 모든 진행 상황을 마누스가 “스스로 판단”하며 알아서 조율한다는 것입니다. 따라서 도중에 항공권 좌석이 없거나 데이터 누락 등 예외 상황이 발생해도 에러를 사용자에게 되묻는 것이 아니라 대안을 찾아내고 계획을 수정하여 목표를 달성합니다. 마누스 개발팀은 이를 두고 “아이디어와 실행을 이어주는 완전 자율 에이전트”라고 설명합니다​.

요약하면 마누스는 “생각만 하지 않고 손까지 움직여주는 AI 비서”입니다. 중국어로 “손”을 뜻하는 라틴어 단어에서 이름을 딴 마누스는 사람의 고급 지식 노동을 보조하는 수준을 넘어 인간을 대체하여 직접 업무를 수행하는 것을 목표로 합니다. 금융 거래 내역을 분석하거나 이력서 뭉치를 평가하는 일도 처음 지시 한 번이면 알아서 척척 해내고​ 사용자가 컴퓨터를 꺼도 클라우드 상의 가상환경에서 계속 일을 수행하며 마치 성실한 인턴처럼 결과물을 완성해낸 뒤 알려주는 식입니다​. 이러한 풀 오토메이션 능력 때문에 포브스 등 외신에서는 마누스를 두고 기존 챗봇과 차원이 다른 “진정한 의미의 AI 자율성”이 등장했다고 평가했습니다.

모델 성능과 활용 사례

마누스의 등장으로 가장 관심을 끈 부분 중 하나는 모델의 실제 성능입니다. 아무리 아이디어가 참신해도 기본 언어 모델 성능이 뒷받침되지 않으면 실용성이 떨어지기 때문입니다. 다행히도 마누스는 여러 초기 평가에서 인상적인 결과를 보여주고 있습니다. 특히 AI 종합 능력을 테스트하는 GAIA 벤치마크에서 모든 난이도 구간에 걸쳐 최신 AI 시스템들 대비 새로운 SOTA(State of the Art) 기록을 달성했다고 합니다. 이는 OpenAI의 실험적 AGI 시뮬레이션인 “딥 리서치(Deep Research)”보다도 앞선 결과로 모니카 측은 마누스가 복잡한 현실 문제 해결 능력에서 현존 최고 수준임을 입증했다고 밝혔습니다​. 한편 마누스는 일반적인 문답형 언어 처리 성능도 최상위권으로 평가받는데 실제 ChatGPT(GPT-4)와의 답변 대결에서도 보다 깊이 있고 상세한 응답을 내놓는 경향이 확인되었습니다. MIT 테크놀로지 리뷰에 따르면 마누스와 함께 작업해 본 결과 “매우 똑똑하고 효율적인 인턴과 협업하는 느낌”이었다고 하니 출력되는 답변의 질 자체는 현 시점에서 상당한 수준인 것으로 보입니다.

여러 AI 모델의 벤치마크 성능 비교 그래프 (출처: https://www.theregister.com/2025/01/30/alibaba_qwen_ai/)

2025년 1월 알리바바가 공개한 자료로 자사의 Qwen 2.5-Max 모델(빨강)이 딥시크 V3(파랑)와 Meta의 Llama 3.1 등 다른 모델 대비 뛰어난 결과를 보였다​. 중국의 AI 업계는 이처럼 다양한 모델들의 경쟁을 통해 성능 향상을 거듭하고 있다.

실제 활용 사례를 보면 마누스의 능력이 더욱 실감납니다. 앞서 언급한 여행 계획 외에도 초기 테스터들은 마누스를 이용해 웹사이트를 자동 생성하거나 간단한 비디오 게임을 제작하는 등 창의적인 작업까지 해냈습니다​. AI 기자인 Rowan Cheung은 마누스에게 자기소개 글 작성과 개인 웹사이트 제작을 한번에 요청했는데 몇 분 만에 마누스가 그의 소셜 미디어를 크롤링하여 경력을 요약하고 정갈한 소개 문장을 작성해내더니 심지어 웹 호스팅 설정까지 모두 자체 해결하여 사이트를 출판한 일화도 있습니다. 또한 코드 생성 및 수정 능력도 뛰어나 개발자가 설명만 해주면 필요한 스크립트를 짜고 버그까지 잡아주는 식으로 코딩 업무 자동화에도 활용되고 있습니다. 실제 기업 현장에서도 마누스에 대한 관심이 커서 초기 폐쇄 테스트에 수많은 전문가들이 몰렸고 대기자 명단만 200만 명에 달할 정도로 폭발적 반응을 얻었습니다​.

현재의 한계도 분명합니다. 마누스는 어느 정도 느린 응답 속도를 보이는데 내부적으로 웹 검색 및 여러 도구 호출 등 복잡한 절차를 거치기 때문입니다. 한 테스트에서는 ChatGPT가 1분 만에 끝낼 일을 마누스가 2~3분 넘게 걸리는 경우도 있었고 항상 상세한 답을 주려다 보니 과유불급인 면모도 있습니다​. 일부 사용자들은 마누스가 가끔 루프에 빠져 멈추거나 오작동하는 현상도 보고했으며 완전히 자율적으로 진행하다 보니 가끔은 엉뚱한 방향으로 일을 전개하거나 엇나간 가정을 하는 모습도 관찰되었습니다. 예를 들어 MIT 리뷰에서는 마누스가 작업 의도를 제대로 파악하지 못해 헛수고를 한 사례도 언급되었는데 전반적으로 “유망하지만 아직 완벽하진 않다”는 평가를 받았습니다. 이러한 초기 버그들은 마누스 팀도 인지하고 있어 지속적인 개선을 통해 안정성과 속도를 높이고 있다고 합니다.

마누스는 스스로 멀티 모달 처리나 추론 능력을 높이기보다 필요한 기능을 외부에서 가져와 통합하는 전략을 취하고 있습니다. 예컨대 웹검색 기능은 자체 개발이 아니라 오픈소스 프로젝트인 Browser Use 모듈을 활용하고 있고​ 코드 작성에는 Anthropic사의 클로드(Claude 3.5) 모델 API를 호출하는 식으로 다양한 최신 AI 모델을 조합하고 있습니다​. 이는 마누스가 “단일 LLM”이 아니라 “LLM들의 지휘자” 역할을 하는 시스템임을 잘 보여주는데 덕분에 전략만 잘 짜면 제한 없는 기능 확장이 가능하다는 장점이 있습니다. 마누스 개발사도 최근 알리바바의 Qwen 팀과 전략적 파트너십을 맺어 대규모 최신 모델 활용 및 서비스 확장에 협력하기로 하는 등​ 여러 강력한 모델들을 뒤에서 움직이는 엔진으로 활용하는 모습입니다.

경량화 전략과 기업 활용성

딥시크가 큰 성공을 거둔 비결 중 하나는 방대한 파라미터를 가진 모델을 효율적으로 경량화하여 공개했다는 점입니다. 반면 마누스는 애초에 모델 한 개로 승부하는 방식이 아니다 보니 전통적인 “파라미터 수=성능” 공식에서 좀 벗어나 있습니다. 마누스의 뇌에 해당하는 여러 하위 에이전트들은 알리바바 Qwen-14BAnthropic Claude 3.5 등 각각 수십억, 수백억 규모의 언어모델로 구성되어 있고 이들을 모두 합치면 총 파라미터 수는 단일 LLM보다 훨씬 클 수도 있습니다. 그럼에도 불구하고 특정 시점에 필요한 모듈만 활성화하는 구조이므로 효율적인 자원 활용이 가능하며 작업 종류에 따라 작은 모델로도 대응할 수 있다는 유연성이 있습니다. 예컨대 간단한 데이터 정리는 7B, 70B 모델로 처리하고 복잡한 추론이 필요할 때만 130B 모델을 호출하는 방식입니다. 이는 마누스가 전체 AI 파이프라인을 조율하기 때문에 가능한 최적화입니다.

현재 마누스는 클라우드 서비스 형태로만 제공되고 있어 기업이 직접 온프레미스 환경에 설치하기에는 한계가 있습니다. 즉 경량 버전의 마누스나 단순화된 패키지가 공식적으로 나오지는 않은 상태입니다. 다만 모니카 측은 추후 마누스의 핵심 에이전트 프레임워크를 오픈소스로 공개할 계획을 밝혔으며 실제로 마누스의 아이디어를 본뜬 OpenManus 등 커뮤니티 프로젝트도 등장하여 자체 호스팅이 가능한 대안들을 빠르게 개발하고 있습니다​. 이러한 움직임은 기업 환경에서도 마누스와 유사한 멀티 에이전트 자동화를 구현하고자 하는 수요가 높음을 방증합니다. IBM 등에서도 마누스 등장 후 “엔터프라이즈에 적합한 특화 에이전트가 필요하다”는 언급이 나오기도 했는데 이는 현재 공개된 마누스가 아무래도 데모/POC 성격이 강해 기업 시스템에 바로 통합하기에는 다소 무거운 면이 있기 때문입니다. 향후 경량화된 마누스 에이전트 또는 유사한 오픈 에이전트 기술이 등장한다면 기업 업무 자동화 분야에서도 큰 변화가 일어날 것으로 기대됩니다.

오픈소스 여부 및 커뮤니티 반응

앞서 딥시크는 모델 가중치와 코드 모두 Apache-2.0 등의 라이선스로 공개되어 누구나 무료로 사용할 수 있었던 반면 마누스는 아직까지는 부분적인 오픈소스에 머물러 있습니다. 마누스 자체 서비스는 모니카의 프라이빗 클라우드 환경에서 초대 받은 사용자만 이용 가능하며 핵심 소스 코드도 즉시 공개되진 않았습니다. 이 점에서 순수한 의미의 “오픈소스 LLM”이라고 부르긴 어려울 수 있지만 마누스가 여러 오픈소스 도구와 모델에 의존하여 만들어졌다는 점은 주목할 만합니다. 실제로 마누스 팀은 자사 에이전트에 Claude API를 활용했음을 인정하며 해당 에이전트 프레임워크를 깃허브에 공개할 것이라고 언급했습니다​. 또한 마누스의 돌풍은 오픈소스 커뮤니티에도 자극을 주어 앞서 언급한 OpenManus 프로젝트처럼 개발자들이 공개된 구성요소들을 조합해 대체 구현을 시도하는 움직임도 활발합니다​. 마누스 자체는 아직 완전한 오픈소스는 아니지만 철학은 오픈소스에 기반하고 있고 커뮤니티 역시 이를 열렬히 받아들이는 중인 것입니다.

사용자들의 반응을 살펴보면 흥미로운 대비가 나타납니다. 딥시크가 공개되었을 때 개발자들은 곧바로 모델을 내려받아 이것저것 실험해보며 성능에 감탄을 보냈지만 마누스의 경우 접근성이 제한적이다 보니 인터넷 상에서 주로 간접 체험 후기나 데모 영상에 의존해야 했습니다. 그럼에도 불구하고 “AI가 스스로 코딩해서 웹사이트를 배포했다”는 등의 이야기가 퍼지면서 일반인들 사이에서도 마누스는 순식간에 입소문을 탔고 초대 코드를 수천 달러에 거래하려는 움직임까지 나타났습니다​. 한편으론 “과장된 데모 아니냐”는 회의적인 시각도 있습니다. 일부 개발자는 마누스가 그저 기존 모델들을 랩핑(wrapping)한 수준이라 특별한 돌파구가 아니라는 지적을 했고​ 실제 써본 사람들 사이에서도 “너무 느려서 실용적이지 않다”거나 “간단한 일에도 오버스펙으로 대응한다”는 혹평도 나오고 있습니다​. 마누스에 대한 커뮤니티의 반응은 열광과 의구심이 교차하는 상태이며 이는 새로운 기술이 등장했을 때 자연스러운 검증 과정으로 보입니다.

딥시크 vs 마누스 – 철학과 전략의 비교

이제 딥시크와 마누스를 직접적으로 비교하여 두 프로젝트의 철학과 기술 전략 차이를 정리해보겠습니다

개발 철학: 딥시크는 “저비용 고성능의 개방형 LLM”이라는 철학을 앞세웠습니다. 거대한 모델을 효율화하여 누구나 사용하도록 풀어놓음으로써 생태계를 개척했지요. 반면 마누스는 “모델을 뛰어넘은 자율 행위자”라는 새로운 지향점을 내세웁니다. 즉 AI 자체보다는 AI가 일하는 방식의 혁신을 보여주는 데 초점을 맞추었습니다.

기술 구현: 딥시크는 거대한 단일 모델(최대 670억 파라미터 또는 MoE 6710억 등)을 자체 훈련하며 RLHF(인간 피드백 강화학습) 같은 기법으로 성능을 끌어올렸습니다​. 마누스는 거꾸로 다수 모델의 통합에 집중합니다. 자체 학습보다는 이미 잘 훈련된 여러 모델(예: Claude, Qwen 등)을 오케스트레이션하는 소프트웨어적 혁신을 택한 것입니다. 전자는 모델 아키텍처의 혁신 후자는 에이전트 아키텍처의 혁신이라고 볼 수 있습니다.

오픈소스 전략: 딥시크는 처음부터 완전 개방을 택해 연구자와 개발자 커뮤니티의 지지 기반을 넓혔습니다. 마누스는 점진적 공개를 택하고 있습니다. 초반엔 클로즈 베타로 완성도를 높이고 이후 핵심 기술을 공개/오픈소스로 전환하여 개발자 에코시스템을 형성하려는 전략으로 보입니다​. 이는 서비스 초기 품질 관리와 보안을 중시하는 스타트업 제품 전략과도 관련이 있어 보입니다.

커뮤니티 및 생태계: 딥시크는 오픈모델 공유 덕분에 세계 각지의 개발자들이 직접 벤치마크 비교, 개선 제안, 파생모델 제작 등에 참여하며 폭발적인 커뮤니티 성장을 이루었습니다. 반면 마누스는 접근 장벽 때문에 직접 기여보다는 관찰자 입장의 커뮤니티가 형성되었습니다. 대신 토론은 더 뜨거웠는데 “AGI에 한 걸음 다가갔다”는 기대부터 “실체를 더 두고 봐야” 한다는 신중론까지 다양한 목소리가 나오며 AI 에이전트의 가능성과 한계에 대한 담론을 촉발했습니다​.

사용자 경험: 둘 다 궁극적으로는 생산성 향상을 목표로 하지만 딥시크는 어디까지나 뛰어난 답변을 빠르게 주는 언어 모델입니다. 마누스는 한 발 더 나아가 완료된 작업물을 내놓습니다. 예를 들어 동일한 코딩 과제를 주면 딥시크는 해결 방법과 코드를 제시하지만 마누스는 아예 코드를 실행해보고 결과까지 검증해준다는 차이가 있습니다​. 이로 인해 마누스는 사용자가 느끼기엔 더 주도적이지만 느린 도우미로 딥시크는 신속하지만 수동적인 도우미로 인식될 수 있습니다​.

두 접근 모두 장단점이 분명하며 경쟁이라기보다 서로 다른 방향에서 LLM의 활용도를 확장하는 관계라고 볼 수 있습니다. 재미있게도 톰스가이드의 한 평론가는 “필요할 때만 가끔 쓰고 주력으로 쓰진 않겠다”고 마누스를 평가하면서 여전히 딥시크나 기존 챗봇들을 더 자주 활용하게 될 것이라 했습니다​. 즉 딥시크와 마누스는 상호 대체재라기보다 보완재로 공존할 가능성이 높다는 의견입니다.

결론

딥시크와 마누스의 잇따른 등장은 전세계 AI 생태계가 한두 업체의 독점에서 벗어나 다원화되고 있음을 보여줍니다. 2022년 ChatGPT로 촉발된 생성형 AI 붐 이후 한동안 초거대 언어모델은 소수의 빅테크 기업만이 선도하는 분야처럼 여겨졌습니다. 그러나 중국을 비롯한 글로벌 오픈소스 커뮤니티의 노력으로 이제는 각기 다른 강점을 지닌 LLM들이 속속 등장하고 있습니다. 딥시크는 오픈소스 철학을 바탕으로 “누구나 자체 AI를 가질 수 있다”는 가능성을 현실로 만들었고 마누스는 한 발 더 나아가 “AI가 직접 행동한다”는 새로운 패러다임을 제시했습니다. 이외에도 알리바바의 Qwen 홍콩대의 Phoenix 등 다양한 프로젝트들이 저마다 특화된 영역에서 최고 성능을 노리며 경쟁하고 있습니다. 그 결과 AI 생태계는 건강한 혁신 경쟁이 이루어지고 사용자들은 풍부한 선택지를 얻고 있습니다.

물론 해결해야 할 과제들도 남아 있습니다. 완전 자율 에이전트가 일으킬 윤리적 문제, 오픈소스 모델의 안전성 검증 이슈 그리고 상용 서비스로서의 비즈니스 모델 정립 등 여러 과제들이 존재합니다. 하지만 이러한 도전 또한 여러 주체가 참여하는 다양한 시도들 속에서 해법이 모색될 것입니다. “딥시크만 있는 것이 아니다”라는 메시지는 AI 혁신이 이제 특정 기업이나 국가에 국한되지 않고 전방위적으로 전개되고 있음을 의미합니다. 앞으로도 더 많은 “제3, 제4의 딥시크”들이 등장하여 우리에게 놀라움을 선사할 것입니다.

마지막으로 개발자와 일반 이용자 모두에게 중요한 점은 다원화된 LLM 세계에서 각자의 필요에 맞는 도구를 선택할 수 있게 되었다는 것입니다. 가벼운 로컬 실행이 필요하면 딥시크 계열 모델을 복잡한 작업 자동화가 필요하면 마누스 같은 에이전트를 고려하는 식입니다. 경쟁과 협력을 통해 성장하는 오픈소스 LLM 생태계의 흐름을 지켜보면서 앞으로 우리가 누리게 될 AI 혁신의 혜택이 더욱 커지길 기대해보면 좋을 것 같습니다.

References

  • https://m.radiokorea.com/news/article.php?uid=465145#:~:text=%EB%B0%94%EC%9D%B4%EB%91%90%EB%8A%94%202022%EB%85%84%20%EC%B1%97GPT%EA%B0%80%20%EC%84%B8%EC%83%81%EC%9D%84%20%EB%86%80%EB%9D%BC%EA%B2%8C,%EC%9D%B4%ED%9B%84%20AI%20%EB%B6%84%EC%95%BC%EC%97%90%20%EA%B3%B5%EA%B2%A9%EC%A0%81%EC%9C%BC%EB%A1%9C%20%ED%88%AC%EC%9E%90%ED%95%B4%EC%99%94%EB%8B%A4
  • https://brunch.co.kr/@acc9b16b9f0f430/137#:~:text=%EC%B5%9C%EA%B7%BC%20AI%20%EC%97%85%EA%B3%84%EC%97%90%EC%84%9C%20%EA%B0%80%EC%9E%A5%20%EB%9C%A8%EA%B1%B0%EC%9A%B4,%EB%8B%A8%EA%B3%84%20%EB%81%8C%EC%96%B4%EC%98%AC%EB%A6%B0%20%EC%82%AC%EB%A1%80%EB%A1%9C%20%ED%8F%89%EA%B0%80%EB%B0%9B%EA%B3%A0%20%EC%9E%88%EC%8A%B5%EB%8B%88%EB%8B%A4
  • https://arxiv.org/abs/2101.03961
  • https://zdnet.co.kr/view/?no=20250310101019#:~:text=2023%EB%85%84%20%ED%9B%84%EB%B0%98%20%EC%98%A4%ED%94%88AI%20GPT,%EC%9E%88%EB%8B%A4%EB%8A%94%20%EC%B2%AB%20%EB%B2%88%EC%A7%B8%20%EA%B0%80%EC%8B%9C%EC%A0%81%20%EC%8B%A0%ED%98%B8%EC%98%80%EB%8B%A4
  • https://www.livescience.com/technology/artificial-intelligence/chinas-manus-ai-agent-could-be-our-1st-glimpse-at-artificial-general-intelligence
  • https://www.geeksforgeeks.org/manus-ai-new-general-ai-agent/
  • https://rwandatechnews.com/autonomous-ai-agent-manus/#:~:text=Manus%20is%20far%20more%20than,across%20industries%20without%20human%20intervention
  • https://www.theregister.com/2025/01/30/alibaba_qwen_ai/
  • https://www.ibm.com/think/news/week-of-manus-new-deepseek#:~:text=Seven%20days%20after%20launch%2C%20the,media%20for%20thousands%20of%20dollars
  • https://www.tomsguide.com/ai/i-just-tested-manus-vs-chatgpt-with-5-prompts-heres-the-winner#:~:text=Manus%20is%20the%20winner%20here%2C,when%20to%20give%20an%20overview

댓글 달기

이메일 주소는 공개되지 않습니다. 필수 항목은 *(으)로 표시합니다