반응형

최근 중국 AI 스타트업 딥시크(DeepSeek)가 공개한 초대규모 언어 모델이 화제다. 이 모델은 GPT-4를 넘어서는 성능을 보이며 글로벌 AI 경쟁에서 중국의 존재감을 다시 한번 각인시켰다. 하지만 이 기술적 돌파구는 미국 주도의 AI 칩 및 반도체 수출 규제와 맞부딪히며 복잡한 국제적 이슈로 번지고 있다. 첨단 기술의 발전과 국가 간 경쟁, 규제의 역학 관계가 한데 얽히는 현장을 들여다보자.


1. 딥시크 모델: 중국 AI의 새로운 도약

딥시크는 중국 내에서도 주목받는 AI 스타트업으로, 최근 공개한 언어 모델 DeepSeek-R1이 벤치마크 테스트에서 GPT-4 Turbo를 앞섰다는 평가를 받았다. 특히 논리적 추론과 다단계 문제 해결 능력에서 두각을 나타내며, 단순히 모방을 넘어 창의성과 효율성을 동시에 잡은 모델로 평가받고 있다.

흥미로운 점은 이 모델이 비교적 적은 컴퓨팅 자원으로 훈련됐다는 사실이다. 기존 대형 언어 모델(LLM)이 수만 개의 GPU와 막대한 전력을 소모하는 것과 달리, 딥시크는 알고리즘 최적화와 데이터 효율성 개선을 통해 자원 소모를 크게 줄였다. 이는 중국이 미국의 고성능 AI 칩 수출 제한 조치에도 불구하고 독자적인 기술 역량을 키우고 있음을 보여주는 사례다.


2. 수출 규제의 그림: 왜 AI 칩이 문제인가?

2022년 10월, 미국은 중국의 AI 및 슈퍼컴퓨팅 발전을 견제하기 위해 고성능 반도체 수출 규제를 강화했다. 엔비디아의 A100/H100 칩과 같은 제품들이 대표적 타깃이다. 이 칩들은 대규모 AI 모델 훈련에 필수적이며, 미국 정부는 이를 통해 중국의 군사·첩보 분야 AI 활용을 차단하려 했다.

하지만 이 규제는 예상치 못한 결과를 낳았다. 중국 기업들이 규제 대상 칩의 성능 한계 아래서도 효율적인 모델을 개발하는 방법을 빠르게 터득한 것이다. 딥시크는 적은 수의 GPU로도 고성능 모델을 만들기 위해 양자화(Quantization) 기술을 활용했다. 이는 고정밀도 계산을 저정밀도로 단순화해 자원 소모를 줄이는 기법으로, 하드웨어 제한을 소프트웨어 혁신으로 돌파한 사례다.


3. 기술적 독립 vs. 글로벌 협력: AI 경쟁의 양면성

딥시크의 성과는 중국의 기술 자립화 전략이 단순히 정치적 선전을 넘어 실제 성과로 이어지고 있음을 시사한다. 하지만 동시에 이는 글로벌 AI 생태계의 분열을 가속할 위험도 내포한다. 미국과 중국이 각자 독자적인 기술 표준과 공급망을 구축하면, AI 연구의 협력은 위축되고 중복 투자가 늘어날 수 있다.

반면 일각에서는 경쟁이 오히려 혁신을 촉진한다는 관점도 있다. 예를 들어, 미국의 수출 규제가 없었다면 중국 기업들이 자체적인 알고리즘 효율화에 집중하지 않았을 것이라는 분석이다. 이는 과거 소련의 스푸트니크 쇼크 이후 미국이 우주 기술에서 도약한 사례와 유사한 구도다.


4. 규제의 한계: 기술 발전 속도를 막을 수 있는가?

수출 통제 정책의 근본적 딜레마는 "기술 발전의 속도가 규제 프레임워크보다 빠르다"는 점이다. 딥시크 사례에서 볼 수 있듯, 하드웨어의 물리적 제약은 소프트웨어 혁신으로 상쇄될 수 있다. 게다가 중국은 자체 AI 칩 개발에 박차를 가하고 있다. 중국과학원이 2023년 공개한 '다윈 시리즈' 칩은 엔비디아 제품 대체를 목표로 하는 프로젝트 중 하나다.

더욱이 AI 모델의 효율성 증가는 궁극적으로 슈퍼컴퓨팅에 대한 의존도를 낮출 전망이다. 구글의 제프리 딘(Jeffrey Dean)은 2020년 논문에서 "알고리즘 개선이 2012년 이후 AI 성능 향상의 70% 이상을 차지했다"고 지적한 바 있다. 이는 단순히 칩 성능만으로 AI 경쟁력을 판단할 수 없음을 시사한다.


5. 글로벌 AI 경쟁의 미래: 상호의존성과 리스크

미중 기술 전쟁의 최전선에 선 AI 분야는 '상호의존적 경쟁(Mutually Dependent Competition)'의 양상을 띤다. 미국이 AI 칩 설계에서 우위를 점하는 반면, 중국은 데이터 규모와 적용 사례에서 강점을 보인다. 딥시크 모델도 위챗, 틱톡 등 중국 플랫폼의 방대한 사용자 데이터를 기반으로 진화했다.

문제는 이러한 분열이 AI 안전(AI Safety) 분야의 협력을 저해할 수 있다는 점이다. 예를 들어, AI의 부작용을 통제하기 위한 국제적 노력은 기술 블록화로 인해 지연될 수 있다. 2023년 11월 영국에서 개최된 'AI 안전 정상회의'에서 미국과 중국이 공동 선언에 서명한 것은 긍정적 신호였지만, 실질적 협력까지 이어지기에는 아직 걸림돌이 많다.


6. 시사점: 기술 패권 재편 시대의 생존 전략

딥시크 사례가 주는 교훈은 명확하다. "규제는 단기적 장벽일 뿐, 장기적 혁신을 막을 수 없다"는 점이다. 국가와 기업은 두 가지 전략을 고려해야 한다.

첫째, 개방형 혁신(Open Innovation)이다. 미국의 규제가 중국의 자립화를 촉진한 것처럼, 폐쇄적 접근은 역효과를 낳는다. 반도체 분야에서도 ASML의 극자외선(EUV) 기술은 전 세계 협력 네트워크 없이는 탄생할 수 없었다.

둘째, '소프트웨어 최적화'에 대한 투자다. 향후 5년 내 AI 경쟁력은 하드웨어 성능보다 알고리즘 효율성에서 결정될 가능성이 높다. 메타의 LLAMA 모델이 오픈소스로 공개되며 글로벌 참여를 이끈 것처럼, 협력적 접근이 기술 발전 속도를 높일 것이다.


맺음말: 인간을 위한 AI, 경계를 넘어

AI 기술은 본질적으로 국경을 초월한다. 딥시크 모델이 미국의 규제를 뛰어넘어 발전한 것처럼, 인류 공동의 과제인 기후 변화, 의료 혁신, 교육 접근성 개선 등을 위해 AI는 경쟁이 아닌 협력의 도구로 활용되어야 한다. 기술 패권 다툼 속에서도 '인간 중심'의 가치를 상기할 때, 진정한 의미의 AI 혁명이 완성될 것이다.

반응형
반응형

지난 포스팅에서 Deepseek-R1 을 Local에서 실행하는 방법(LINK)을 알려줬는데요, 이번에는 LLM model을 쉽고 간편하게 관리하는 방법을 알려드릴게요. ollama만으로는 기존 채팅 이력을 찾기도 힘들고, 모델을 관리하기도 힘들 거에요. 기존 채팅 이력이나, 모델을 관리하는 데는 OpenWebUI 라는 프로그램을 쓰면 아주 편리하답니다. 설치하는 방법은 어렵지 않습니다. 아래 방법대로 따라오세요!

 


STEP 1. Docker 설치

Docker 사이트(LINK)에 접속해서, 'Download Docker Desktop'을 클릭하고, 운영체제에 맞는 설치 파일을 다운로드하고 설치해 주세요. 

 

아래처럼 Docker 프로그램이 실행되면 정상적으로 설치된 것입니다. 저는 open-webui까지 미리 세팅해 놓아서 Containters에 보이는데 원래는 아무것도 없는 것이 정상입니다.

 

STEP 2. OpenWebUI 설치하기

github 페이지를 통해서 OpenWebUI를 설치할 겁니다. 이 LINK에서 밑으로 쭉 내려가면 아래처럼 Installation 방법이 있는데 저희는 ollama가 설치되어 있기 때문에 첫 번째 방법으로 진행할 겁니다. 오른쪽의 복사 버튼을 누르시고, 명령 프롬프트를 열어서 복사한 code를 붙여 넣고 실행해주세요.

 

이후에 자동으로 설치가 진행될 텐데, 저는 이미 설치를 진행했기 때문에, 아래 화면처럼 나오네요. 처음 설치하신다면 완료될 때 까지 기다려 주시면 됩니다.

 

STEP 3. OpenWebUI 실행하기

다시 docker로 되돌아가면 아래처럼 Containers에 OpenWebUI가 생겼을 텐데 Port에서 '3000:8080'을 클릭하면 아래처럼  새로운 브라우저 창이 뜨면서 OpenWebUI가 실행됩니다.

 

이제 끝이 다 왔습니다. 새로운 페이지가 뜨면 회원가입도 해주시고, 로그인까지 하면 ChatGPT와 매우 유사한 인터페이스가 보입니다. 실제 사용 방법도 유사합니다. 왼쪽에선 기존 채팅 이력을 볼 수 있고, 위쪽에서는 LLM model을 선택하고, 가운데에서 채팅을 진행하면 됩니다. 테스트로 deepseek-r1(14b)와 대화를 나눠봤는데 정상적으로 실행되네요.

 

FINAL. 마무리

사용하면서 느낀 거지만 local로 LLM을 돌리기 위해선 컴퓨터 사양이 매우 중요한 것 같습니다. 제 컴퓨터 사양이 그렇게 좋지 못하여, 14b model 쓰면 답변에 30~60초 가량 걸려 좀 답답하더라고요. 그렇다고 더 낮은 model을 쓰기엔 답변이 맘에 들지 않고 참 난감합니다. 이번에 5000번 대 그래픽카드가 나온다고 하는데, 한 번 업그레이드를 고려해 봐야겠습니다.

반응형
반응형

이번에 Deepseek사에서 R1이라는 새로운 추론형 모델을 공개했는데, 아주 핫합니다.

추론형 모델인데 성능이 OpenAI의 추론형 모델인 O1에 밀리지 않고, 가장 중요한 건 오픈소스에 무료로 사용 가능하다는 것이지요.

 

deepseek-r1을 이용하는 방법으로 온라인/오프라인 두 가지가 있는데, 온라인으로 사용하는 건 간단합니다. Deepseek 사이트(LINK)에서 바로 회원가입 후 이용할 수 있습니다. 오프라인으로는 오픈소스를 다운받아 설치 후 간단하게 이용할 수 있습니다. 굳이 왜 번거롭게 local로 사용하냐고 생각할 수 있지만, 몇 가지 장점이 있습니다.

1. 개인 LOCAL 서버/PC에서 실행하여 개인정보 보호

2. API 호출 비용이 없어 장기적 비용 절감(하지만 초기 하드웨어엔 투자 필요..)

3. 모델 수정/최적화 자유로워 개인 업무에 맞게 파인튜닝 가능

 

개인 사용자라면 컴퓨터 사양이 좋아야겠지만, 성능만 괜찮다면 개인정보도 보호할 수 있고, 용도에 맞게 튜닝할 수 있기 때문에 충분히 해볼 만한 가치가 있습니다. Local 설치하는 방법은 어렵지 않은데 아래 방법대로 따라와 주시면 됩니다!


 

STEP 1. Ollama 설치

아래 링크에서 Ollama를 설치해 주세요. (LINK)

회원가입 없이 Download 하여 Install 하면 됩니다.

 

Ollama

Get up and running with large language models.

ollama.com

 

 

STEP 2. Deepseek-R1 설치

Ollama 사이트도 돌아가서 'deepseek-r1' 을 검색하여 클릭하고, 원하는 용량을 선택하세요.

테스트 용도로는 1.5b가 적당하고, 실제로 사용하려면 8b 이상을 추천해 드립니다.

본인 컴퓨터 사양에 맞게 고르고 옆의 코드를 복사합니다. (1.5b라면 'ollama run deepseek:r1:1.5b')

프톰프트 창을 실행하여 복사한 텍스트를 넣어 실행하면 자동으로 다운로드 됩니다.

 

STEP 3. 끝! Deepseek-R1과 대화

download가 끝나면 자동으로 실행이 되고, 마음껏 대화하면 됩니다.

저는 1.5b, 8b를 두 가지 모두 설치해 봤는데, 1.5b는 한국어를 이해는 하나 정상적으로 답변을 하지 못하여 8b와 대화를 하였습니다. 처음엔 영어로 답변하였는데, 한국어로 답변해달라고 요청하니 이후 질문에 대해서는 한국어로 답변해 주더라구요. 문법은 약간 어색하지만, 중간에 <think>로 되어 있는 추론하는 과정이 흥미롭네요. deepseek가 실제로 어떻게 생각하고 답변하는 알 수 있고, 이를 활용하면 더 model을 잘 활용할 수 있을 것으로 보입니다.

 

 

 

 

반응형

+ Recent posts