Cover Story
그래픽=추덕영 한국경제신문 기자
그래픽=추덕영 한국경제신문 기자
중국 기업이 개발한 인공지능(AI) 모델 ‘딥시크(DeepSeek) R1’이 전 세계를 강타하고 있습니다. 개발 비용이 미국 기업의 10분의 1밖에 되지 않는데, 성능은 챗GPT에 필적한다는 결과가 나와서죠. AI 과다 투자 우려를 낳던 미국 빅테크 주가가 큰 폭으로 떨어지고, 우리나라 반도체 기업 주가도 급락했습니다. 일반인의 관심도 높아져 애플 등의 앱스토어에서 딥시크가 챗GPT를 제치고 무료 다운로드 앱 1위에 오르기도 했죠.

평가하기 이르다는 신중론도 있지만, 미국 기술기업들은 난리가 아닙니다. 미국의 유명 벤처투자자는 1957년 옛 소련이 인공위성을 세계 최초로 쏘아 올리면서 미국에 충격을 던진 ‘스푸트니크 모멘트’가 연상된다고 했습니다. 메타는 딥시크의 관련 기술을 분석하는 비상작전실(워룸)을 만들었어요. 사티아 나델라 마이크로소프트 최고경영자는 “중국의 발전을 매우 심각하게 받아들여야 한다”고 했죠. AI 패권 경쟁에서 중국에 덜미를 잡힐 수 있다는 위기감에 미국 정치권도 긴장하고 있습니다. 도널드 트럼프 미국 대통령은 미국 기업에게 ‘웨이크업 콜(경종)‘이 될 것이라며 애써 긍정적으로 평가했습니다.

일반인과 학생들도 딥시크의 출현에 주목해야 할 이유가 있습니다. AI의 미래, 결국 인류의 미래를 바꿔놓는 변곡점이 될 수 있기 때문이죠. 이어지는 4면에서 AI에 대한 이해를 다시 다지고, 5면에서는 딥시크에 관심을 가져야 할 주된 이유를 살펴보겠습니다.'인간 뇌' 복제판 만드는 인공지능
"중국도 있다"…총성 울린 AI 전쟁
사진=게티이미지뱅크
사진=게티이미지뱅크
연일 전해지는 ‘딥시크(DeepSeek) 쇼크’ 뉴스는 챗GPT를 넘어선 인공지능(AI) 전반에 대한 관심으로 이어지고 있습니다. 기초가 튼튼해야 첨단기술에 대한 이해도를 높일 수 있겠죠?

딥러닝과 파라미터의 이해

AI는 말 그대로 인간의 지능을 모방한 결과물입니다. 지능은 ‘뇌’라는 인체 기관에서 발생하는 것이지요. 즉 AI는 인간의 뇌를 ‘수학적으로’ 다시 구현해낸 겁니다. 뇌에는 100조 개의 신경세포(뉴런)가 있고, 이 뉴런이 서로 연결돼 작동합니다. 그 작동 방식을 정보의 입력과 출력으로 바꾸고, 수학적 프로그램으로 표현한 게 컴퓨터입니다. AI는 이런 컴퓨터 시스템을 이용해 인간의 지적인 작업을 모방하고 과제를 수행하도록 한 겁니다.

초기 AI는 인간의 전문 지식을 갖고 미리 정의된 규칙에 따라 단순하고 반복적인 작업을 했습니다. 이때 AI를 학습시킨 방법이 머신러닝(machine learning)입니다. 이는 사람이 분별하기 어려운 패턴, 확률적 분포 등을 컴퓨터가 발견하고 학습해 인간의 의사결정을 돕는 것이었죠. 여기서 한 걸음 더 나아간 게 딥러닝(deep learning)입니다. 사람의 신경계 구조와 비슷하게 만든 인공신경망을 기반으로 AI를 학습시켜 더욱 복잡하고 심층적인 정보를 처리할 수 있게 한 겁니다. 여기서 파라미터(매개변수)라는 개념이 나옵니다. 인간 뇌의 뉴런에는 수많은 가지가 달려 있는데, 이 가지들을 연결해주는 부위가 바로 시냅스입니다. AI는 시냅스와 같은 기능을 담당하는 파라미터를 갖고 있습니다. 이게 많으면 많을수록 복잡한 연산이 가능해집니다. 최첨단 생성형 AI는 파라미터 수가 무려 1조8000억 개에 달합니다.

‘인간 수준 AI’로 가는 길

AI는 처음엔 바둑 대국을 위해 2016년에 개발된 알파고처럼 제한 범위 안에서 특화된 문제를 풀도록 만들어졌습니다. 말하자면 ‘좁은 AI(Narrow AI)’이지요. 이 수준에선 언어 이해, 이미지 분류, 음성인식, 자율주행, 수요 예측 등 고차원적 일은 하기 어렵습니다. AI 기술은 이를 뛰어넘어 인간이 하던 지적인 작업까지 수행하는 초지능, 범용 AI(Artificial General Intelligence, AGI)로 발전하고 있습니다.

지금 유행하는 생성형 AI는 ‘좁은 AI’에서 AGI로 가는 중간 정도 단계라고 보면 됩니다. 생성형 AI는 사람이 질문 내용을 입력하면 AI가 최적의 답을 만들어낸다(생성한다, Generate)는 뜻에서 붙은 이름입니다. 대표적인 생성형 AI로는 오픈AI가 2022년에 선보인 챗GPT가 있습니다. 생성형 AI는 사람과 대화를 나누듯 일을 하기 때문에 대규모언어모델(Large Language Model)을 이용해 훈련시킵니다. 챗GPT는 ‘GPT-4’까지 진화했고요, 오픈AI는 추론 능력이 더욱 향상된 ‘o1’도 선보였습니다.

딥시크 vs 챗GPT

그러면 생성형 AI의 대명사 챗GPT와 딥시크는 어떤 점에서 다를까요? 먼저 챗GPT는 클라우드 서버를 쓰기 때문에 인터넷에 연결만 되면 쉽게 이용할 수 있습니다. 반면 딥시크는 인터넷 연결 없이 사용자의 컴퓨터에서 독립적으로 AI를 실행시킬 수 있습니다. 무료로 제공되는 프로그램(오픈소스 프로그램)을 미리 내려받으면 됩니다. 응답 속도는 조금 느릴 수 있지만, 오프라인 상태에서도 AI를 작동시킬 수 있다는 점에서 유리합니다.

다음으로 챗GPT를 포함한 일반적인 AI 모델은 사전에 학습된 데이터를 바탕으로 답을 하기 때문에 최신 정보를 반영하는 데 한계가 있습니다. 그러나 딥시크는 실시간 검색 기능을 활용해 최신 뉴스와 금융 정보, 트렌드 등을 즉각 반영합니다. 또 챗GPT는 버전 3.5는 무료, 버전 4는 유료인데요, 딥시크는 무료로 사용 가능합니다.

기능적으로 보면 챗GPT는 풍부한 설명, 창의적 답변이 장점입니다. 그래서 글쓰기와 창작, 대화형 서비스에 맞습니다. 반면 딥시크는 논리적 문제 해결에 강합니다. 코딩이나 수학 문제 풀이를 할 때 정확하고 간결한 답변을 제공합니다. 코딩 기능을 이용해 직접 게임도 만들 수도 있죠.NIE 포인트1. 인공지능(AI)의 작동원리에 대해 이해를 한 뒤, 친구들 앞에서 발표해보자.

2. 범용AI, 인공일반지능이라 불리는 AGI의 개념을 더 공부해보자.

3. AI가 인류 역사에 출현한 뒤, 현재까지 어떻게 발전해왔는지 알아보자.기계가 스스로 답 찾는 '강화학습'
AI의 '스푸트니크 순간' 재현할까
한경DB
한경DB
중국 AI 모델 딥시크(DeepSeek) 공개 과정에서 가장 눈길을 끈 부분은 ‘스푸트니크 모멘트(순간)’ 비유였습니다. 미국과 옛 소련의 체제 및 군사기술 경쟁이 벌어지던 1957년, 소련이 세계 최초의 인공위성 스푸트니크 발사에 성공했고, 그 위성이 미국 상공을 네 번이나 가로지른 사실에 미국민은 경악했습니다. 그때부터 미국은 로켓과 우주기술 개발에 국가 자원을 총동원했고, 이는 1969년 아폴로11호의 달 착륙 성공으로 이어졌습니다. 스푸트니크 모멘트는 두려움과 놀라움이 연발되는 순간이자, 새로운 인류 기술발전의 서막이라고 볼 수 있습니다.

‘21세기판 스푸트니크’ 딥시크

딥시크 출현이 얼마나 대단하길래 스푸트니크 모멘트에 비유됐는지 살펴볼까요? 한마디로 말하면, 기대하지 않았던 저비용 고성능 AI가 출현했기 때문입니다. 우리 돈으로 80억원가량 들인 딥시크가 1400억원 정도 투자한 챗GPT를 능가한다는 사실은 놀랍습니다. ‘가성비 갑’의 비결은 개당 4만 달러가 넘는 초고가 엔비디아 H100칩 대신 사용한, 중국 수출 규제에 걸리지 않는 낮은 사양의 H800칩과 중국 화웨이가 생산한 값싼 어센드 칩에 있습니다. 뚜껑을 열어보니 성능도 훌륭했습니다. 미국 수학경시대회인 AIME 2024의 풀이 정확도 테스트에서 딥시크 R1은 정확도 79.8%로, 챗GPT 최신 모델(o1)이 기록한 79.2%를 앞질렀죠.

알파고의 충격 재현

이번엔 중국 AI 모델이 ‘21세기판 스푸트니크’가 된 셈인데요, 무엇이 이런 성공을 가능하게 했을까요? 전문가들은 ‘강화 학습(Reinforcement Learning)’의 놀라운 잠재력에 주목해야 한다고 지적합니다. 챗GPT 같은 대규모언어모델(LLM) 기반의 AI는 사람이 데이터를 만들어 학습시키는 훈련방식을 주로 택합니다. 그런데 딥시크는 인간의 프로그래밍이나 구체적인 지시 없이 스스로 시행착오를 겪으며 답을 찾아내는 강화 학습으로 훈련시켰습니다.

강화 학습의 잠재력은 2016년 프로 바둑기사 이세돌과 대국을 벌인 알파고 모델에서 처음 인정받았습니다. 당시 알파고는 37번째 수에서 인간 기사라면 절대 두지 않았을 수를 보여주었습니다. 정석이 아니어서 바둑 전문가들도 “실수인 줄 알았다”고 한 수입니다. 이 기사도 12분 장고한 뒤에야 다음 수를 둘 수 있었는데요, 나중에 그는 “바둑의 아름다움을 잘 표현한 굉장히 창의적인 수였다”고 말했습니다.

알파고의 이 37번째 수가 대규모 강화 학습을 통해 기계 스스로 놀라운 답을 찾아낸 사례입니다. 딥시크 모델 R1도 같은 원리로 훈련시켰고, 최종 성능에서 기존 생성형 AI를 능가하는 결과가 나왔습니다. 물론 다른 성공 요인도 있습니다. 모든 것을 알도록 학습시키는 기존 거대 AI에 비해 딥시크는 필요할 때 전문가들을 호출해 답을 구하는 시스템을 만들었습니다. 그래서 기존 모델은 1.8조 개 파라미터를 활성화해 답을 찾는 데 비해 딥시크는 그의 2%에 불과한 370억 개의 파라미터만 활성화해도 되는 것이죠. AI 승부에서 이기려면 더 많은 AI 반도체를 써야 한다는 게 공식처럼 돼 있었는데 그걸 깨버렸습니다. 그래서 AI 기술에 파괴적 혁신이 일어났다는 평가를 받는 겁니다.

AI 대중화의 변곡점 될까?

아직 딥시크에 대한 의혹의 시선은 있습니다. 중국에 대한 불신 때문인지, 개발 비용이 지나치게 축소 발표됐다는 의심이 대표적입니다. 또 검색을 하면 사용하는 언어에 따라 다른 답이 나와 객관성이 떨어진다는 지적도 있어요. 개인정보를 무작위로 수집하는 데이터 보안 문제도 있습니다. 그러나 총평은 ‘그럼에도 놀랍다’는 겁니다. 팻 겔싱어 전 인텔 최고경영자(CEO)는 SNS를 통해 “딥시크는 컴퓨팅 역사에서 얻은 중요한 교훈을 떠올리게 한다. 컴퓨팅을 획기적으로 저렴하게 만들면 컴퓨팅 시장이 확대되고 AI는 더 광범위하게 배포될 것”이라고 말했습니다. AI 기술 대중화를 앞당기는 변곡점이 될 거란 얘기입니다.NIE 포인트1. 인공지능 훈련 방법인 강화학습(RL)과 지도미세조정(SFT)의 개념을 비교해보자.

2. AI의 창의성이 인간의 수준을 뛰어넘을 수 있을지 생각해보자.

3. 오픈소스 코드가 인류 기술발전에 기여한 사례를 찾아보자.

장규호 한경 경제교육연구소 연구위원 danielc@hankyung.com