Three Valuable Lessons About Deepseek That you'll Always Remember
DeepSeek-V2는 위에서 설명한 혁신적인 MoE 기법과 더불어 DeepSeek 연구진이 고안한 MLA (Multi-Head Latent Attention)라는 구조를 결합한 트랜스포머 아키텍처를 사용하는 최첨단 언어 모델입니다. 대부분의 오픈소스 비전-언어 모델이 ‘Instruction Tuning’에 집중하는 것과 달리, 시각-언어데이터를 활용해서 Pretraining (사전 훈련)에 더 많은 자원을 투입하고, 고해상도/저해상도 이미지를 처리하는 두 개의 비전 인코더를 사용하는 하이브리드 비전 인코더 (Hybrid Vision Encoder) 구조를 도입해서 성능과 효율성의 차별화를 꾀했습니다. DeepSeekMoE는 각 전문가를 더 작고, 더 집중된 기능을 하는 부분들로 세분화합니다. 그리고 2024년 3월 말, DeepSeek site는 비전 모델에 도전해서 고품질의 비전-언어 이해를 하는 모델 DeepSeek-VL을 출시했습니다. ‘DeepSeek’은 오늘 이야기할 생성형 AI 모델 패밀리의 이름이자 이 모델을 만들고 있는 스타트업의 이름이기도 합니다. 허깅페이스 기준으로 지금까지 DeepSeek이 출시한 모델이 48개인데, 2023년 DeepSeek과 비슷한 시기에 설립된 미스트랄AI가 총 15개의 모델을 내놓았고, 2019년에 설립된 독일의 알레프 알파가 6개 모델을 내놓았거든요. DeepSeek 모델은 처음 2023년 하반기에 출시된 후에 빠르게 AI 커뮤니티의 많은 관심을 받으면서 유명세를 탄 편이라고 할 수 있는데요. AI 학계와 업계를 선도하는 미국의 그늘에 가려 아주 큰 관심을 받지는 못하고 있는 것으로 보이지만, 분명한 것은 생성형 AI의 혁신에 중국도 강력한 연구와 스타트업 생태계를 바탕으로 그 역할을 계속해서 확대하고 있고, 특히 중국의 연구자, 개발자, 그리고 스타트업들은 ‘나름의’ 어려운 환경에도 불구하고, ‘모방하는 중국’이라는 통념에 도전하고 있다는 겁니다.
중국 AI 스타트업 DeepSeek이 GPT-4를 넘어서는 오픈소스 AI 모델을 개발해 많은 관심을 받고 있습니다. 역시 중국의 스타트업인 이 DeepSeek의 기술 혁신은 실리콘 밸리에서도 주목을 받고 있습니다. 특히 DeepSeek-Coder-V2 모델은 코딩 분야에서 최고의 성능과 비용 경쟁력으로 개발자들의 주목을 받고 있습니다. 그 이후 2024년 5월부터는 DeepSeek-V2와 DeepSeek-Coder-V2 모델의 개발, 성공적인 출시가 이어집니다. 자, 이렇게 창업한지 겨우 반년 남짓한 기간동안 스타트업 DeepSeek가 숨가쁘게 달려온 모델 개발, 출시, 개선의 역사(?)를 흝어봤는데요. 처음에는 Llama 2를 기반으로 다양한 벤치마크에서 주요 모델들을 고르게 앞서나가겠다는 목표로 모델을 개발, 개선하기 시작했습니다. 이렇게 한 번 고르게 높은 성능을 보이는 모델로 기반을 만들어놓은 후, 아주 빠르게 새로운 모델, 개선된 버전을 내놓기 시작했습니다. 이렇게 ‘준수한’ 성능을 보여주기는 했지만, 다른 모델들과 마찬가지로 ‘연산의 효율성 (Computational Efficiency)’이라든가’ 확장성 (Scalability)’라는 측면에서는 여전히 문제가 있었죠. 이렇게 하면 불필요한 계산에 자원을 낭비하지 않으니 효율이 높아지죠. 그래서, DeepSeek 팀은 이런 근본적인 문제들을 해결하기 위한 자기들만의 접근법, 전략을 개발하면서 혁신을 한층 가속화하기 시작합니다. 이런 두 가지의 기법을 기반으로, DeepSeekMoE는 모델의 효율성을 한층 개선, 특히 대규모의 데이터셋을 처리할 때 다른 MoE 모델보다도 더 좋은 성능을 달성할 수 있습니다. DeepSeek 연구진이 고안한 이런 독자적이고 혁신적인 접근법들을 결합해서, DeepSeek-V2가 다른 오픈소스 모델들을 앞서는 높은 성능과 효율성을 달성할 수 있게 되었습니다. 이 Lean four 환경에서 각종 정리의 증명을 하는데 사용할 수 있는 최신 오픈소스 모델이 DeepSeek-Prover-V1.5입니다.
DeepSeek site 모델 패밀리는, 특히 오픈소스 기반의 LLM 분야의 관점에서 흥미로운 사례라고 할 수 있습니다. 두 모델 모두 DeepSeekMoE에서 시도했던, DeepSeek만의 업그레이드된 MoE 방식을 기반으로 구축되었는데요. 먼저 기본적인 MoE (Mixture of Experts) 아키텍처를 생각해 보죠. 1: MoE (Mixture of Experts) 아키텍처란 무엇인가? Many business consultants believed that DeepSeek’s decrease training prices would compromise its effectiveness, however the model’s results tell a different story. Nigel Powell is an writer, columnist, and consultant with over 30 years of experience within the expertise industry. Could China’s AI business become self-adequate? 이 회사의 소개를 보면, ‘Making AGI a Reality’, ‘Unravel the Mystery of AGI with Curiosity’, ‘Answer the Essential Question with Long-termism’과 같은 표현들이 있는데요. AI 커뮤니티의 관심은 - 어찌보면 당연하게도 - Llama나 Mistral 같은 모델에 집중될 수 밖에 없지만, DeepSeek이라는 스타트업 자체, 이 회사의 연구 방향과 출시하는 모델의 흐름은 한 번 살펴볼 만한 중요한 대상이라고 생각합니다. Moonshot AI 같은 중국의 생성형 AI 유니콘을 이전에 튜링 포스트 코리아에서도 소개한 적이 있는데요. DeepSeekMoE는 LLM이 복잡한 작업을 더 잘 처리할 수 있도록 위와 같은 문제를 개선하는 방향으로 설계된 MoE의 고도화된 버전이라고 할 수 있습니다. DeepSeek-V2에서 도입한 MLA라는 구조는 이 어텐션 메커니즘을 변형해서 KV 캐시를 아주 작게 압축할 수 있게 한 거고, 그 결과 모델이 정확성을 유지하면서도 정보를 훨씬 빠르게, 더 적은 메모리를 가지고 처리할 수 있게 되는 거죠.
DeepSeekMoE 아키텍처는 DeepSeek의 가장 강력한 모델이라고 할 수 있는 DeepSeek V2와 DeepSeek-Coder-V2을 구현하는데 기초가 되는 아키텍처입니다. 또 한 가지 주목할 점은, DeepSeek의 소형 모델이 수많은 대형 언어모델보다 상당히 좋은 성능을 보여준다는 점입니다. 다시 DeepSeek 이야기로 돌아와서, DeepSeek 모델은 그 성능도 우수하지만 ‘가격도 상당히 저렴’한 편인, 꼭 한 번 살펴봐야 할 모델 중의 하나인데요. 조금만 더 이야기해 보면, 어텐션의 기본 아이디어가 ‘디코더가 출력 단어를 예측하는 각 시점마다 인코더에서의 전체 입력을 다시 한 번 참고하는 건데, 이 때 모든 입력 단어를 동일한 비중으로 고려하지 않고 해당 시점에서 예측해야 할 단어와 관련있는 입력 단어 부분에 더 집중하겠다’는 겁니다. 더 적은 수의 활성화된 파라미터를 가지고도 DeepSeekMoE는 Llama 2 7B와 비슷한 성능을 달성할 수 있었습니다. 모든 태스크를 대상으로 전체 2,360억개의 파라미터를 다 사용하는 대신에, DeepSeek-V2는 작업에 따라서 일부 (210억 개)의 파라미터만 활성화해서 사용합니다. DeepSeek Coder는 Llama 2의 아키텍처를 기본으로 하지만, 트레이닝 데이터 준비, 파라미터 설정을 포함해서 처음부터 별도로 구축한 모델로, ‘완전한 오픈소스’로서 모든 방식의 상업적 이용까지 가능한 모델입니다. 이제 이 최신 모델들의 기반이 된 혁신적인 아키텍처를 한 번 살펴볼까요? 거의 한 달에 한 번 꼴로 새로운 모델 아니면 메이저 업그레이드를 출시한 셈이니, 정말 놀라운 속도라고 할 수 있습니다.
In the event you loved this post and also you want to obtain guidance with regards to ديب سيك شات kindly check out the web site.