DeepSeek社は、2023年5月に中国・杭州で設立された人工知能(AI)企業で、中国のヘッジファンドであるHigh-Flyerが設立し、支援しています。
2025年1月にリリースされたDeepSeek R1は、DeepSeekが開発した大規模言語モデル(LLM)の一つで、特に高度な論理的推論や数学的推論を可能にすることを目的としています。
背景
High-Flyerは、2007~2008年の金融危機の際に浙江大学の3人のエンジニアによって設立され、機械学習を活用した株式取引を行ってきました。2019年にはAIアルゴリズムの研究に特化したHigh-Flyer AIを設立し、2021年までに全ての取引戦略にAIを導入しました。2023年4月、High-Flyerは人工汎用知能(AGI)の研究を目的とした独立組織の設立を発表し、5月にDeepSeekとして正式に立ち上げられました。
リリース履歴
DeepSeek Coder
2023年11月2日:最初のモデル「DeepSeek Coder」を公開。これは商用利用が可能なフルオープンソースモデルでした。
GitHub: DeepSeek Coder
ライセンス:MIT
https://github.com/deepseek-ai/DeepSeek-Coder
DeepSeek LLM
2023年11月29日:67億パラメータを持つ大規模言語モデル「DeepSeek LLM」を発表。GPT-4に匹敵する性能を目指しましたが、計算効率とスケーラビリティに課題がありました。同時にチャットバージョン「DeepSeek Chat」もリリースされました(現在はDeepSeek-V3 にアップグレード)。
GitHub: DeepSeek-LLM
ライセンス:MIT
https://github.com/deepseek-ai/DeepSeek-LLM
DeepSeek-V2
2024年5月:「DeepSeek-V2」をリリース。University of WaterlooのTiger Labのランキングで7位に位置づけられました。
GitHub:DeepSeek-V2
ライセンス:MIT
https://github.com/deepseek-ai/DeepSeek-V2
Hugging Face:
https://huggingface.co/deepseek-ai/DeepSeek-V2
DeepSeek-V3
2024年12月:6710億パラメータを持つ「DeepSeek-V3」を発表。約55日間で訓練され、コストは約558万ドルでした。Llama 3.1やQwen 2.5を上回り、GPT-4oやClaude 3.5 Sonnetと同等の性能を示しました。

GitHub:DeepSeek-V3
ライセンス:MIT
https://github.com/deepseek-ai/DeepSeek-V3
DeepSeek API Price
https://api-docs.deepseek.com/quick_start/pricing/
DeepSeek-R1
2025年1月:「DeepSeek-R1」と「DeepSeek-R1-Zero」をリリース。いずれもV3-Baseに基づき、6710億の総パラメータと370億の活性化パラメータを持つMixture of Experts(MoE)モデルです。R1-Zeroは強化学習のみで訓練され、教師あり微調整は行われていません。
OpenAI-o1と同等の性能を持ち、かつMITライセンスであることから話題になりました。


GitHub: DeepSeek-R1
ライセンス:MIT
https://github.com/deepseek-ai/DeepSeek-R1
ダウンロード:
Hugging Faceリポジトリ: DeepSeek-R1
https://huggingface.co/deepseek-ai/DeepSeek-R1
Hugging Faceリポジトリ: DeepSeek-R1-Zero
https://huggingface.co/deepseek-ai/DeepSeek-R1-Zero
Hugging Faceリポジトリ: DeepSeek-R1系
https://huggingface.co/collections/deepseek-ai/deepseek-r1-678e1e131c0169c0bc89728d
参考
DeepSeek社 公式HP:
https://www.deepseek.com
コメント