摘要:国际最快打脸时刻!打不过,就只能加入!英伟达、微软、亚马逊和AMD全部官宣接入deepseek,这是“集体投降”啊
国际最快打脸时刻!打不过,就只能加入!英伟达、微软、亚马逊和AMD全部官宣接入deepseek,这是“集体投降”啊
微软
美国当地时间1月29日,微软宣布DeepSeek R1已在Azure AI Foundry和GitHub上提供,开发者可用新模型测试和构建基于云的应用程序和服务,微软客户还能使用DeepSeek R1模型的精简版本在其Copilot+ PC上本地运行。
亚马逊云科技于1月30日举办了关于在Amazon Bedrock上部署DeepSeek模型的线上直播,1月31日宣布客户现已可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型。
英伟达
1月31日,英伟达宣布DeepSeek-R1模型已作为NVIDIA NIM微服务预览版在build.nvidia.com上发布,在单个英伟达HGX H200系统上每秒最多可处理3872个token。
AMD
1月25日,AMD宣布全新的Deep Seek-V3模型已集成至AMD Instinct GPU上。
业内分析认为,科技巨头们迅速接入DeepSeek模型,一方面是认可DeepSeek的能力,另一方面是大家都意识到AI成本在降低,都在为AI普及和应用爆发做更多基础布局。
DeepSeek优势
模型架构
MoE架构:2024 - 2025年DeepSeek模型采用专家混合模型,通过门控机制让部分权重参与计算,实现高效推理。
MLA架构:DeepSeek - V2提出多 头潜在注意力架构,大幅减少计算量和推理显存,显存消耗仅为同级别dense模型的1/5至1/100。
训练成本与效率
成本低:推理模型训练成本500万美元,可比肩数亿美元成本的GPT - 4。
数据处理专利:核心专利通过切块、索引等方式,相比传统方法提速3 - 5倍,GPU利用率从30%提升至50%+,减少60% - 80%冗余数据操作。
性能与应用
性能卓越:DeepSeek - V2性能达GPT - 4级别,中文综合能力超开源模型,与GPT - 4 Turbo、文心4.0等闭源模型同处第一梯队。
应用广泛:可用于智能客服、教育、艺术创作等领域。
价格优势:DeepSeek - V2的api价格仅为GPT - 4 Turbo的百分之一。
数据管理
索引操作:通过操作索引虚拟管理数据,节省计算资源。
异步读取:采用异步IO模式读取数据,提升读写吞吐和读取速度。
固定分块:按标准分块数据,方便存储、管理、读取和操作 。
来源:光头老莫·