集体投降!英伟达、微软、亚马逊和AMD全部官宣接入deepseek

360影视 2025-02-01 23:04 2

摘要:国际最快打脸时刻!打不过,就只能加入!英伟达、微软、亚马逊和AMD全部官宣接入deepseek,这是“集体投降”啊

国际最快打脸时刻!打不过,就只能加入!英伟达、微软、亚马逊和AMD全部官宣接入deepseek,这是“集体投降”啊

微软

美国当地时间1月29日,微软宣布DeepSeek R1已在Azure AI Foundry和GitHub上提供,开发者可用新模型测试和构建基于云的应用程序和服务,微软客户还能使用DeepSeek R1模型的精简版本在其Copilot+ PC上本地运行。

亚马逊云科技于1月30日举办了关于在Amazon Bedrock上部署DeepSeek模型的线上直播,1月31日宣布客户现已可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型。

英伟达

1月31日,英伟达宣布DeepSeek-R1模型已作为NVIDIA NIM微服务预览版在build.nvidia.com上发布,在单个英伟达HGX H200系统上每秒最多可处理3872个token。

AMD

1月25日,AMD宣布全新的Deep Seek-V3模型已集成至AMD Instinct GPU上。

业内分析认为,科技巨头们迅速接入DeepSeek模型,一方面是认可DeepSeek的能力,另一方面是大家都意识到AI成本在降低,都在为AI普及和应用爆发做更多基础布局。

DeepSeek优势

模型架构

MoE架构:2024 - 2025年DeepSeek模型采用专家混合模型,通过门控机制让部分权重参与计算,实现高效推理。

MLA架构:DeepSeek - V2提出多 头潜在注意力架构,大幅减少计算量和推理显存,显存消耗仅为同级别dense模型的1/5至1/100。

训练成本与效率

成本低:推理模型训练成本500万美元,可比肩数亿美元成本的GPT - 4。

数据处理专利:核心专利通过切块、索引等方式,相比传统方法提速3 - 5倍,GPU利用率从30%提升至50%+,减少60% - 80%冗余数据操作。

性能与应用

性能卓越:DeepSeek - V2性能达GPT - 4级别,中文综合能力超开源模型,与GPT - 4 Turbo、文心4.0等闭源模型同处第一梯队。

应用广泛:可用于智能客服、教育、艺术创作等领域。

价格优势:DeepSeek - V2的api价格仅为GPT - 4 Turbo的百分之一。

数据管理

索引操作:通过操作索引虚拟管理数据,节省计算资源。

异步读取:采用异步IO模式读取数据,提升读写吞吐和读取速度。

固定分块:按标准分块数据,方便存储、管理、读取和操作 。

来源:光头老莫·

相关推荐