摘要:这篇文章重复其他文章对deepseek的优点的描述。deepseek的最新版本的成本只有560万美元,比OpenAI的大模型便宜得多。这样就导致市场对英伟达的AI芯片的需求是否需要这么大产生怀疑,因为训练大模型需要芯片支持。
外国科技媒体The Verge 对最近席卷全球的中国人工智能模型deepseek发表评论,标题是“为什么每个人都对deepseek感到恐惧”。
通观全文,它的观点没有什么新颖之处。换句话说,它没有把每个人对deepseek恐惧的真正原因说出来。
这篇文章重复其他文章对deepseek的优点的描述。deepseek的最新版本的成本只有560万美元,比OpenAI的大模型便宜得多。这样就导致市场对英伟达的AI芯片的需求是否需要这么大产生怀疑,因为训练大模型需要芯片支持。
不过,deepseek最大的亮点是技术上的创新。
该篇文章援引前OpenAI政策研究员Miles Brundage的话说,deepseek的R1模型使用了两个关键的优化技巧:关于思维链推理的更有效的预先训练和强化学习。“DeepSeek找到了更聪明的方法,使用更便宜的GPU来训练人工智能,其中部分帮助是使用了一种新技术,要求人工智能通过试错(强化学习)而不是模仿人类一步一步地‘思考’问题。这种组合允许模型实现o1级别的性能,同时使用更少的计算能力和金钱”。
DeepSeek团队还开发了一种名为DeepSeekMLA(多头潜在注意力)的东西,它通过压缩模型存储和检索信息的方式,大幅减少了运行人工智能模型所需的内存。这可以解释为什么deepseek的内存只有8M,小得令人怀疑。
其实这篇文章并没有把deepseek让每个人感到恐惧的真正原因写出来。在我看来,deepseek让人恐惧的地方是它比chatgpt更智能。这点西方人可能无法坦然承认。毕竟chatgpt是人工智能的鼻祖。一个成立两年的小公司搞出的东西能超过ChatGPT?但是事实就是这样。用过的人大部分都觉得deepseek比ChatGPT好用。这才是它最近爆火的原因。对于普通人来说,deepseek研发费用低跟他有什么紧要关系?但deepseek好用就不一样,这导致deepseek的下载量在苹果应用商店里在全世界大部分国家排名第一。当然,deepseek免费也是吸引用户的原因,但最大的原因是它确实比ChatGPT更聪明,更好用。
来源:俄罗斯的月亮圆不圆