llm

从Transformer(2017)到DeepSeek-R1(2025)

本文详细回顾了大型语言模型从2017年Transformer架构的出现到2025年DeepSeek-R1的发展历程,涵盖了BERT、GPT系列、多模态模型、推理模型等关键进展,展示了LLMs在规模、性能、成本和多模态能力上的巨大进步,以及对AI领域和社会的深远

模型 gpt llm transformer bert 2025-03-29 07:08  1

暴论:2025年,程序员必学技能就是MCP

比如大模型的数学不好,知名测试就是让大模型比较9.8 和 9.11哪个数大,大概半年之前,大部分大模型都会告诉你是9.8大。现在基本都正确了,其实还要归功于 RAG 技术,RAG 技术的原理和 MCP 实际上有异曲同工之妙,都像是个外挂程序,只不过 RAG 挂

程序员 llm mcp calling 程序员必学 2025-03-27 02:26  1

知乎年报:解决了老问题,给出了新答案

前者是老问题,知乎用四季度接近1亿元的调整后净利润给出了答案。通过对业务效率的提高,知乎的毛利率同比提升3.8个百分点,达到了62.9%,即便和以高毛利著称的腾讯、拼多多相比也毫不逊色。这一数字,更是高于大多数国内的内容平台同行。

知乎 开源 llm 周源 年报 2025-03-28 09:32  1

LinkAlign:

为了解决这一问题,我们提出了LinkAlign,这是一种新颖的框架,可以通过系统地解决模式链接问题将现有基线模型有效适应于真实世界环境。我们的框架包括三个关键步骤:针对挑战1的多轮语义增强检索和无关信息隔离,以及针对挑战2的模式提取增强。我们在SPIDER和B

llm 数据库 sql spider linkalign 2025-03-28 00:21  1