官宣!AI大神何恺明加入谷歌DeepMind,Meta痛失一员大将
近日,何恺明在个人主页上更新称,已加入谷歌DeepMind,兼职“担任杰出科学家”。同时,他仍将保留麻省理工学院(MIT)电气工程与计算机科学系(EECS)终身副教授的身份。
谷歌 meta 谷歌deepmind deepmind 何恺 2025-06-26 19:36 4
近日,何恺明在个人主页上更新称,已加入谷歌DeepMind,兼职“担任杰出科学家”。同时,他仍将保留麻省理工学院(MIT)电气工程与计算机科学系(EECS)终身副教授的身份。
谷歌 meta 谷歌deepmind deepmind 何恺 2025-06-26 19:36 4
2025年6月26日,人工智能领域迎来一个标志性事件:深度学习革命的核心缔造者之一,何恺明,正式宣布以“杰出科学家”的身份,兼职加盟Google DeepMind。与此同时,他将保留麻省理工学院(MIT)电子工程与计算机科学系(EECS)的终身副教授职位。
何凯恺是计算机视觉领域的超级明星,别人的荣誉都是在某某大厂工作,拿过什么大奖,而何恺明的荣誉是best,best,best ...... 例如2016 CVPR 最佳论文“Deep Residual Learning for Image Recognition
就在刚刚,计算机视觉领域代表人物何恺明最新官宣,已加入谷歌DeepMind,担任杰出科学家(Distinguished Scientist)。
2024年,因为大模型以及Sora等的横空出世,全球计算机视觉届三大顶会之一的CVPR涌入了破纪录的1.2万人(可以回顾一下我们去年的现场报道)。而2025年,这种火热继续,虽然关注度没有上一届那么夸张,但我们今年在现场参会的观感,以及与诸多研究者交流的感受是
论文标题是:《Mean Flows for One-step Generative Modeling》。从论文的实验曲线来看,只跑1 步,图像质量居然能甩开跑 250 步的老牌扩散模型(2021 年前后的经典扩散模型,如 ADM)。
何恺明团队又一力作!这次他们带来的是「生成模型界的降维打击」——MeanFlow:无需预训练、无需蒸馏、不搞课程学习,仅一步函数评估(1-NFE),就能碾压以往的扩散与流模型!
再过不到1个月,一年一度的“高考”就要来了。前些年,每到高考成绩放榜时,社会上便会对所谓的高考状元最终“泯然众人矣”,进行讨论和反思。在此,本文总结了过去那些获得了高考“省状元”,目前仍活跃在科学界,并且算是杰出科学家的一些代表人物。
值得一提的是,这些顶流论文并非聚焦于mRNA疫苗、CRISPR基因编辑技术等重大科学突破,而是集中在人工智能(AI)发展、癌症统计分析和研究软件应用等领域。
论文 transformer nature 统计 何恺 2025-04-21 18:01 6
近日,Nature杂志对21世纪以来引用次数最多的25篇论文进行了分析,揭示出一个有趣的现象:在科学界,讲述方法和软件的论文比著名的科学发现更常被引用,这些论文主要集中在人工智能(AI)、研究方法或综述、癌症统计和软件研究等领域。
21世纪最具影响力的25篇论文中,AI论文竟然独占鳌头!从席卷全球的ResNet到奠定ChatGPT基础的Transformer架构,Nature独家揭秘全球高被引论文。
论文 transformer 何恺 预印本 resnet 2025-04-17 13:40 7
21世纪最具影响力的25篇论文中,AI论文竟然独占鳌头!从席卷全球的ResNet到奠定ChatGPT基础的Transformer架构,Nature独家揭秘全球高被引论文。
论文 transformer 何恺 预印本 resnet 2025-04-17 16:16 9
ResNets 作为一种人工神经网络,是深度学习以及后续 AI 进步的基础。这项工作最初于 2015 年底以预印本形式发布,作者包括何恺明、张祥雨、任少卿和孙剑。ResNet s 原始论文在 2016 就获得了 CVPR 最佳论文奖。
这项研究的主题是没有归一化层的 Transformer(Transformers without Normalization),并已被 CVPR 2025 会议接收。
transformer yann 何恺 刘壮 颠覆trans 2025-03-25 01:11 11
澳大利亚国立大学团队提出了ARINAR模型,与何凯明团队此前提出的分形生成模型类似,采用双层自回归结构逐特征生成图像,显著提升了生成质量和速度,性能超越了FractalMAR模型,论文和代码已公开。
Transformer架构迎来历史性突破!刚刚,何恺明LeCun、清华姚班刘壮联手,用9行代码砍掉了Transformer「标配」归一化层,创造了性能不减反增的奇迹。
何恺 暴击transformer9 transformer9 2025-03-14 16:52 11
但团队认为可以换用一种非常简单的技术,他们提出DyT(Dynamic Tanh),直接替代Layer Norm或RMSNorm,性能达到或超过标准Transformer。
transformer lecun 何恺 lecun改造 改 2025-03-14 15:31 13
不论是诺奖还是图灵奖,还有美国那个麦克阿瑟天才奖,都特别喜欢“蹭流量”。
Deepseek创始人梁文锋、kimi 创始人杨植麟,以及人工智能领域杰出科学家何恺明 。
梁文锋:广东湛江人,DeepSeek创始人。他从小展现出极高的数学天赋,初中就学完高中数学。2023年创立深度求索品牌DeepSeek,其研发的DeepSeek-V3模型性能顶尖,仅需280万GPU小时便达到行业领先标准,在开源领域一骑绝尘,性价比直接对标Op