CMU朱俊彦等上新LEGOGPT,一句话就能搭乐高
得益于生成模型和神经渲染技术,3D 生成模型已经取得了显著进展,并在虚拟现实、游戏、娱乐和科学计算等领域实现了各种应用。比如,一些研究探索了从文本合成 3D 对象、为网格添加纹理以及操控现有 3D 对象和场景的形状和外观。
得益于生成模型和神经渲染技术,3D 生成模型已经取得了显著进展,并在虚拟现实、游戏、娱乐和科学计算等领域实现了各种应用。比如,一些研究探索了从文本合成 3D 对象、为网格添加纹理以及操控现有 3D 对象和场景的形状和外观。
如果你觉得乐高沙发太简单,可以继续上难度,让它生成一个复杂点的书架,只见不同大小的积木拼拼凑凑,乐高书架就完工了,整个流程像不像你在拼乐高:
中国香港是亚太区G3货币债券主要发行市场、最大的离岸“点心债”市场,并广泛联通欧美债券市场。搭建各类金融基建推动债券市场发展,是当地巩固及提升国际金融中心地位的核心手段之一。摄/焦建
澳洲八所大学的顶级教授组成的一个专家小组进行的一项新的经济分析发现,如果关键行业完全采用人工智能(AI)作为其业务的核心,那么从现在到本世纪末,澳洲经济每年将增加2000多亿澳元。
韩国LG电子与中国台湾联发科29日宣布,在2025上海国际车展联合推出面向软件定义汽车(SDV)的新一代信息娱乐(IVI)解决方案。双方将LG基于谷歌安卓汽车操作系统开发的“并发多用户”(CMU)技术,集成至联发科“天玑汽车平台”芯片,实现单一操作系统同时驱动
正文都说美国大学“宽进严出”,但懂的人都知道,在一些学术课程非常严格的顶尖大学,那根本就是“严进严出”好吗?
公考行测中的逻辑推理题,是不少考生的噩梦,这次,CMU团队就此为基础,打造了一套逻辑谜题挑战。实测后发现,o1、Gemini-2.5 Pro、Claude-3.7-Sonnet这些顶尖大模型全部惨败!最强的AI正确率也只有57.5%,而人类TOP选手却能接近满
模型 模态 推理 cmu visualpuzzles 2025-04-18 14:22 6
202 5 CSRankings新鲜出炉了!CMU稳坐全球第一,中国高校强势崛起,清华摘得第2,上交大与浙大并列第3,北大位居第5。中国在AI领域表现尤为抢眼,上交大、清华、北大、浙大包揽前四,中国科学院与哈工大也跻身全球前十。
2025 CSRankings新鲜出炉了!CMU稳坐全球第一,中国高校强势崛起,清华摘得第2,上交大与浙大并列第3,北大位居第5。中国在AI领域表现尤为抢眼,上交大、清华、北大、浙大包揽前四,中国科学院与哈工大也跻身全球前十。
浙大 南洋理工大学 cmu csrankings aitop 2025-04-07 16:10 8
同样因努力而被幸运眷顾的,还有我们的申请上约翰霍普金斯大学全美第一的公共卫生专业的B同学。
卡内基梅隆大学的研究团队开发了一种名为AI2T的新型自我觉醒框架,旨在显著提升智能体的开发效率。传统智能体开发通常需要耗费数百小时跟踪自动化流程并修复缺陷,而AI2T仅需用户提供少量步骤示例,通过交互式训练即可快速完成开发。
导言:如果把自动驾驶的发展历程比作一条从科幻走向现实的漫长旅程,那么这条道路从最初的概念雏形,到实验室的闭门探索,再到当下商业化试点与示范运营的热潮,每一步都在验证自动驾驶如何一点点拨开迷雾,显露它的真正潜能。
卡内基梅隆大学(Carnegie Mellon University,简称CMU)作为享誉全球的顶尖研究型高等学府,学术实力覆盖广泛学科领域,众多专业位列全球前茅。尤其在交互设计领域,凭借其独特的“学科交叉基因”,成为培养复合型人才的标杆。
视觉+语音=更强的语音识别!BPO-AVASR通过优化音视频输入和输出偏好,提升语音识别在真实场景中的准确性,解决了传统方法在噪声、口语化和视觉信息利用不足的问题。
恭喜3位学子,成功斩获——卡耐基梅隆大学,数据科学硕士offer
近日,QS重磅发布了最新的2025年世界大学学科排名!比起综合排名,学科排名更能让我们看到每个学校更擅长哪个领域,以及给在选校时“专业优先”的同学们更多的参考。
自从AI问世,一直以为人工智能能够减轻我的生活负担,没想到它连我的工作也一并减掉了...
在留学申请这场没有硝烟的竞争中,每个学子都怀揣着对顶尖学府的向往,大家难免会想GPA不够耀眼怎么办?缺乏顶尖科研经历如何突围?文书怎样才能打动招生官?当标准化成绩和背景履历成为冰冷的数字,如何在激烈的竞争中展现独一无二的个人价值?这些问题,曾是无数申请者夜不能
通常来说,这些方法在训练模型时可以产生比典型正确解决方案更长的轨迹,并包含了试图实现某些「算法」的 token:例如反思前一个答案、规划或实现某种形式的线性搜索。这些方法包括显式地微调预训练 LLM 以适应算法行为,例如对搜索数据进行监督微调(SFT)或针对
CMU 团队用LCPO训练了一个15亿参数的L1模型,结果令人震惊:在数学推理任务中,它比S1相对提升100%以上,在逻辑推理和MMLU等非训练任务上也能稳定发挥。更厉害的是,要求短推理时,甚至击败了GPT-4o——用的还是相同的token预算!