GPT4o突然更新!不会PS就能搞定这几个高端操作!
4o这次更新横扫AI和设计圈,“AI生图工作流不存在了”“设计师要原地失业了”各种说法到处都是,它真的这么牛吗?我们该如何用好它呢?
ps transformer 王煜全 gpt4o conte 2025-03-30 09:52 2
4o这次更新横扫AI和设计圈,“AI生图工作流不存在了”“设计师要原地失业了”各种说法到处都是,它真的这么牛吗?我们该如何用好它呢?
ps transformer 王煜全 gpt4o conte 2025-03-30 09:52 2
这项研究的主题是没有归一化层的 Transformer(Transformers without Normalization),并已被 CVPR 2025 会议接收。
transformer yann 何恺 刘壮 颠覆trans 2025-03-25 01:11 3
人工智能历经近七十年发展,已至战略拐点,从技术驱动迈向需求驱动。DeepSeek的出现标志着算力效率拐点显现,其通过优化算法架构,显著提升算力利用效率,打破传统认知,验证了“性价比”训练路径。2025年发布的大模型呈现低参数量特征,为本地化部署提供可能。AI技
模态 推理 算法 transformer deepseek 2025-03-29 17:10 2
• 大模型说:我参数更大、上限更高。• 小模型说:我表现差不多,推理还便宜。• 厂商都在说自己赢了,读者却越来越搞不懂这到底在比什么。
模型 聪明 架构 transformer moe 2025-03-29 11:20 2
本文详细回顾了大型语言模型从2017年Transformer架构的出现到2025年DeepSeek-R1的发展历程,涵盖了BERT、GPT系列、多模态模型、推理模型等关键进展,展示了LLMs在规模、性能、成本和多模态能力上的巨大进步,以及对AI领域和社会的深远
模型 gpt llm transformer bert 2025-03-29 07:08 2
AI大模型是指参数量达数十亿至万亿级的深度学习模型,通过海量数据(通常TB级)训练,具备文本生成、逻辑推理、多模态理解等能力,典型代表如GPT系列、DeepSeek等。
模型 必备 transformer 零基础 chain 2025-03-29 00:54 2
在校学生使用AI 视频工具搞了个 AI 视频短片《电火花之舞》,在 MIT 的全球 AI 电影黑客马拉松中拿了“最佳叙事奖”。
开源 transformer 海螺 minimax 闫俊杰 2025-03-28 05:22 2
这两天时间,因为GPT4o的爆火,导致了无数设计师上天台!前几天本人还在嘲笑因为Cursor和MCP的出现,导致很多程序员上天台,谁能想到射出的子弹这么快便击中了我的眉心!
模型 gpt transformer gpt4o stabl 2025-03-28 12:00 2
2025年初,国产AI技术实现显著突破,引发全球广泛关注,标志着中国AI力量的强势崛起。这些中国本土的AI科技力量中,MiniMax的创新尤为引人注目。
模态 出圈 transformer minimax 闫俊杰 2025-03-28 08:26 2
通过大量实验验证,研究团队发现Vamba在同等硬件条件下可处理的视频帧数较传统Transformer架构提升4倍,训练内存消耗降低50%以上,并且可实现单步训练速度的翻倍。
视频 架构 transformer mamba 显存 2025-03-27 13:03 2
这是 Qwen 系列中全新的旗舰级多模态大模型,专为全面的多模式感知设计,可以无缝处理包括文本、图像、音频和视频的各种输入,同时支持流式的文本生成和自然语音合成输出。
模态 开源 transformer 解码器 音频 2025-03-27 10:27 3
纵目科技,这家曾经风光无限的智能驾驶企业,如今却成为了行业寒冬中的一枚冰晶,折射出整个行业的动荡与不安。春节前夕,公司创始人兼CEO唐锐还在员工群里鼓舞士气,承诺将全力争取客户回款,保障员工社保。然而,春节的鞭炮声还未消散,纵目科技便迎来了致命一击——公司停水
企业 transformer bev 倒春寒 唐锐 2025-03-25 21:08 2
在当今大模型领域,Transformer架构占据着主导地位。然而,尽管Transformer非常强大,但它的计算需求随着文本长度呈平方级增长,这导致运行成本高昂,同时限制了其扩展能力。
transformer rnn 黑天鹅 attention 2025-03-25 17:58 3
这样做有啥好处呢:简单地说,混合Mamba架构通过降低计算复杂度、缓存占用,同时发挥其在处理长序列和捕捉复杂上下文方面的优势,成功应对了大规模强化学习训练的挑战,显著提升了系统的整体效率和吞吐量。还实现了实现了训练跟推理成本的双下降!
t1 transformer deepseek mamba 2025-03-24 11:18 3
据推主坤哥爆料,《夺宝奇兵:古老之圈》PS5版发售日将于3月24日公布,4月17日发售,有实体版。预购高级版的玩家可提前两天进入游戏。标准版售价70美元,高级版100美元。
xbox game transformer ps5 fsr 2025-03-24 03:12 3
在人工智能的浩瀚宇宙中,大模型(Large Language Model,LLM)作为璀璨的星辰,不断引领着技术的革新与进步。从2017年的Transformer架构问世,到2025年DeepSeek-R1模型的横空出世,我们共同见证了这一领域的飞速发展与变革
模型 模态 transformer 自然语言处理 自然语言 2025-03-23 20:18 3
大型语言模型(LLMs)是为了预测随后的话语并适应任务而进行优化的,使用上下文嵌入可以使其处理自然语言接近于人类水平。这项研究显示,人类大脑中的神经活动与大型语言模型(LLMs)处理日常对话时的语音和语言内部上下文嵌入呈线性对齐。
人脑 llm transformer 语言 stg 2025-03-23 19:21 3
作者认为,Transformers 中实现的注意力机制,在计算复杂度上应该被视为对数级别的。这篇博客,还得到了 Karpathy 的高度肯定:有时我会在想象中的神经网络完整计算图中将其描述为「广度是免费的,深度是昂贵的」。据我所知,这首先是 Transform
张量 transformer 矩阵乘法 张量积 对数 2025-03-23 19:22 2
选自 supaiku.com作者:Spike Doanz机器之心编译「注意力实际上是对数的」?今天,一篇博客再次掀起了AI社区对注意力机制的讨论。
矩阵 张量 transformer karpathy 张量积 2025-03-23 12:21 2
进入2025年,全世界的自动驾驶技术迎来了白热化的竞争,网络上到处都喧嚣着特斯拉FSD和华为系ADS在无明确路标的乡间小路上一路狂飙的视频,试车的人心惊动魄,看视频的人也大受震撼,2025年,自动驾驶已经进化到类老司机驾驶风格的地步了?可真让人期待呢。
技术 transformer acc occ lcc 2025-03-23 12:59 3