MiniMax押注线性注意力,让百万级长文本只用1/2700算力 本期「大模型创新架构」主题访谈,量子位邀请到MiniMax-01架构负责人钟怡然,聊聊线性注意力从实验室走向工业级大模型的全过程,以及他对模型架构的思考和洞藏。 linear minimax attention 级长文本 2025-04-17 01:12 3