摘要:据aitimes网站 12月16日报道,人工智能 (AI) 初创公司 Sakana AI 开发了一种新技术,可以有效提高人工智能模型LLM的内存使用效率。这将降低使用 LLM 或基于 transformer 的AI模型构建应用程序时产生的成本。
据aitimes网站 12月16日报道,人工智能 (AI) 初创公司 Sakana AI 开发了一种新技术,可以有效提高人工智能模型LLM的内存使用效率。这将降低使用 LLM 或基于 transformer 的AI模型构建应用程序时产生的成本。
Sakana AI 最近在其档案中发表了一篇关于“Universal Transformer Memory”的论文。该公司称:他们模仿了人类记住重要信息并快速忘记不必要信息的方式优化了AI模型。据了解,Sakana AI使用“神经注意力记忆模型”(NAMM)来优化内存使用。NAMM 是一个简单的神经网络,用于确定是记住还是忘记特定内容。
“这项技术允许神经网络丢弃不必要或多余的细节,并专注于最重要的信息,这对于需要大量上下文的推理任务至关重要。”研究人员解释说。特别是,通过删除不必要的内容,能够在处理模型时节省高达 75% 的内存开销。
(编译:史天阳)
来源:邮电设计技术
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!