Sakana AI使用LLM优化技术将使用AI模型的内存成本降低多达75%

摘要:据aitimes网站 12月16日报道,人工智能 (AI) 初创公司 Sakana AI 开发了一种新技术,可以有效提高人工智能模型LLM的内存使用效率。这将降低使用 LLM 或基于 transformer 的AI模型构建应用程序时产生的成本。

据aitimes网站 12月16日报道,人工智能 (AI) 初创公司 Sakana AI 开发了一种新技术,可以有效提高人工智能模型LLM的内存使用效率。这将降低使用 LLM 或基于 transformer 的AI模型构建应用程序时产生的成本。

Sakana AI 最近在其档案中发表了一篇关于“Universal Transformer Memory”的论文。该公司称:他们模仿了人类记住重要信息并快速忘记不必要信息的方式优化了AI模型。据了解,Sakana AI使用“神经注意力记忆模型”(NAMM)来优化内存使用。NAMM 是一个简单的神经网络,用于确定是记住还是忘记特定内容。

“这项技术允许神经网络丢弃不必要或多余的细节,并专注于最重要的信息,这对于需要大量上下文的推理任务至关重要。”研究人员解释说。特别是,通过删除不必要的内容,能够在处理模型时节省高达 75% 的内存开销。

(编译:史天阳)

来源:邮电设计技术

相关推荐