仿真器

强化学习发展这十年

(前言:这篇文章我从祖师爷评上图灵奖的时候开始写的,但不停的在删了重写,删了重写,到现在为止才出一个我勉强接受的版本。我从我的视角来描述下我觉得这些年来强化学习的发展风向。先叠个甲,本人学术不精,本文所有观点都乃我一家之言,欢迎大家批评指正。)

学习 rl ppo 仿真器 offline 2025-04-17 01:42  6

苹果16亿公里全仿真数据超人类,路径规划数据和云端算力价值归零

总结:苹果的GIGAFLOW是一项重大创新,再次凸显了强化学习的魅力,它的成功让人们减少对数据的依赖和对算力的依赖,虽然目前只用在路径规划上,也没有(也无法)实车测试,但如果能推广到更复杂的感知和预测领域,那将彻底改变目前自动驾驶格局,届时,无论车端算力还是云

苹果 智能体 路径 规划 仿真器 2025-03-24 21:47  10

揭秘安全元件和可信区的隐藏弱点:全面分析

安卓系统的安全元件(SE)和iOS系统的安全区(Secure Enclave)已经成为保护敏感信息,如加密密钥的硬件级可信解决方案。它们通常被誉为具有抗篡改性、隔离性和高度安全性(例如,根据通用准则获得AVA_VAN.5最高安全等级认证)。然而,尽管硬件本身坚

api 仿真器 apdu 2025-01-13 17:59  13

微调时无需泄露数据或权重,这篇论文提出的ScaleOT竟能保护隐私

要让大模型适应各不一样的下游任务,微调必不可少。常规的中心化微调过程需要模型和数据存在于同一位置 —— 要么需要数据所有者上传数据(这会威胁到数据所有者的数据隐私),要么模型所有者需要共享模型权重(这又可能泄露自己花费大量资源训练的模型)。此外,在第二种情况下

论文 scaleot 仿真器 2024-12-19 07:07  19