摘要:近日,半导体CAD联盟张江论坛系列公益讲座成功举办。本次论坛聚焦“大模型赋能的芯片设计协同”这一前沿热点,中科麒芯作为业界领先拥有自研半导体行业大模型的解决方案商,受邀出席并分享了在大模型驱动芯片设计创新方面的前沿洞察与实践经验。
近日,半导体CAD联盟张江论坛系列公益讲座成功举办。本次论坛聚焦“大模型赋能的芯片设计协同”这一前沿热点,中科麒芯作为业界领先拥有自研半导体行业大模型的解决方案商,受邀出席并分享了在大模型驱动芯片设计创新方面的前沿洞察与实践经验。
中科麒芯CEO李磊与高级IT/CAD总监曾俊分别作为本次讲座的主讲嘉宾,深入剖析了芯片设计领域智能化升级的趋势和挑战,展示了如何通过自研大模型技术推动芯片设计行业的智能化升级,吸引了线上线下众多半导体行业从业者的关注与热烈讨论。
在《大模型赋能的芯片设计协同》主题分享中,李磊指出,全球企业对生成式AI的投入正呈现爆发式增长,尤其在半导体领域,大模型已成为缩短设计周期、降低门槛的核心工具。中科麒芯认为,未来芯片设计将呈现三大趋势:
企业投入持续加码:全球头部芯片企业正加速布局AI工具链,大模型成为EDA领域提升研发效率的关键引擎。
行业模型成为竞争焦点:中科麒芯深刻理解通用大模型在芯片设计场景的局限性,研发半导体领域专属模型“智语芯”,通过海量行业数据训练,提升在IC设计、EDA工具辅助等场景的专业性与精度。
私有化部署成主流:为保障核心知识产权与流程可控,中科麒芯的解决方案强调安全的内部部署能力。
直面“模型幻觉”挑战:公司持续投入研究,致力于降低模型幻觉对芯片设计高可靠性要求的影响。
基于此,李磊重磅介绍了中科麒芯的核心理念与平台——以AI-First为核心的芯片设计协同平台。该平台通过独创的FlowBuilder技术架构,深度整合EDA工具链、设计数据与算力资源,致力于实现芯片设计全流程的可视化、自动化与智能化。其目标不仅是服务于芯片设计公司内部的研发协同,更是成为连接先进设计方法学与产业实践的桥梁,为生态伙伴提供开放接口。
李磊进一步分享了中科麒芯自研半导体行业大模型“智语芯”的落地实践。经过与多家领先芯片公司数月的场景共创与持续迭代,“智语芯”已成功沉淀并验证了三类核心商业化产品:
代码辅助生成:支持Verilog、Python、TCL、Bash、Perl等多种语言,提供单行提示、多行提示、自动补全等智能建议,有效提升编码效率,达到中级工程师水平。
智能AE助手:通过与国内头部EDA企业合作,利用企业私有知识库外挂,显著提升技术支持问答效率达30%,有效替代初级工程师处理基础问题。
知识库智能检索:在客户实测中,可精准定位设计文档中的特定内容(如“修复违例”操作命令),大幅减少人工查阅时间达80%。
目前“智语芯”已开放免费试用,欢迎有需要的芯片公司扫描下方二维码联系。
中科麒芯高级IT/CAD总监曾俊则围绕《如何提升IT/CAD工作效率》展开了深入讲解。他直指当前芯片公司面临的三大核心效率瓶颈:
针对这些痛点,曾俊系统展示了中科麒芯自主研发的智能IT/CAD效率提升工具矩阵:
高性能计算资源管理——HPCOpsHPCOps是一套专业的高性能计算资源管理工具,提供基于LSF等调度工具的全面、实时资源监控与数据支持,通过智能调度助力研发团队更合理分配计算任务资源,为精细化运营和成本控制提供强有力的数据报表支撑。
智能算力调度系统是基于LSF(Load Sharing Facility)打造的可视化规则调度系统,专注于高性能计算(HPC)资源的智能化管理与高效调度。系统深度结合芯片设计的场景需求,通过动态资源调配、任务监控与智能决策,实现集群资源的规范化、自动化管理,提升算力利用率与任务执行效率。
1.规则驱动的智能调度:支持多条件组合触发与并行操作,实现灵活、精细化的自动化任务管控。
2.参数预审与动态优化:自动拦截并优化非合规任务,实时监控运行状态,确保集群高效稳定。
3.动态资源监控可视化:实时监控负载并智能调整资源分配,无缝管理任务全生命周期。
4.任务改造通知预警:邮件智能告警与任务数据关联,实现透明化管理和快速异常定位。
5.LSF智能技术支持:基于LSF用户手册训练的智能问答系统,提供精准LSF使用指导和最佳实践。
在论坛的问答环节,听众就智能调度系统的适用场景、大规模任务并发性能、流程兼容性、机器学习模型进展、EDA助手技术实现平衡、硬件平台性能差异以及大模型部署需求等专业问题展开了热烈讨论。中科麒芯的技术专家团队基于实际项目经验和产品能力,给出了详尽而专业的解答,进一步展示了公司解决方案的成熟度与可行性。
1.什么类型的公司适合用智能调度或者HPCOps呢?
如果芯片公司存在以下特征,均适用于。从产品类型讲,专注于高性能SoC、AI芯片、5G/自动驾驶芯片等大算力芯片设计,面临多项目并行、工艺角仿真等高复杂度验证场景;从集群规模角度,拥有50台以上服务器集群,但资源利用率低于60%,存在License闲置或超额申请问题;从管理角度,IT团队疲于处理任务失败、资源抢占等运维问题,管理层缺乏实时数据支撑算力投资决策,新人培养周期长,核心依赖个别资深CAD工程师。
2.智能调度系统接管LSF的ESUB后,对大规模任务并发(如数万个Job)的性能影响如何?是否会导致显著延迟?
首先,通过异步脚本生成和触发机制优化,将万级任务提交延迟控制在几十秒量级,相比传统ESUB模式显著提升了效率,这一点已在某大型存储芯片设计团队的POC中得到验证,系统稳定支持1,500-2,000个节点。其核心优势在于采用规则引擎实现"业务逻辑与IT资源解耦",通过可视化编排降低配置复杂度,虽然引入调度层会带来轻微性能损耗,但相较于资源利用率提升、任务失败率降低等收益属于合理权衡。目前团队正基于3个月历史数据训练机器学习模型,未来将通过业务代码特征分析实现更精准的资源预判,持续优化大规模并发场景下的调度性能。
3.使用调度系统后,用户原有设计流程是否需要适配修改?是否强制依赖QT界面?
智能调度系统采用非侵入式设计,用户原有设计流程无需任何修改,仍可通过命令行或脚本直接提交任务,系统通过底层透明化接管LSF实现智能调度;同时提供Web协同平台和QT桌面端两种可选界面,Web版支持团队协作与流程编排,QT端则完全保留工程师原有操作习惯,系统通过权限控制确保各角色仅看到相关任务,真正实现"用户无感、流程无损"的智能化升级。
4.调度系统的机器学习模块训练一次需多久?当前预测准确率如何?
目前智能算力调度系统的机器学习模块当前训练周期约需1个月(基于3个月历史数据),但预测准确率尚未达到理想水平;团队正在通过增加业务特征数据(如任务参数、工具调用关系等)持续优化模型,现阶段主要应用于资源预测,暂未全面接管核心调度决策。
5.EDA技术支持助手如何平衡领域大模型预训练和RAG?为何预训练后准确率能从80%提升至90%?
EDA技术支持助手采用"预训练+微调+RAG"三轨策略:先通过3.5B tokens 半导体专业数据(手册/专利/案例)预训练领域大模型建立行业常识,再结合RAG实现精准知识检索;预训练使模型掌握EDA底层逻辑(如时序修复规则),将基础准确率从80%提升至90%,而RAG则通过实时检索最新文档确保回答时效性,二者互补形成完整解决方案。
6.在显存容量相当时,国产GPU(如Biren BR104)与NVIDIA 4090在大模型长上下文(>1K tokens)推理中的性能差异?
在显存容量相当的情况下,国产GPU(如Biren BR104)与NVIDIA 4090在大模型长上下文推理中存在显著性能差距:当处理超过1K tokens的上下文时,国产GPU因带宽限制和预处理优化不足,导致首个token延迟高达30秒(4090仅需数秒),且整体推理速度呈现断崖式下降,这主要源于架构层面对长序列并行计算和KV Cache管理的优化差异。
7.72B参数大模型量化部署的显存需求及最低显卡配置是?
72B参数大模型量化部署的显存需求遵循"参数转GB"的换算原则:FP16精度:需144GB显存(72B×2)、INT8量化:需72GB显存(72B×1)、INT4量化:需36GB显存(72B×0.5),实际部署时需额外预留10GB显存用于KV缓存,因此最低配置需要2张48GB显存的NVIDIA 4090(INT4量化)或3张A100 80GB(FP16精度)。国产GPU因带宽限制,同等显存下推理速度会降低40%以上。
中科麒芯是由中科南京智能技术研究院内部立项,通过科技成果转化设立并投资占股的公司。公司以“AI赋能集成电路全产业链效率提升”为使命,聚焦AI+EDA工具链优化,提供FlowBuilder、智能算力调度与半导体行业犬模型应用等场景的解决方案,构建芯片设计全流程的协同平台,助力客户缩短研发周期、降低设计门槛、提升资源利用率。核心团队在半导体领域有20年以上的从业经验,并拥有为国内上千家中小创芯片设计公司提供芯片设计及供应链服务的实操经验。
来源:芯榜一点号