摘要:今日,网信办正式实施了《人工智能生成合成内容标识办法》,其中明确要求对符合条件的AI生成内容进行明确标识。在此背景下,DeepSeek公司迅速响应,成为首批遵守新规定的企业之一。
今日,网信办正式实施了《人工智能生成合成内容标识办法》,其中明确要求对符合条件的AI生成内容进行明确标识。在此背景下,DeepSeek公司迅速响应,成为首批遵守新规定的企业之一。
DeepSeek通过官方渠道宣布,所有由AI生成的内容都将附带“AI生成”标签,以确保信息的透明度。公司还强调,用户不得恶意删除、篡改或隐藏这些标识,同时严禁利用AI制作和传播虚假信息。这一举措旨在维护信息的真实性和公众的信任。
在模型训练阶段,DeepSeek采用了深度神经网络架构,并通过大规模自监督学习使模型掌握语言理解与生成能力。预训练完成后,模型还需经过微调,以适应实际应用场景。这一过程中,DeepSeek强调了数据的质量和多样性,同时采取了一系列措施确保数据的安全性和隐私保护。
值得注意的是,DeepSeek在训练数据的使用上十分谨慎。在预训练阶段,公司主要使用互联网公开信息和第三方合作数据,并确保不会故意关联到任何特定账户或个人。尽管预训练数据规模庞大,可能偶然包含个人信息,但DeepSeek表示会通过技术手段进行筛查和移除。
在优化训练阶段,DeepSeek通过构造和标注问答对数据来进一步训练模型。这些数据由研究团队生成提供,部分可能基于用户输入。但公司强调,所有涉及用户输入的数据都会进行安全加密、去标识化和匿名化处理,以避免关联到特定个人。
DeepSeek还强调了模型的开源性,通过开源平台公开发布了模型的权重、参数以及推理工具代码等,供使用者自由下载和部署。同时,公司发布了各模型的完整技术报告,以帮助公众更深入地了解每个模型的技术原理和细节。
尽管AI技术发展迅速,但仍存在局限性。DeepSeek承认,其模型可能会生成错误或不准确的内容,即所谓的“幻觉”。为了降低这种风险,公司采取了一系列技术手段,并在生成文本的末尾和交互界面底部添加显著提示,提醒用户内容由AI生成,可能不准确。
DeepSeek还高度重视AI技术的滥用风险,包括隐私保护、版权、数据安全、内容安全和偏见歧视等问题。公司制定了一系列内部风险管理制度,并开展了模型安全性评估和红队测试等工作,以增强模型和服务的安全性。
DeepSeek赋予用户知情权、选择权和控制权,用户可以查询服务的基本信息、拒绝其数据用于模型训练,并删除历史数据。这些措施旨在确保用户在享受AI服务的同时,能够充分保护自己的权益。
来源:ITBear科技资讯