摘要:在2025年1月,新政府发布了一项关于人工智能的行政命令,旨在减轻AI行业负担并促进创新,同时消除“工程化社会议程”。该计划正在制定中,公众可通过国家科学基金会提供意见。电子前沿基金会提出了关键建议,强调政府在采购自动决策技术时应保持透明,避免使用秘密算法。对
在2025年1月,新政府发布了一项关于人工智能的行政命令,旨在减轻AI行业负担并促进创新,同时消除“工程化社会议程”。该计划正在制定中,公众可通过国家科学基金会提供意见。电子前沿基金会提出了关键建议,强调政府在采购自动决策技术时应保持透明,避免使用秘密算法。对生成性AI的政策应针对实际危害,并考虑公共利益。美国政府采购AI的速度引发透明度担忧,可能影响公民自由。自动化决策可能导致不理性和歧视性结果,实施应遵循公共通知程序。立法者对生成性AI的监管反应过度,可能损害个人表达。兴起的AI许可制度可能只惠及大公司,削弱合理使用,损害小型创作者。政策应保护个人文化参与权,确保只针对经过测试的解决方案。
在2025年1月,新一届政府发布了一项关于人工智能(AI)的行政命令,取代了之前拜登时代的指令。该命令呼吁制定一项新的AI行动计划,旨在减轻当前AI行业的负担,以促进创新,同时消除该领域内的“工程化社会议程”。该计划目前正在制定中,并通过国家科学基金会(NSF)接受公众评论。
电子前沿基金会(EFF)对此作出了若干关键建议。首先,政府在采购自动决策(ADM)技术时,必须以透明和公共问责的方式进行。这意味着不得使用任何秘密或未经测试的算法来决定就业状态或寻求在美国避难的个人资格。其次,关于生成性AI的政策应精确针对实际危害,并同时考虑其他公共利益。最后,避免建立仅惠及最大公司和守门人的AI许可制度至关重要。
美国政府采购AI技术的速度引发了关于透明度的重大担忧。对缺乏可靠记录的系统的支出不仅巩固了主要AI公司的主导地位,还对受这些自动决策影响的个人的公民自由构成了风险。这些潜在的危害并非假设;已经有针对在警务和国家安全领域(包括移民执法)实施实验性AI工具的倡议。最近的报告表明,政府效率部(DOGE)计划利用AI评估联邦员工,从而影响他们的继续就业决定。
对个人进行关键决策的自动化既鲁莽又危险。充其量,这些新的AI系统可能无效,需额外劳动力来纠正错误。最糟糕的是,它们可能导致因技术的不透明性而掩盖的不理性和歧视性结果。这类工具的实施应遵循《行政程序法》所要求的彻底公共通知和评论程序。该程序对于消除对无效AI解决方案的浪费支出以及确定何时不适合或有害地应用此类技术至关重要。
对生成性AI的焦虑促使立法者提出基于推测的广泛监管,而对各种公共利益的考虑则显得不足。尽管确实存在合理的担忧,但这种反应式的政策制定方法正是2023年所警告的。例如,拟议的法案如NO FAKES和NO AI Fraud试图扩展版权法,偏袒企业巨头,损害个人表达。NO FAKES倡议甚至引入了一种类似于DMCA的下架程序,这一程序长期以来受到在线创作者的批评,因为它促进了过度和自动化的审查。其他政策制定者则建议技术要求,如水印,这些要求充满了实际问题。
在这些有争议的解决方案中,兴起的AI许可制度限制了AI发展的潜力,仅惠及那些能够承担费用的人。这种做法削弱了合理使用,并创造了一道仅惠及最大科技和媒体出版公司的收费墙,有效地将这些许可证旨在保护的创作者置于一旁。这就像试图通过给一个被欺负的孩子更多的午餐钱来安抚他的欺负者。这种策略是错误的。寻求像扩展版权法这样的简单解决方案对每个人都有害,尤其是那些无法与行业守门人竞争的小型艺术家、研究人员和企业。AI对创意劳动的公平补偿和待遇构成威胁,牺牲二次使用并不能解决劳动与寡头之间的根本权力不平衡。
个人有权在不受私人垄断限制的情况下参与文化并表达自己。政策制定者应集中精力制定精心设计的政策,以保护这些权利,同时确保规则制定仅限于经过测试的解决方案,以应对真实的危害。您可以在这里阅读我们的评论。
来源:老孙科技前沿