全球首例!阿尔巴尼亚任命AI当部长,法律道德与追责难题引热议

360影视 国产动漫 2025-09-14 16:32 2

摘要:该AI由本土与国际专家团队研发,是首个适用于公共采购领域的AI模型,但这一任命更多具象征意义,而非具备完全官方效力的实质性安排。

近日,阿尔巴尼亚总理埃迪・拉玛任命人工智能(AI)“迪埃拉(Diella)”为内阁部长,旨在借技术根除腐败,此举为全球首例,引发广泛关注。

据英国广播公司(BBC)报道,该AI由本土与国际专家团队研发,是首个适用于公共采购领域的AI模型,但这一任命更多具象征意义,而非具备完全官方效力的实质性安排。

从治理逻辑看,阿尔巴尼亚试图将AI的“无情感”特质转化为优势——AI无复杂情感与“良知”,能规避人类官员可能的情感干扰,而“无情”本是人类官员的职业风险标签。

不过,该任命首先面临宪法挑战,阿尔巴尼亚宪法规定,政府部长须为精神正常、年满18岁的公民,AI显然不符合。

同时,争议接踵而至,如AI是否具备任公职的资格、其决策失误该如何追责,毕竟公职人员所需的良知与道德判断力,是机器无法拥有的。

随着AI技术发展,其法律定位成核心辩论点:应被视作受人类控制的“法律客体”,还是拥有权利义务的“法律主体”?从法律实践与案例看,“AI为法律客体”仍是主流共识。

各国司法裁决多次否定AI的主体地位英国最高法院驳回“AI如DABUS系统可作为专利法意义上发明人”的主张,美国版权局拒绝为纯AI生成作品提供版权保护,均表明法律层面创造性成果归属仍与人类绑定。

欧盟更通过《欧盟人工智能法案》明确AI属法律客体,要求AI使用需透明且接受人工监督,同时明确开发者、操作者等的法律责任,既防范滥用风险,又无需赋予AI主体地位。

主张AI为法律主体面临诸多难题,核心是责任认定:自主型AI可在无人类指令下执行任务,若其失误致损,责任该由谁承担?

且AI与公司等法人实体本质不同——有限责任公司等法人由人类组成,行为由人类董事会代表行使,而AI基于算法与机器运行,二者法律定位无可比性。

更关键的是,若赋予AI主体地位,可能引发人类借AI规避责任的风险,开发者或使用者或会以“责任归AI自身”为由,逃避问责与赔偿。

因此,将AI视作法律客体更合理,能清晰界定开发者、操作者、政府部门等的责任,让问责机制可衡量。

同时,阿尔巴尼亚的尝试也凸显新问题:现有规则已难以覆盖AI在公共领域的应用,亟需建立匹配道德准则与治理规范的新标准,甚至设立专门监管机构。

目前,欧盟已着手相关机制建设,这类机构的核心作用是明确AI在公共领域的边界,确保政府用AI提效时,不忽视道德、伦理与问责。

网络法视角看,阿尔巴尼亚的举措是政治创新象征,并非对AI主体地位的法律认可。尽管通用AI已具备复杂决策与独立学习能力,但始终无法像人类般理解权利义务内涵、拥有道德与责任认知,相关法律责任最终仍需由控制AI的人类公职人员承担。

来源:老汪说事一点号1

相关推荐