摘要:近日,科技界迎来了一项新的突破,谷歌公司正式推出了其最新一代的人工智能模型——PaliGemma 2。这款模型不仅具备图像分析与描述生成的能力,还宣称能够识别图像中人物的情感状态,这一消息迅速引起了业界的广泛关注。
近日,科技界迎来了一项新的突破,谷歌公司正式推出了其最新一代的人工智能模型——PaliGemma 2。这款模型不仅具备图像分析与描述生成的能力,还宣称能够识别图像中人物的情感状态,这一消息迅速引起了业界的广泛关注。
据悉,PaliGemma 2在情感识别技术上的实现,离不开进一步的模型微调。然而,这一技术的问世,已经引发了专家们的热议与担忧。多年来,众多企业和研究机构一直致力于开发能够检测情感的AI技术,旨在将其应用于销售培训、事故预防等多个领域。谷歌方面表示,PaliGemma 2已经经过了广泛的测试,并在人群偏见方面进行了评估,声称其在“毒性和粗俗程度”上的表现优于行业基准。
尽管如此,谷歌并未公开完整的测试基准和具体的测试类型,仅透露了PaliGemma 2在FairFace数据集上的良好表现。然而,一些研究人员对FairFace作为偏见衡量标准提出了质疑,认为该数据集的人种代表性有限,可能无法全面反映模型在情感识别上的真实表现。
情感识别技术一直以来都面临着可靠性和偏见性的问题。以面部分析为例,近年来的研究表明,现有的系统往往对某些面部表情存在偏好,如更倾向于将微笑解读为正面情感。部分情感分析模型还存在将黑人面部的情感解读为负面,而对白人面部则较为正面的倾向,这进一步加剧了人们对情感识别技术公正性的担忧。
对于谷歌公开发布PaliGemma 2的决定,专家们主要担忧其潜在的滥用风险。如果将情感识别AI应用于执法、招聘、边境管理等高风险领域,可能会加剧对边缘群体的歧视,甚至导致人们的情感状态被错误解读,从而引发不公平待遇。针对这些担忧,谷歌回应称,已经对PaliGemma 2的伦理性和安全性进行了全面评估,涵盖了儿童安全、内容安全等多个方面,并承诺在发布前已经进行了严格的测试。
然而,随着AI技术的不断发展,科幻作品中的场景正逐渐走向现实。如何防止技术滥用,确保其公正性和可靠性,已成为AI行业亟需解决的核心问题。谷歌作为科技巨头,在推动技术创新的同时,也应承担起相应的社会责任,从产品开发初期就全面考虑其可能带来的社会影响,并在整个产品生命周期内持续进行评估和改进。
来源:ITBear科技资讯