摘要:2018 年,人工智能炒作风潮四起,我们似乎不可避免地将很快面对一个全新的世界,这个世界充满了近乎人类的机器人和控制论狗。但随之而来的是一系列问题:这一切将如何改变我们的工作,我们如何保护自己免受人工智能接管,更广泛地说,人工智能如何才能被设计成善而不是恶?
2018 年,人工智能炒作风潮四起,我们似乎不可避免地将很快面对一个全新的世界,这个世界充满了近乎人类的机器人和控制论狗。但随之而来的是一系列问题:这一切将如何改变我们的工作,我们如何保护自己免受人工智能接管,更广泛地说,人工智能如何才能被设计成善而不是恶?
面对这些问题和不确定的未来,谷歌在一份关于其人工智能原则的声明中重申了对道德技术发展的承诺,包括承诺不以“可能造成整体伤害”的方式使用其人工智能,例如武器或监视技术。
七年后,这些承诺已悄然从谷歌的人工智能原则页面中删除。这一举动因变化的不祥意味而招致了众多批评。
谷歌道德人工智能团队前负责人玛格丽特·米切尔 (Margaret Mitchell) 向彭博社透露:“删除该信息将抹去谷歌道德人工智能领域和激进主义领域许多人所做的工作。更成问题的是,这意味着谷歌现在可能会致力于直接部署可以杀人的技术。”
谷歌并不是第一家撤回不制造杀戮机器人承诺的人工智能公司。据The Intercept当时报道, 去年夏天,OpenAI 同样撤回了不将人工智能用于“军事和战争”的承诺。
尽管谷歌尚未宣布任何终结者工厂,但该公司昨天在一份声明中表示,“公司、政府和组织……应该共同努力创造保护人类、促进全球增长和支持国家安全的人工智能。”
阅读:我们可以做任何我们想做的事。处理它。
尽管该公司的新闻令人不安,但它却利用了其长期以来可疑的牟取暴利的历史。毕竟,谷歌是第一家认识到通过数据进行监控的价值的大型科技公司。
著名科技评论家 Shoshana Zuboff 在 2019 年写道:“谷歌之于监控资本主义,就如同福特汽车公司和通用汽车之于基于大规模生产的管理资本主义。在我们这个时代,谷歌成为监控资本主义的先驱、发现者、阐述者、实验者、领先实践者、榜样和传播中心。”
早在 21 世纪初,谷歌就开始探索个人浏览数据的价值——这种有价值的资产有时被称为“数字废气”。谷歌意识到这些数据包含了有关个人用户在网络上浏览时的预测信息。
很快,迫于互联网泡沫的破灭和创收需求,谷歌开始依赖这项技术,打造出我们这个时代占主导地位的 跟踪和广告设备。用户数据可以转化为现金这一事实催生出一系列数据驱动的产品,如超精准广告、预测算法、个人助理和智能家居,所有这些推动谷歌成为如今的市场巨头。
现在,过去似乎只是序幕。随着谷歌等科技公司投入数十亿美元开发人工智能,一场为不耐烦的投资者创造收入的竞赛开始了。难怪现在不择手段的人工智能盈利模式被摆上了台面——毕竟,它们是公司所谓的新支柱。
来源:人工智能学家