摘要:相比之下,新锐史学家的说法似乎与现实更贴切,那就是“很多恶都是人为的”,比如大数据的操控,就是霍金所说的“按照人类的意志工作”,但这种人类利用技术制造的恶远大于人工智能本身之恶。
霍金预言了技术向恶的倾向,却忽视了人类意志利用科技做恶的更大破坏性。
相比之下,新锐史学家的说法似乎与现实更贴切,那就是“很多恶都是人为的”,比如大数据的操控,就是霍金所说的“按照人类的意志工作”,但这种人类利用技术制造的恶远大于人工智能本身之恶。
当科技被奉为“神”而不容质疑之时,人为之恶开始被无限放大而不可控,他们操纵技术的力量将“网络鸦片”源源不断精准投放到我们嘴里,进而控制社会权力(社会权力指一个人能有意地影响他人行为、思想和感受的能力),让每个人都无一幸免陷入“温水煮青蛙”之境,终而无处逃生。
从新媒体算法的运用便可观其端倪,新媒体平台利用算法阻止多角度消息,推动舆论失衡,制造单一叙事、恶意对立、极端异化或过度娱乐,放大情绪,充满感官刺激,把复杂的问题简单化,把不同的声音屏蔽掉。进而破坏公平公正的舆论环境,让公众陷入片面认知,让人在不知不觉中拱手让出“人之为人”的社会权力。
算法已经开始默默参与甚至改写人类历史,特别是在争夺民众注意力的网络平台大战中,算法成了决定胜负的因素。
算法能够选择让哪些内容出现在用户动态消息的顶端、推广哪些内容,以及推荐用户加入哪些话题的争论。算法本来可以选择推荐正义的、慈悲的布道,或者科学的、人文的修养课程,但最后却决定散播充满感官刺激的异化娱乐,甚至是散播充满仇恨的极端民族主义阴谋论。
可怕的是,这些自上而下的泛滥推荐,如同精神鸦片,让人们陷入片面认知,左右人们的思想,而受害者往往都是难以独立思考的底层民众。
显然,社交平台的商业模式无一例外都依赖于提升用户参与度,也就是用户在平台上所花的时间与所做的活动,点赞、分享、留言等。只要用户参与度增加,平台就能收集更多数据,卖出更多广告,在信息市场占据更大份额。
此外,提升用户参与度能给投资人留下好印象,从而有利于推高资本价值,用户在平台上停留的时间越久,平台就越赚钱。
算法在用户中做实验,发现最能提升参与度的办法就是让人愤慨或感官猎奇。相比正义的布道及理性的学说,充满仇恨的阴谋论和异化的娱乐更能提升人们的参与度。只要激发人们的怒火或多巴胺荷尔蒙,就能提升参与度,而走中庸节制的路线则行不通。
所以,为了追求用户参与度,算法就做出了一个致命的决定:传播愤怒和娱乐。聪明的主播们发现,发布满是谎言、让人愤慨、恶搞娱乐、充满感官刺激的内容,会受到算法青睐而被推荐给更多受众。相反,算法对那些理性的内容却毫无兴趣而视之不见。
于是,一些投机的主播就把自己生生练就成了一个个乱说的“喷子”、乱蹦的“婊子”而大行其道,劣币驱逐良币。更可怕的是,AI也学会了编造谎言或阴谋论或情欲感官,走向了极端的内容,与人类创作共同参与到算法的推荐竞争之列。而算法唯一所做的,就是鼓励往这个方向走,不断推荐这些内容,最大限度地提升用户参与度。
对于“网络鸦片”的泛滥,算法操控者早已找好了借口,他们说问题不是算法带来的,而是源于人性,人性是平台上一切仇恨、谎言及恶搞的源头,而平台本身是信守言论自由的价值观。
人类是非常复杂的生物,良好社会秩序会培养人类美德,同时减少人类的消极倾向。然而算法只把人看成矿井,唯一目的就是“开采”更多的注意力。人之为人本来有着丰富的情感,爱恨情仇,信心与困惑,但算法把一切简化成一件事——参与度。工程师写了算法的代码,赋予算法太多的权力,而操控者却没能对其好好地管控,进而一口一口吞噬掉人们的社会权力。
霍金给出解决“人工智能灭亡人类”危机的方案是:“人工智能系统需按照人类的意志工作”。但哲学家却认为,“权力必须关进制度的笼子”,掌控人工智能的人或机构权力太大,不受制度的约束,就无法避免“数字不正义”及“技术向恶”,眼睁睁看着霍金的预言如期而至。
原文出处:一粒青盐,感谢分享
来源:牧码人1981