加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

大数据算法推送-洗脑话术

(2020-11-19 10:38:37)
分类: 杂文


一、信息茧房(Information Cocoons)


是美国学者凯斯·桑斯坦(Cass R. Sunstein)在《信息乌托邦——众人如何生产知识》中提出的概念,即用户在海量信息中只选择感兴趣和悦已的主题,从而构成一套“个人日报”式的信息系统,进而排斥或无视其他观点与内容。[[1]]长期以往,这将阻碍个体信息的全面发展,阻断观点的自由交流,形成所谓“回声室”(Echo Chamber)效应,并导致群体极化(Group Polarization),威胁社会民主的基石(Sunstein,2002)。[[2]]


信息茧房被视为数字时代高度个性化信息服务不可避免的“副作用”。随着算法推荐成为信息分发的重要途径与方式,有一种说法甚嚣尘上,即算法加剧了信息茧房的产生与泛化。人民日报曾经三评算法推荐,指出算法自动过滤“不感兴趣”“不认同”的异质信息,久而久之,信息接收维度变窄,资讯获取渠道单一。[[3]]如今,算法几乎根植于所有主流移动应用中,社交媒体推荐着趣味相投的朋友,音乐APP自动播放喜爱的音乐,电商网站提示着昨晚电影中的“明星同款”,用户似乎在毫无觉察下已被包裹进个体与机器共筑的温柔却严丝合缝的茧蛹。


陷入“信息茧房”的用户会有如下状态:


一是信息接收渠道的收窄和固化。


互联网尤其是移动互联网的发展,为公众提供了高度自由的媒介环境,使得个体在媒介使用上享有空前的自治(Uwe Hasebrink等,2012)[[4]]。用户根据特定场景的特定需求,可自由选择媒介,并组成个体独有的媒介生态系统。


在信息供给端,当前,传统媒介、社交型媒介、算法型媒介等不同模式的传播渠道并存。不同媒介的信息分发各有侧重,满足着用户不同维度的信息需求。例如倚重人工的传统媒介,强调社会共性信息解决,通常扮演了“压舱石”的角色。而社交媒介则成为各类偶发性信息与意见交换的重要场所。因此,媒介使用的多样性意味着用户有机会接触到不同的信息与观点,为了解和评估事实提供了多维度的参照。而政治传播的研究也证实,媒介多样性会提升用户的政治素养(Dam Hee Kim,Nojin Kwak, 2017)[[5]],并消除党派偏见(Elizabeth Dubois,Grant Blank,2018)[[6]]。有调查结论则反映,2019年,仅有2%的美国人是靠单一渠道获取资讯,大多数用户会倾向于采用多种媒介来获取新闻内容(Rasmus Kleis Nielsen,Newman等,2019)[[7]]。


 


但是,对算法持负面态度者坚持认为,算法型媒介通过刺激多巴胺分泌致使用户成瘾,并“收割”用户有限的空闲时间。[[8]]更有甚者将算法分发的信息比作合法的“毒品”(Sukhodolov,Alexander P.等, 2019)[[9]]。这种时空的侵占降低了用户与其他类型媒介接触的可能,信息渠道变窄,使媒介多样性受到影响。


二是对特定信息偏听偏信。


在信息茧房中,“每个人的世界图景都只是他们所希望看到的,而不是世界本来应该拥有的样子”。基本上人们提到信息茧房时,都会涉及到信息偏食导致的视野局限,以及由此对观念、态度与决定等的影响(彭兰,2020)。[[10]]


 

二、算法


霍夫兰很早就在个体差异论中指出,由于个体在需求、信念、价值观、态度上的认知结构差异,相同的大众传播内容在受众之间会产生不同的效果,受众倾向于接触与原有态度较为一致的信息,而尽量回避那些与己见不合的信息,即所谓信息的选择性注意和理解。而认知均衡理论认为,网络带来了信息大爆炸,面对复杂纷乱的信息,人们容易感到无所是从,为缓解心理焦虑,往往根据个人喜好或既有经验进行筛选和过滤,以保持认知的平衡。技术忧虑者担心算法推荐加剧了上述心理认知,用户将信息选择的权力交给算法,算法根据用户惯习投其所好,形成所谓“过滤气泡”(filter bubble)”。


如果“过滤”仅涉及个人的娱乐爱好,倒也无可厚非。但算法忧虑者关注的重点在于,算法的“价值无涉”可能导致舆论治理的危机,尤其使得传统媒介“压舱石”功能的失灵。如今我们处于后真相时代,信息的传播速度太快,往往使得话语在前、事实在后;情绪在前、真相在后。算法的优势在于分发的效率,但将把关审核权力从人工让渡于技术,信息的真实性却难以得到保障。倘若用户不加分辨便相信推送而来的内容,无形中会助长谣言的泛滥。所谓“兼听则明,偏信则暗”,若用户长期受算法分发信息的裹挟,将会形成对某类认知与观点的长期追崇,从而降低对其他媒体尤其是主流媒体声音的信任感,影响其价值判断进而影响行为选择。


 


但一些观点认为,用户对于不同信源的信任程度并不一致,用户未必就相信自己日常接触的媒体。例如,一项跨国研究证明,在所有媒介类型中,用户对社交媒体的信任程度却是最低的(Dutton,2017)。[[11]]在面对重要的社会议题时,用户还是更依赖主流媒体和人际传播(Dubois,2015)。


[[12]]因此,有必要考察算法媒介是否真对其他信源尤其是传统媒介的信任造成影响。




Facebook、谷歌(YouTube、谷歌搜索)、推特这样的互联网科技公司为了商业利益,利用算法吸引人上瘾的产品设计,对增长的关注导致为了点击而牺牲了安全和道德底线。


《黑镜》第五季第二集的剧情正相契合,该剧正好也是网飞公司拍摄的。男主Chris Gillhaney因为在一次和女友驾车的过程中看手机社交消息,导致车祸,女友当场死亡。当他恢复过来后,他做了一个类似UBER产品的司机,每天在这家叫“碎片”的社交网站公司楼下接客。终于有一天,他接到了一个这家公司员工,绑架了他,通过要挟这个员工,逐层上接,和“碎片”公司CEO接上了电话,而他只是想告诉这个CEO,社交网站是怎样绑架了人们的生活而导致种种悲剧的。上瘾,几乎成了所有社交App追求的东西。历史上从来没有过50个左右的20-35岁的加州工程设计师做出一个决定,就能影响20亿人,影响他们做出从来没有预想到的想法或决定——当用户早上醒来,谷歌邮箱就告诉他,应该这样工作。工作、文化、生活的意义,都来自一个鬼鬼祟祟的第三方操纵。而谷歌内部,没有一个人想把邮箱做得不那么致瘾。硅谷的前50年,IBM、谷歌、英特尔都制造软件或硬件产品卖给顾客,商业模式简单而良好。但过去十年,硅谷最大的公司一直在“贩卖顾客”。互联网时代以前,人们所发明的东西,都是为大众服务的,自行车、汽车、计算器,它们是简单而中性的工具;当互联网时代兴起后,技术慢慢演变为向人类索取、引诱甚至操纵并从人身上获利的工具,已经由以人为主动型技术环境,转变为以人被动接受的、致瘾操纵型的技术环境。社交媒体不再是等在仓库里等着人去骑行的自行车,或驾驶的汽车,而是会自我学习、分析、操纵、致瘾的东西。互联网是一个喂养型的社会。这种喂养是经过大数据分析、机器学习决策后,推送给人的。互联网公司提供了大量的免费产品,FaceBook、微信、抖音、推特,大家都不为使用的社交产品付费。为这些社交App付费的是那些广告商,广告商就是社交App的顾客,而用户成了被销售的商品。这就出现了一种现象:



如果你没有花钱买产品,那你就是被卖的产品。


所以FaceBook、推特这些公司的商业模式就是,怎样让你最大程度的上瘾,花更多的时间在这些App上,付出你人生的时间。在商业上,FaceBook、推特们为了卖出更多的广告,需要给与顾客确定性,所以,商业广告卖的就是确定性,这个“确定性”就来自用户上瘾背后的“数据分析”。为了获得数据,这些公司需要监视用户去过的每个地方,每种喜好,每种行为数据,无限追踪、分析、评估,无限逐利。这些数据不用人看管,机器可以自

动深度学习,给出预判,这也是推特CEO所说,为什么这些产品成了当初他们所没想到的样子。

但高管们做了什么呢,预判人们行为轨迹的模型是他们做的,能够自动学习的程序代码是他们写的。

这一切都为了一个确定性:尽可能成功的将用户卖给广告商。Shoshana Zuboff将这个市场称为:

从未出现的、最大的人类期货市场。

过去我们交易猪肉期货、钻石期货,现在人类也成了期货。

上瘾带来的后果是,将你还没想到的部分,用算法推送给你,使它们成为你思想的一部分,还让你觉得这是自己所想的。

FaceBook、UBER等公司的高管都曾在斯坦福大学上过这样一个课程:怎么用技术劝服用户?这类行为被称为:

劝服的艺术。

这是一种极端刻意的、对人们行为进行设计的行为。用户的每一次下拉或上拉刷新,都是一次算法的重新推送。它们深入脑袋里,植入一种无意识的习惯,让人的脑袋更深层次地被编程。

FaceBook曾做过一个“海量规模蔓延实验”,测试用FaceBook上的潜意识信号来让更多人在美国中期选举投票,实验结果是:能。这种影响并不会触发用户的意识,而是一种潜意识,这意味着用户根本不会察觉。这种实验,谷歌和FaceBook每年要在用户身上做很多,用户就是实验小白鼠。各种致瘾的大数据分析、算法推送,使Z世代的年青人成为了牺牲品。


一个常见的现象是,人在孤独、无所事事的时候,总要找点什么事情做。如今这个空隙被算法推送的网络社交、短视频等占据了,人处理情绪的能力就退化了。

Cathy O’neil是一个大数据科学家。她说,算法是内嵌在代码中的观点,它并不是客观的。算法会被成功的商业模式引导、优化。

通常,在一个像FaceBook这样影响数十亿人的公司里,能明白某个程序算法工作逻辑的就几个人,相对于70多亿的人类来说,可以看成:人类失去了对算法系统的控制。这就像一个27亿人的《楚门的世界》,每个人都有自己的世界。没有人发现自己所在世界的本质真相。当然,实际上,活在“楚门的世界”里的人可能更多。在中国,类似的产品有今日头条、抖音等。

算法的每一个推送,都代表着一种商业利益。技术超越人类的第一个阶段点是超越弱点,其结果就是上瘾,上瘾会激化愤怒、激化虚荣,压制人类天性,挫伤天性。第二个点是超越人类的智慧。

算法喂养的世界里容易出现种种激化的矛盾,每个人的意见越来越不相容,因为每个人都从不同的推送里了解信息,而这些信息、知识又因为推送不同而不同。当两个因为同一个社交网站的鼓吹而同时出现在街上游行的美国人,对同一件事情产生争论的时候,他们容易发现:

哦,原来我们并没有看到相同的信息。

这种激化的分歧的一个知名例子就是“地球是平的”论,这种论调在YouTube上被推荐了几亿次,因为有的人喜欢,算法每天都在变着法地给人们推送“地球是平的”的内容,“地球是圆的”则被他们当作阴谋,而且越来越多的人相信了这种阴谋论。算法只推荐给人们感兴趣的东西,它并无道德感,它唯一的动力是商业利益,它可以一而再再而三地给人们推送虚假、阴谋论的信息。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有