新葡萄√娱乐官网正规吗知乎

正在阅读:

算法的“毒泡泡”,当真可以戒掉吗?

扫一扫下载界面新闻APP

算法的“毒泡泡”,当真可以戒掉吗?

想要逃离乃至对抗算法,似乎并不是一件容易的事情。

文|Alter聊科技 张贺飞

编辑|沈洁

关掉个性化推荐功能后,林陌陷入了深深的焦虑。

“以前打开今日头条,首页里总会有很多自己感兴趣的内容,虽然觉得自己的可能被算法裹挟了,但真的节省了很多不必要的信息筛选。现在关掉了个性化推荐,满屏都是和自己无关的垃圾信息。”

《互联网信息服务算法推荐管理规定》正式实施后,不少APP上线了算法关闭按钮,允许用户在后台关掉“个性化推荐”。向来对算法推荐有微辞的林陌,第一时间就关掉了多个APP的推荐功能,但结果并不是预想中的那般。

“本来可以在工作间隙刷刷喜欢的短视频或图文内容,可在关掉算法推荐后,内容的匹配度大不如前,在屏幕上下滑好几页都找不到喜欢的内容,碎片化时间都浪费在了找内容上,而且广告推荐一个没少。”

像林陌这样的用户显然不在少数,长期生活在算法编织的环境中,本能上有一种被算法支配的恐惧,却也在无形中养成了对算法的依赖,想要逃离乃至对抗算法,似乎并不是一件容易的事情。

01 “有毒”的算法

尼尔·波兹曼曾在《技术垄断》一书中断言:每一种新技术都既是包袱又是恩赐,不是非此即彼的结果,而是利弊同在的产物。

算法的出现、应用和演变,准确地佐证了波兹曼的断言。算法本质上是一种分析、预测的数学技术,强调的是相关性,可以用来提高信息和商品推荐的准确性,也有利于降低用户的时间成本。然而法律监管和用户意识的“滞后”,再加上算法和互联网商业模式的深度捆绑,逐渐滋生了许多乱象。

最早被讨论的是“信息茧房”。这是哈佛大学法学院教授凯斯·桑斯坦在《网络共和国》中提出的概念,公众在信息传播过程中会过度偏向自身感兴趣的内容,减少和其他信息的接触,不知不觉间为自己制造了一个“信息茧房”,渐渐沉浸在一个越来越窄的世界,甚至产生一些极端的认知。

桑斯坦提出“信息茧房”概念的时间是2006年,可由于概念本身过于学术化,加上“算法推荐”在那个时候还是一个相对陌生的词汇,并未被太多人所关注。直到移动互联网浪潮的到来,一些创业者开始用算法去讨好用户,不断猜测并推荐用户偏好的内容,以增强所谓的用户粘性和用户时长,“信息茧房”逐渐成了一种常态化的社会现象。

但算法的弊端被大多数人声讨的导火索,却是和用户利益直接相关的大数据杀熟。电商平台、出行APP、外卖平台等都被曝出大数据杀熟的案例,系统会根据用户标签推送不同的折扣,同一件商品给新用户比较低的价格,而老用户的价格要明显高一些。北京消费者协会曾对“杀熟”问题进行调查问卷,过半用户表示经历过“大数据杀熟”。

不过算法在舆论场上的公开抨击,还要等到“数据隐私”的发酵。刚刚在社交网站上聊到某件商品,转身就出现在了电商平台的推荐页面,甚至有网友吐槽自己的电话内容可能被电商APP监听。个中的因果关系其实并不难解释,算法的训练离不开数据原料,用户的浏览记录、停留时长、兴趣爱好等都被平台偷偷记录,而为了算法推荐的准确性,一些平台不无越界侵犯用户隐私的嫌疑。

借用一个有些阴谋论色彩的说法:就像是一个温水煮青蛙的过程,先用算法推荐构建了一张张封闭的“信息茧房”,生活在“茧房”的用户成为一茬茬被收割的对象,至于收割的方式,或是大数据杀熟,或是监听用户隐私……至此,算法不再是“没有价值观”的技术名词,开始和“毒”字挂了钩。

02 “靴子”终落地

当算法被越来越多人诟病,一步步走向污名化的时候,对平台的算法推荐进行治理的呼吁愈演愈烈,监管的靴子陆续落地。

前面提到的《互联网信息服务算法推荐管理规定》就是相应的产物。由网信办在2021年8月份提出,并于2022年3月1日正式施行。“管理规定”的矛头直指算法推荐功能,提出算法推荐服务提供者应当向用户提供不针对个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。

截止到目前,不少互联网大厂已经响应号召,微信、抖音、淘宝、美团、百度、微博、小红书等热门APP,均上线了个性化内容推荐和个性化广告推荐的关闭按钮,只是在执行力度上仍有所保留。

比如网信办规定平台要在显著位置上线算法关闭键,现实中很多APP将这一功能隐藏的非常深。以今日头条为例,想要关掉“个性化推荐”功能,需要打开APP、点击“我的”、找到“隐私设置”、打开“个性化推荐设置”、关掉“个性化推荐”等至少5个步骤,关闭入口隐藏的比较深且操作繁琐。

即便监管的靴子已经落地,而且留下了近7个月的整改时间,不少APP应付监管的态度却非常微妙,乃至存在对抗监管的可能。毕竟算法推荐早已是许多平台的流量密码,一旦用户关掉“个性化推荐”,可能让用户的打开频率变低、停留时长变短,进而影响平台赖以生存的广告收入。

于是一些平台并未对非算法推荐进行产品优化,采取了“一刀切”的产品逻辑,用户在关掉“个性化推荐”后,几乎找不到符合兴趣的内容,本质上在逼迫用户二选一:要么牺牲掉用户体验,要么乖乖回归算法推荐。

这还只是触及了算法推荐的蛋糕,倘若进一步涉及到商品推荐、隐私保护等环节,不排除一些平台会给出更加狡诈的应对策略。或许这才是“技术霸凌”的题中之意,不只是平台利用技术进行了多少越界行为,还涉及到对用户行为的绑架,想要逃离“算法陷阱”,必须要付出足够大的代价。

让人沮丧的是,算法规则在时间的推移下越来越复杂,对大部分用户而言就是一个看不透的“黑箱”,无法理解算法的运作原理,也不知晓有哪些滥用的行为。可能只是在某个短视频上多停留了几秒,只是打开某个商品链接忘记关闭,就会被平台记录、利用算法分析,无形中编织了一张逃不掉的网。

至少在监管对“算法推荐”动刀时,已经验证了一个不太乐观的事实:大多数用户很难走出算法的“围城”,看似被赋予了拒绝的权利,想要行使权力的难度和代价,却会让大多数人放弃改变的想法。

03 戒不掉的“瘾”

正如德国存在主义哲学家雅斯贝尔斯的观点:“技术仅是一种手段,它本身并无善恶,一切取决于人从中造出什么,它为什么目的而服务于人。”

这种“技术无罪”的理念,在国内衍生出了“算法没有价值观”的结论,同时也成了一些人为算法推荐“洗地”的理论根源。譬如“信息茧房”的话题引发公开讨论时,某知名自媒体在文章中赫然写道:“如果说我们真的需要一条摆脱所谓信息茧房的技术之路,算法显然是修路者之一,它肯定不是路障。”

其中的底层逻辑往往建立在普罗大众的“自律”上,如果你不想被“信息茧房”控制,只要主动跳出自己的“舒适圈”就可以,主动去接触那些不愿接触的信息,而非把责任全部归咎于外部的客观原因。

此类观点看似难以辩驳,却选择性忽略了另一个既定现实:每每提到移动互联网时代的创始人,“洞悉人性”可以说是时常出现的一个评价,张一鸣、黄峥等都曾被媒体这般评论。折射到算法诱发的一系列问题上,那些“始作俑者”所擅长的,正是费尽心思地让用户上瘾,然后毁掉你的自律。

普林斯顿大学心理学博士亚当·奥尔特,在《欲罢不能》中特意解释了互联网的种种“上瘾”行为,并将其细分为6个要素,即预设可望而不可即的诱人目标、提供不可抗拒的积极反馈、毫不费力的让用户感到进步、给予逐渐升级的挑战、营造未完成的紧张感、增加令人痴迷的社会互动。

如果说奥尔特是从产品经理的角度,透析了游戏、短视频等产品引导用户上瘾的原理,著名战略问题专家布热津斯基则从上帝视角提出了著名的奶头乐理论:世界上80%的人口将因生产力提升被边缘化,为了安慰社会中“被遗弃”的人,方法之一就是让企业大批量制造“奶头”——让令人沉迷的消遣娱乐和充满感官刺激的产品填满人们的生活,进而沉浸在“快乐”中不知不觉地丧失思考能力。

直接将算法视为奶头乐理论的“帮凶”,无疑有一些武断,可毋庸置疑的事实在于,算法强化了用户的即时满足心理,放大了多巴胺的刺激和诱惑,让大多数用户渐渐适应了“娱乐至死”的状态。

令人遗憾的地方正在于此,极大多数用户不会主动克制自己,习惯性地接受算法的推荐内容,让算法收集自己的数据,无意识地告诉算法哪些是自己喜欢的内容,最终被框定在一个看不见的“舒适区”中。即使监管层面已经做出了反应,为用户打开了逃离算法的大门,可想让用户靠自律、靠隐私意识的觉醒拒绝成瘾,并不是一条可行的路径,解铃的钥匙仍然掌握在系铃人手中。

04 治理的“命门”

并非是想挑起用户和平台间的对立,在“算法有毒”的现实语境下,需要“自律”的恰恰是手握算法行使“权力”的互联网平台。

英国学者杰米·萨斯坎德在《算法的力量》一书中提到了这样一幕:互联网公司内部几乎没有工程师会思考其工作导致的系统性后果,他们中的大部分只需要解决某些分散的技术问题就可以交差了。

而这样的情况绝非是少数,每当舆论开始声讨算法的原罪时,涉及其中的互联网公司都会抛出“技术无罪”的挡箭牌。原因离不开算法运作的“黑箱”机制,即工程师负责提供数据、模型和架构,算法就会给出答案,对中间的运作过程和原理可能并不清楚,甚至工程师自己都觉得是被误解的一方。

然而早在几年前的时候,阿里云的程序员就曾在媒体采访中骄傲地宣称:“我们现在已经能够做到全中国几亿人口的淘宝界面都是不一样的,而且几乎做到了秒级更新。”同样存在算法的不可解释性,互联网大厂们乐见算法产生的正向结果,却不愿对算法的过程和结果负起相应责任。

2020年上线的纪录片《监视资本主义:智能陷阱》,用一句话巧妙地阐述了其中的症结:“如果你没有花钱买产品,那么你就是待价而沽的商品。”消费者无须为算法提供的服务直接付费,可隐形的价码早已被标注。

现实中的案例证明,互联网企业并非没有矫正的空间。早在2019年的Google I/O上,谷歌就公布了一项名为概念激活向量测试(TCAV)的技术,对算法偏见、算法歧视等问题进行技术上的监督。

归根结底还是商业利益和用户权益的平衡,“不作为”偏偏是大多数企业的首要选择。不只是关闭“个性化推荐”入口上的遮遮掩掩,在用户增长进入瓶颈时,不少平台刻意利用算法“杀时间”,抖音、快手、B站乃至知乎都有人为制造“时间黑洞”的嫌疑,算法在某种程度上成了“算计”的工具。

可把眼光稍微放长远一些,所有的商业根基都离不开用户信任。由于企业的趋利、监管的滞后、个体的默许,已然搅起了信息茧房、大数据杀熟等舆论漩涡,何尝不是用户试图对抗算法的一种外在表现?技术固然有着两面性,身处其中的平台方却有能力进行取舍,适当限制算法应用的边界,调整想要的“目标函数”。

能否唤醒互联网平台的“良知”,才是算法治理的“命门”所在。还是以针对算法推荐的整改为例为例,基于算法对用户行为的“锁定效应”,让用户在算法推荐有无间进行二选一是一种策略;对算法进行场景化、精细化的治理,站在用户的立场上给出更好的解决方案也是一种策略。

但愿一些互联网平台能够站在历史的正确一边。

注:林陌为化名。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

算法的“毒泡泡”,当真可以戒掉吗?

想要逃离乃至对抗算法,似乎并不是一件容易的事情。

文|Alter聊科技 张贺飞

编辑|沈洁

关掉个性化推荐功能后,林陌陷入了深深的焦虑。

“以前打开今日头条,首页里总会有很多自己感兴趣的内容,虽然觉得自己的可能被算法裹挟了,但真的节省了很多不必要的信息筛选。现在关掉了个性化推荐,满屏都是和自己无关的垃圾信息。”

《互联网信息服务算法推荐管理规定》正式实施后,不少APP上线了算法关闭按钮,允许用户在后台关掉“个性化推荐”。向来对算法推荐有微辞的林陌,第一时间就关掉了多个APP的推荐功能,但结果并不是预想中的那般。

“本来可以在工作间隙刷刷喜欢的短视频或图文内容,可在关掉算法推荐后,内容的匹配度大不如前,在屏幕上下滑好几页都找不到喜欢的内容,碎片化时间都浪费在了找内容上,而且广告推荐一个没少。”

像林陌这样的用户显然不在少数,长期生活在算法编织的环境中,本能上有一种被算法支配的恐惧,却也在无形中养成了对算法的依赖,想要逃离乃至对抗算法,似乎并不是一件容易的事情。

01 “有毒”的算法

尼尔·波兹曼曾在《技术垄断》一书中断言:每一种新技术都既是包袱又是恩赐,不是非此即彼的结果,而是利弊同在的产物。

算法的出现、应用和演变,准确地佐证了波兹曼的断言。算法本质上是一种分析、预测的数学技术,强调的是相关性,可以用来提高信息和商品推荐的准确性,也有利于降低用户的时间成本。然而法律监管和用户意识的“滞后”,再加上算法和互联网商业模式的深度捆绑,逐渐滋生了许多乱象。

最早被讨论的是“信息茧房”。这是哈佛大学法学院教授凯斯·桑斯坦在《网络共和国》中提出的概念,公众在信息传播过程中会过度偏向自身感兴趣的内容,减少和其他信息的接触,不知不觉间为自己制造了一个“信息茧房”,渐渐沉浸在一个越来越窄的世界,甚至产生一些极端的认知。

桑斯坦提出“信息茧房”概念的时间是2006年,可由于概念本身过于学术化,加上“算法推荐”在那个时候还是一个相对陌生的词汇,并未被太多人所关注。直到移动互联网浪潮的到来,一些创业者开始用算法去讨好用户,不断猜测并推荐用户偏好的内容,以增强所谓的用户粘性和用户时长,“信息茧房”逐渐成了一种常态化的社会现象。

但算法的弊端被大多数人声讨的导火索,却是和用户利益直接相关的大数据杀熟。电商平台、出行APP、外卖平台等都被曝出大数据杀熟的案例,系统会根据用户标签推送不同的折扣,同一件商品给新用户比较低的价格,而老用户的价格要明显高一些。北京消费者协会曾对“杀熟”问题进行调查问卷,过半用户表示经历过“大数据杀熟”。

不过算法在舆论场上的公开抨击,还要等到“数据隐私”的发酵。刚刚在社交网站上聊到某件商品,转身就出现在了电商平台的推荐页面,甚至有网友吐槽自己的电话内容可能被电商APP监听。个中的因果关系其实并不难解释,算法的训练离不开数据原料,用户的浏览记录、停留时长、兴趣爱好等都被平台偷偷记录,而为了算法推荐的准确性,一些平台不无越界侵犯用户隐私的嫌疑。

借用一个有些阴谋论色彩的说法:就像是一个温水煮青蛙的过程,先用算法推荐构建了一张张封闭的“信息茧房”,生活在“茧房”的用户成为一茬茬被收割的对象,至于收割的方式,或是大数据杀熟,或是监听用户隐私……至此,算法不再是“没有价值观”的技术名词,开始和“毒”字挂了钩。

02 “靴子”终落地

当算法被越来越多人诟病,一步步走向污名化的时候,对平台的算法推荐进行治理的呼吁愈演愈烈,监管的靴子陆续落地。

前面提到的《互联网信息服务算法推荐管理规定》就是相应的产物。由网信办在2021年8月份提出,并于2022年3月1日正式施行。“管理规定”的矛头直指算法推荐功能,提出算法推荐服务提供者应当向用户提供不针对个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。

截止到目前,不少互联网大厂已经响应号召,微信、抖音、淘宝、美团、百度、微博、小红书等热门APP,均上线了个性化内容推荐和个性化广告推荐的关闭按钮,只是在执行力度上仍有所保留。

比如网信办规定平台要在显著位置上线算法关闭键,现实中很多APP将这一功能隐藏的非常深。以今日头条为例,想要关掉“个性化推荐”功能,需要打开APP、点击“我的”、找到“隐私设置”、打开“个性化推荐设置”、关掉“个性化推荐”等至少5个步骤,关闭入口隐藏的比较深且操作繁琐。

即便监管的靴子已经落地,而且留下了近7个月的整改时间,不少APP应付监管的态度却非常微妙,乃至存在对抗监管的可能。毕竟算法推荐早已是许多平台的流量密码,一旦用户关掉“个性化推荐”,可能让用户的打开频率变低、停留时长变短,进而影响平台赖以生存的广告收入。

于是一些平台并未对非算法推荐进行产品优化,采取了“一刀切”的产品逻辑,用户在关掉“个性化推荐”后,几乎找不到符合兴趣的内容,本质上在逼迫用户二选一:要么牺牲掉用户体验,要么乖乖回归算法推荐。

这还只是触及了算法推荐的蛋糕,倘若进一步涉及到商品推荐、隐私保护等环节,不排除一些平台会给出更加狡诈的应对策略。或许这才是“技术霸凌”的题中之意,不只是平台利用技术进行了多少越界行为,还涉及到对用户行为的绑架,想要逃离“算法陷阱”,必须要付出足够大的代价。

让人沮丧的是,算法规则在时间的推移下越来越复杂,对大部分用户而言就是一个看不透的“黑箱”,无法理解算法的运作原理,也不知晓有哪些滥用的行为。可能只是在某个短视频上多停留了几秒,只是打开某个商品链接忘记关闭,就会被平台记录、利用算法分析,无形中编织了一张逃不掉的网。

至少在监管对“算法推荐”动刀时,已经验证了一个不太乐观的事实:大多数用户很难走出算法的“围城”,看似被赋予了拒绝的权利,想要行使权力的难度和代价,却会让大多数人放弃改变的想法。

03 戒不掉的“瘾”

正如德国存在主义哲学家雅斯贝尔斯的观点:“技术仅是一种手段,它本身并无善恶,一切取决于人从中造出什么,它为什么目的而服务于人。”

这种“技术无罪”的理念,在国内衍生出了“算法没有价值观”的结论,同时也成了一些人为算法推荐“洗地”的理论根源。譬如“信息茧房”的话题引发公开讨论时,某知名自媒体在文章中赫然写道:“如果说我们真的需要一条摆脱所谓信息茧房的技术之路,算法显然是修路者之一,它肯定不是路障。”

其中的底层逻辑往往建立在普罗大众的“自律”上,如果你不想被“信息茧房”控制,只要主动跳出自己的“舒适圈”就可以,主动去接触那些不愿接触的信息,而非把责任全部归咎于外部的客观原因。

此类观点看似难以辩驳,却选择性忽略了另一个既定现实:每每提到移动互联网时代的创始人,“洞悉人性”可以说是时常出现的一个评价,张一鸣、黄峥等都曾被媒体这般评论。折射到算法诱发的一系列问题上,那些“始作俑者”所擅长的,正是费尽心思地让用户上瘾,然后毁掉你的自律。

普林斯顿大学心理学博士亚当·奥尔特,在《欲罢不能》中特意解释了互联网的种种“上瘾”行为,并将其细分为6个要素,即预设可望而不可即的诱人目标、提供不可抗拒的积极反馈、毫不费力的让用户感到进步、给予逐渐升级的挑战、营造未完成的紧张感、增加令人痴迷的社会互动。

如果说奥尔特是从产品经理的角度,透析了游戏、短视频等产品引导用户上瘾的原理,著名战略问题专家布热津斯基则从上帝视角提出了著名的奶头乐理论:世界上80%的人口将因生产力提升被边缘化,为了安慰社会中“被遗弃”的人,方法之一就是让企业大批量制造“奶头”——让令人沉迷的消遣娱乐和充满感官刺激的产品填满人们的生活,进而沉浸在“快乐”中不知不觉地丧失思考能力。

直接将算法视为奶头乐理论的“帮凶”,无疑有一些武断,可毋庸置疑的事实在于,算法强化了用户的即时满足心理,放大了多巴胺的刺激和诱惑,让大多数用户渐渐适应了“娱乐至死”的状态。

令人遗憾的地方正在于此,极大多数用户不会主动克制自己,习惯性地接受算法的推荐内容,让算法收集自己的数据,无意识地告诉算法哪些是自己喜欢的内容,最终被框定在一个看不见的“舒适区”中。即使监管层面已经做出了反应,为用户打开了逃离算法的大门,可想让用户靠自律、靠隐私意识的觉醒拒绝成瘾,并不是一条可行的路径,解铃的钥匙仍然掌握在系铃人手中。

04 治理的“命门”

并非是想挑起用户和平台间的对立,在“算法有毒”的现实语境下,需要“自律”的恰恰是手握算法行使“权力”的互联网平台。

英国学者杰米·萨斯坎德在《算法的力量》一书中提到了这样一幕:互联网公司内部几乎没有工程师会思考其工作导致的系统性后果,他们中的大部分只需要解决某些分散的技术问题就可以交差了。

而这样的情况绝非是少数,每当舆论开始声讨算法的原罪时,涉及其中的互联网公司都会抛出“技术无罪”的挡箭牌。原因离不开算法运作的“黑箱”机制,即工程师负责提供数据、模型和架构,算法就会给出答案,对中间的运作过程和原理可能并不清楚,甚至工程师自己都觉得是被误解的一方。

然而早在几年前的时候,阿里云的程序员就曾在媒体采访中骄傲地宣称:“我们现在已经能够做到全中国几亿人口的淘宝界面都是不一样的,而且几乎做到了秒级更新。”同样存在算法的不可解释性,互联网大厂们乐见算法产生的正向结果,却不愿对算法的过程和结果负起相应责任。

2020年上线的纪录片《监视资本主义:智能陷阱》,用一句话巧妙地阐述了其中的症结:“如果你没有花钱买产品,那么你就是待价而沽的商品。”消费者无须为算法提供的服务直接付费,可隐形的价码早已被标注。

现实中的案例证明,互联网企业并非没有矫正的空间。早在2019年的Google I/O上,谷歌就公布了一项名为概念激活向量测试(TCAV)的技术,对算法偏见、算法歧视等问题进行技术上的监督。

归根结底还是商业利益和用户权益的平衡,“不作为”偏偏是大多数企业的首要选择。不只是关闭“个性化推荐”入口上的遮遮掩掩,在用户增长进入瓶颈时,不少平台刻意利用算法“杀时间”,抖音、快手、B站乃至知乎都有人为制造“时间黑洞”的嫌疑,算法在某种程度上成了“算计”的工具。

可把眼光稍微放长远一些,所有的商业根基都离不开用户信任。由于企业的趋利、监管的滞后、个体的默许,已然搅起了信息茧房、大数据杀熟等舆论漩涡,何尝不是用户试图对抗算法的一种外在表现?技术固然有着两面性,身处其中的平台方却有能力进行取舍,适当限制算法应用的边界,调整想要的“目标函数”。

能否唤醒互联网平台的“良知”,才是算法治理的“命门”所在。还是以针对算法推荐的整改为例为例,基于算法对用户行为的“锁定效应”,让用户在算法推荐有无间进行二选一是一种策略;对算法进行场景化、精细化的治理,站在用户的立场上给出更好的解决方案也是一种策略。

但愿一些互联网平台能够站在历史的正确一边。

注:林陌为化名。

本文为转载内容,授权事宜请联系原著作权人。