文| 侃见财经
算法正在裹挟每一个人。
近日,农夫山泉创始人钟睒睒在江西赣州参观考察当地脐橙产业园时,谈及今年上半年遭遇的网络暴力、做绿瓶水背后的故事以及对网络直播的看法,信息量很大。
期间,钟晱晱抛出的话语足以称得上“语出惊人”了,尤其是对“网络暴力”和“网络算法”两个话题的表达,在全网持续发酵,引发热议。
今年3月,农夫山泉和他本人受到了自公司成立以来最为严重的一次网络攻击。他认为,这场网络暴力的背后是算法遭到利用,就是有人利用了算法,屏蔽了多角度来的消息。
“当你打开这些平台,看到的总是同样的内容。有人在利用技术手段,这些人造成的伤害远远超过普通人所造成的伤害。需要社会去遏制,需要政府站出来主持公平。”钟睒睒认为。
他还质疑,在谣言中,是否都需要一个反派角色来制造对立,正如好莱坞电影中常见的那样?如果缺乏这样的对立,一些平台似乎难以持续吸引流量,如果是这样,他认为,这样的平台是极其恶劣的。
“算法的恶是有知识的人生产的,不是底层老百姓,老百姓仍然是受害者,那些骂钟睒睒的人不是既得利益者,他们也是受害者,他们因为不了解真相而怀有仇恨,实际上,我们需要的是良好的营商环境和对企业家的尊重。”钟睒睒说。
他在访谈中甚至直接喊话字节跳动创始人张一鸣:“希望张一鸣先生,抖音、今日头条及一切对我个人有过谣言伤害的,我在等待你们诚恳地道歉!我在等待。”
钟睒睒在演讲中直言:“请停止对一个中国公民的侵害!”
算法之“恶”
算法想要“读懂”用户一点都不难,以抖音为首的短视频平台的推荐算法会根据用户的行为数据(如观看历史、点赞、评论、分享等)来分析用户的喜好,并据此推荐相关的内容。
这种算法推荐逻辑不仅提高了用户的满意度和留存时长,还直接增加了平台的流量和商业价值。
这是人性使然,算法正在“操控”人性。
算法就如同一头长着火眼金睛的怪兽,它环伺在侧,一味揣摩和取悦用户,通过精准的计算和推送,使得用户的信息获取越来越归从于个人的喜好,而把与自己兴趣和观念相左的信息排除在外,用户被引入偏见狭隘的信息领域。
以抖音等短视频平台,依赖算法推荐进行短视频内容分发,无数用户正不自知地陷入“信息茧房”。
张一鸣曾有一句名言:“算法没有价值观”。
诚然,算法没有情绪、立场和价值观,但控制算法或者设计算法的人会有。
算法设计者会受到个人立场的影响,将携带的主观价值判断和行为决策嵌入相关程序中。
在“流量为王”的传播环境中,算法设计者会倾向于将更容易斩获用户关注的低俗劣质信息赋予更多的权重。
随着算法与外界环境交互,谣言、负面信息都会被利用,推荐给用户,形成反馈循环,进一步强化原有社会偏见。这使得不同立场之间的隔阂、对立、误解与撕裂进一步加剧。
以农夫山泉和钟睒睒为例,在算法推荐下,将红色瓶盖关联日本国旗、“农夫山泉的山是富士山”,成为流量盛宴。
只要短视频标签带上“农夫山泉”“钟睒睒”,便能被算法推荐给更多用户,获得流量。
大量谣言、阴谋论的视频被算法疯狂推荐,直接裹挟了用户的情绪和价值观。
在算法的推波助澜下,这场网络暴力也对农夫山泉的业绩造成直接影响。
农夫山泉的半年报显示,2024年的1月份和2月份,集团包装饮用水产品销售情况良好,该两个月的销售收益较去年同期增长19.0%。
但自今年2月底开始,网络上出现了大量对农夫山泉及钟睒睒的舆论攻击和恶意诋毁,对其品牌及销售造成了巨大的负面影响。2024年上半年,集团录得包装饮用水产品收益为人民币85.31亿元,较去年同期下降18.3%。
由谁负责?
那么,在算法推波助澜下的谣言传播、网络暴力,互联网平台究竟是否该承担责任?
钟睒睒认为,“任何一项在盈利平台上发布的谣言,平台都应该承担法律责任,这就像我一个制造企业,生产假货和销售假货同罪。”
“谁受益,谁负责”的逻辑线非常清晰,算法加持下,流量生意的最大受益者无疑是平台。那么,平台就该对谣言、网络暴力负责。
钟睒睒强调称:不要以任何所谓“避风港原则”进行搪塞。
“避风港原则”简单来说就是,网络平台在接到通知后及时删除侵权内容就无需承担责任,否则就要承担责任。
其实,法律除了“避风港原则”外,还有一项原则,被专家学者们称之为“红旗原则”。
“红旗原则”是指,当侵权事实显而易见,像“红旗一样飘扬”时,网络服务提供者不能假装看不见,或者以不知道侵权为由推脱责任。在这种情形下,即使权利人没有发出删除通知,网络服务提供者也应当承担侵权责任。
有法律人士解释称,“避风港原则中的‘通知规则’和红旗原则中的‘知道规则’在司法适用上是并列关系。”
复盘对农夫山泉、钟睒睒的网络暴力,是完全符合红旗原则的。作为平台,通过算法将谣言短视频推荐给大量用户,甚至形成刷屏之势,谣言完全已经像“红旗一样飘扬”。
更恶劣的是,对于制造谣言的短视频,平台甚至还给予相关话题的高流量内容的现金奖金,进一步刺激了录制谣言视频的动力。
“信息茧房”愈演愈烈
芝加哥大学教授凯斯•R•桑斯坦在其著作《信息乌托邦》中提出“信息茧房”的概念,即“因公众自身的信息需求并非全方位的,公众只注意自己选择的东西和使自己愉悦的通信领域,久而久之,会将自身桎梏于像蚕茧一般的‘茧房’中。”
很显然,这种算法推荐机制加速了互联网“信息茧房”的构建。
在算法持续迭代,即便是同一短视频内容,不同用户看到的评论区都是“可控”的,进一步裹挟了用户观点。
评论区本应是不同观点自由表达的场所,但算法操控下,每个用户优先看到的是与自己意见一致的同质化评论,这不仅限制了用户的认知,还强化了偏见。使得不同立场之间的隔阂、对立、误解与撕裂进一步加剧。
放任算法,我们每一个人都将被推入“信息茧房”的深渊。
结语
“技术中性”不能等同于“价值中性”,不能让价值观成为算法技术的附庸。
算法推荐,毋庸置疑是一个价值观问题,技术可以没有价值观,但是作为技术发明者、操纵者的人,不可能没有价值观。
近年来,在算法的推波助澜下,网络暴力层出不穷,甚至造成了自寻短见、坠楼等人间惨剧。
针对算法推荐引发的诸多乱象,相关监管部门频频依法重拳出击——约谈、处罚整改、永久下架、暂停算法推荐功能等手段多措并举。
算法推荐不仅是价值观问题,还是法律问题,需要纠正“流量为王”的价值观,用积极健康、符合公序良俗的价值观指引算法推荐的设计和应用。
算法的应用不仅需要技术自身的中立性,还需要法律和社会规范来约束其背后的人和平台公司。