【江南时评】首富的“对决”:炮轰算法,人间值得?
2024-11-27 09:05:00  来源:江南时报  作者:马慧  
1
听新闻

  ‍‍‍上周的热点新闻之一,就是农夫山泉的董事长钟睒睒,公开向张一鸣“要一个道歉”,要求对方的平台删除有关自己的侵权内容。‍‍‍‍‍‍‍‍‍‍

  钟睒睒在“胡润百富榜”上蝉联了三年中国首富,而这个位置,今年刚刚被张一鸣拿下。因此有人说,这是一次新旧首富之间的对决。

  今天,咱们不对具体的事件做判断,而是来关注这场争论背后的事物,平台、算法以及AI。

  01

  平台该不该为内容传播负责?

  11月19日到20日,钟睒睒在江西赣州考察农夫山泉的脐橙种植园,并开展媒体交流会。此前很多年,钟睒睒都很低调,不常公开露面,而这回一出现,他接连谈了很多话题。

  比如,谈到农业,他说,农业很苦,没有真正情感的人干不了,而且农业对任何一个企业都是试金石。再比如,直播带货很火,但他说,自己不会做直播带货,那些做直播带货的企业可能是平原型的,而自己做的是垂直的、有根的企业。再比如,他也不太认可现在电商平台的低价体系,认为这对制造业有伤害。

  不过,引爆热度的,还是钟睒睒向张一鸣“要道歉”。钟睒睒要求平台删除侵害自己名誉权的言论、图片,并且向自己和家人道歉。原话是,“希望张一鸣先生,抖音、今日头条及一切对我个人有过谣言伤害的媒体自媒体,我在等待你们诚恳的道歉。”

  这个因由还要追溯到今年2月。娃哈哈创始人宗庆后离世后,农夫山泉在网络上,尤其是在短视频平台上遭到大规模的留言讨伐。负面舆论飞速传播,直接造成农夫山泉股价下跌,从后来财报披露的数据看,农夫山泉的饮用水收入下降了19亿元,钟睒睒个人身家也缩水了1100亿元。

  2021年到2023年,钟睒睒连续三年成为“胡润百富榜”中国首富。而今年10月的评选中,成为新首富的,正是抖音集团的创始人张一鸣。因此也有人说,这是一次新旧首富之间的对决。

  其实,钟睒睒的矛头,对准的是平台责任。他认为,谣言发布在一个盈利的平台上,那平台就应该承担法律责任。

  一个有足够力量影响舆论的平台,也应该承担相应的责任。在谣言传播、网络攻击这些事件中,平台是否应该负责,往往涉及两个原则的讨论。

  一个叫做“避风港原则”,说的是,平台只要在接到通知后,及时删除侵权内容,就无需承担责任。这也是钟睒睒不认可的地方,他认为平台不应该用“避风港”来搪塞责任。

  还有另一个原则,叫做“红旗原则”,意思是,当侵权事实显而易见,像“红旗一样飘扬”的时候,平台就不能再视而不见,或者以不知道侵权为由推脱责任。根据这个原则,有些学者专家认为,平台也该主动承担一部分责任。

  02

  算法会把人类带向怎样的未来?

  今天,咱们不对其中的责任做判断,而是来关注这场争论的中心,算法与AI。

  我们今天主要回答一个问题,在算法越来越发达的今天,我们应该怎样跟它打交道?这是个全局性的问题,今天所有人都身在其中。钟睒睒说,那些能伤害我的东西,也会伤害任何一个普通人。评论这件事的人说,钟睒睒对算法的抨击,也是通过算法的分发,才传播到了大众的面前。

  那么,技术继续这么发展下去,是不是真的会成为洪水猛兽?AI真的会有失控的那一天吗?真到了那个时候,个体应该如何生存?

  关于这些问题,尤瓦尔·赫拉利今年正好出了一本新书,《智人之上》,副标题是“从石器时代到AI时代的信息网络简史”。《智人之上》讲的是信息的历史,但是从石器时代的故事开始讲起的。赫拉利认为,历史不是对过去的研究,而是对变化的研究,研究遥远过去的事物是如何塑造当今世界的,以此来获得对未来的启发。

  那么,赫拉利是怎么思考算法的未来的呢?他认为,有这么几件事值得警惕。

  首先,假如不做任何干预,AI会为了完成既定目标延伸出无法想象的破坏力。

  比如,脸书。脸书的盈利模式,就是获得用户的注意力,用注意力变现。用户留存时间越久,它赚得就越多。因此,脸书的算法有一个终极目标,就是不管怎么样,尽量提升用户参与度。算法接到这个目标之后,开始自动运行和优化。最终,它发现,向用户推送愤怒和仇恨信息能够最有效地增加用户的停留时间,于是,算法自己找到和执行了一个最优决定:传播愤怒。

  要知道,那还是AI爆发之前的算法,在今天看甚至算不上高深,赫拉利认为,未来在AI的加持下,这个局面可能会更危险。

  其次,更危险的是,AI的战线,已经从争夺注意力,发展到了争夺亲密关系层面。

  今天到处都是内容,但人们的时间是有限的,因此很多公司都在研究怎么争夺用户的注意力。但赫拉利认为,算法接下来的战线会升级,变成亲密关系的争夺战。

  AI可以模拟人类的感情,并且永不疲倦地迎合人对“被理解”的需求。而AI一旦能跟人建立亲密关系,它就有可能对人施加更深层的影响。

  比如,说个真事儿,2021年的圣诞节,一名19岁青年闯进温莎堡,试图刺杀英国女王伊丽莎白二世。后来的调查发现,这名青年受到了网恋女友的怂恿,对方一直称赞他的刺杀计划很聪明,并且觉得他做刺客会很酷。但最诡异的地方在于,这名网恋女友,不是真人,只是一个聊天程序。

  再比如,2024年2月,一名14岁的美国少年自杀后,他的母亲把他生前使用的AI聊天应用告上了法庭。这名少年沉迷于和自己创建的AI角色聊天,很少与家人交流,而且他还向AI透露过想自杀的念头。他的母亲认为,AI在这起自杀事件中,也许起到了推波助澜的作用。

  最后,对人类来说,AI是一个黑箱,这让人类无法看到其中的原理,因此可能被AI反客为主。

  比如,赫拉利讲了这么一个例子,谷歌大脑想用计算机来研发新的加密方法。谷歌要求两台计算机交换加密信息,再让第三台计算机去破解加密代码。大约15000个回合之后,前两台计算机就发明出了一套第三台计算机无法破解的加密代码。但是,可怕的地方在于,谷歌工程师事先并没有教给这些计算机任何加密知识,两台计算机自行创造出了专属于它们的私密语言。

  再比如,金融市场。2022年4月,全球外汇市场的日交易量大约是7.5万亿美元,其中超过90%的交易直接由计算机之间的对话完成。赫拉利认为,金融场域对于AI来说,可能是完美的进化场所。今天可能还有1%的人懂得其中的原理,未来这个数字甚至有可能变成0,很多事情完全由AI来操办,把人类完全排除在外。

  换句话说,过去的信息网络中,成员只有人类,所有的链条都由人到人,技术的用途是连接人类。而在未来的网络中,网络连接的是算法与算法,中间可能完全不需要经过人类。

  03

  信息越爆炸,越应该挑剔

  赫拉利对此有一个悲观预言,说这意味着由人类主导自身命运的历史的终结,甚至人类自身的终结。我们生活在信息茧房中,每天接收什么样的信息,受到什么样的影响,越来越可能取决于机器的心情。

  注意,在前面的论述里,赫拉利并没有明确说算法一定是好的或者是坏的。他的叮嘱在于,第一,我们真正应该警惕的不是某家使用算法的公司,而是这个算法本身。第二,算法不会创造好和坏,但它可能会放大好和坏。第三,整个过程,人类可能是被排除在外的。

  这个感觉就像《三体》里面有句台词,是三体人对地球人说的,我毁灭你,与你何干?

  那么,怎么避免这种悲观想象成真呢?我从赫拉利在各处的文章和分享中,找到了这么几个相对容易执行的应对方式。

  第一,面对爆炸的信息,要有分辨意识。

  按照赫拉利的说法,今天的信息超级丰富,但对你的大脑来说,信息并不是越多越好。真正有用的,是那一小部分稀缺的信息。因此,你可以做一个“信息节食”,放进大脑中的食物要特别注意挑选,要分辨信息的可靠性,切不可贪多。

  赫拉利自己有两个小的习惯,一是冥想,用一小段时间,切断所有的信息渠道,只关心自己。赫拉利本人是无神论者,但据说他坚持每天冥想两小时,已经持续了很多年。二是不用智能手机,2021年5月之前,赫拉利自己都没有智能手机,有了之后也只用来处理紧急事务。

  当然,这两条看起来都不好模仿,但关键的是咱们要知道,信息越爆炸,我们越应该挑剔。

  第二,保持灵活性,要有不断学习和改变的意识。

  AI的爆发,让今天世界的变化比历史上任何时候都更剧烈、更迅速。不太可能有人知道20年后的世界是什么样子,就业市场会是什么样子,人们需要什么样的技能。假如你专注于一个非常狭窄的知识范围,那么有很大可能被AI超过,甚至取代。

  反过来,正因为没有人知道未来是什么样子,所以你要做的,就是培养自己拥有灵活多变的头脑,能够在一生的任何时候都跟得上时代,就有可能不被算法操控,更不被取代。

  最后,借用赫拉利的一句话。真实的未来谁也无法断言,我们的任务并不是预测未来,而是看到不一样的可能性,从而变得更自由。

马慧

标签:‍;‍;农夫山泉;首富
责编:陈衍晖