“反复评论机票太贵了买不起之后,到手票价竟能便宜一半。”媒体近日报道,不少年轻人晒攻略,分享如何对抗越用越贵、越看越烦的算法。年轻人通过重置账号、评论操控等方式塑造新的消费身份,躲避算法对个人行为与喜好的追踪与判断,这一行为被称为“算法驯化”。
互联网时代,个人信息和数据成为平台重要资产,消费习惯也被透明化,而消费者往往处于弱势地位,得不到相应保护,甚至被杀熟。这本质上是信息不对称下的隐性剥削。现在,年轻人反向驯化大数据杀熟,实际上是一种被动的自我保护。然而,能够明显看到重置账号、评论操控无法久续,且可能带来新的偏差,似乎并不能从根本上解决问题,因此需要政策监管部门为博弈提供公平的制度保障。
中央网信办等四部门日前曾联合发文,严禁利用算法实施大数据杀熟。可实际上,当前监管政策与技术发展并不匹配,导致平台之算法运用有很大自由度,它可以狡猾地隐藏价格歧视,杀熟其实挺难界定,即便监管再严也总会有漏网之鱼。怎么办呢?
再说回“算法驯化”,被动自我保护用了主动博弈来完成,用来对抗平台不公平定价策略的恰恰也是平台规则,尽管非长久之计,却也是消费者当下能采取的有效手段之一。这种博弈,为相关监管政策完善提供了民意基础,或许也可以成为实践案例,为优化监管之技术手段提供参考。
是的,技术手段应用必不可少,消费者也需要更多工具来识别并避免不公平的算法定价。倘若要恢复交易公平性和透明度,得从根本上促使平台优化算法逻辑,通过强化技术支持完善数据审计和透明度机制,才能实现期待中的多方利益平衡。
刘薇