算法关闭键上线,我们需要怎样的“个性化服务”
摘要:用户只能被动地接受算法推荐,被动地让算法收集自己的数据,被动地让算法告诉自己什么是自己需要的、喜欢的服务与信息,最终被框在“舒适区”中难以逃脱。
如今,“算法”早已经成为大众耳熟能详的名词。随着网络与生活的融合程度日益深化,无论是社交媒体的广告推送,还是电商平台上的购物推荐,背后都离不开算法的支持。互联网企业通过抓取用户数据,依照用户画像提供定制化信息、娱乐、消费服务,一方面为用户提供了更加“个性化”的使用体验,另一方面也为企业带来了更多利润,看起来似乎是“双赢”的好事。然而近年来,公众对企业抓取用户隐私的的担忧日渐加深,“大数据杀熟”“信息茧房”等次生问题,也引发舆论关注。
近日,抖音、微信、淘宝等多款App均已上线算法关闭键,允许用户在后台一键关闭“个性化推荐”的功能。关闭推荐后,App将不再根据用户的浏览记录生成推荐内容或广告。这是《互联网信息服务算法推荐管理规定》正式实施后,互联网企业自查自纠的重大举措之一。政府与社会监管的介入,既能让公众看不见、摸不着的算法“黑箱”透明化,也让算法更好地为大众利益服务。
互联网的高速发展,为大众带来了前所未有的海量信息,个人如何在不断涌入的庞大信息中收集自己需要的部分,是互联网时代的独特难题。算法推荐能根据用户喜好与需求精准提供服务,为用户节约搜集、筛选信息的时间。从这个角度上看,算法并非洪水猛兽,有其存在的独特价值。
然而,问题的症结在于,互联网企业的算法推荐机制基本都是“黑箱”。在应用过程中,用户既不能选择是否使用这项服务,也无从得知算法收集了什么个人信息,更不知道算法推荐的逻辑与规则是什么。许多人在不知情的情况下被收集大量隐私,甚至因此被“宰”。此外,算法推荐与互联网服务牢牢绑定,使得在很多情况下,拒绝算法等于拒绝服务,这也剥夺了消费者的自主选择权,让他们只能被迫接受算法对隐私的窥视,坐视自己的合法权益受到损害。
算法一旦被过度滥用,不仅会侵害个人权益,也可能对公共空间造成负面影响。当社交媒体、新闻平台完全按照个人喜好筛选并推荐信息时,“信息茧房”也会加速形成。用户终日被包裹在同类信息中,与同立场的人抱团而拒斥其他信息,自然会成为一个个“孤岛”,最后导致网络不再是交流沟通的桥梁,而沦为不同群体互相攻讦的空间。
算法推荐造成的困境,让我们不得不深入思考“个性化”的内涵。今天的“个性化”服务,本质上是一种被动的“个性化”。用户只能被动地接受算法推荐,被动地让算法收集自己的数据,被动地让算法告诉自己什么是自己需要的、喜欢的服务与信息,最终被框在“舒适区”中难以逃脱。在这样的“个性化”之下,算法推荐变成了一种“驯养”用户的手段。而用户真正需要的“个性化”,应该是主动的“个性化”。用户应该能主动选择是否使用算法,在了解算法推荐规则与逻辑的前提下,定制自己需要的服务,并且知道算法推荐筛选掉了什么内容,以此突破“信息茧房”,接触不一样的世界。归根结底,算法推荐应该成为用户的工具,而不是套在用户头上的枷锁。
1987年9月20日,中国首次成功发送电子邮件,它的内容是“越过长城,走向世界”。互联网科技的进步应该让人更便利、更自主、更自由,让企业在算法上的设置更加透明,赋予用户更充分的选择权和知情权,才能让真正的“个性化”成为互联网的未来。
责任编辑:付琳
查看心情排行你看到此篇文章的感受是:
版权声明:
1.凡本网注明“来源:驻马店网”的所有作品,均为本网合法拥有版权或有权使用的作品,未经本网书面授权不得转载、摘编或利用其他方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:驻马店网”。任何组织、平台和个人,不得侵犯本网应有权益,否则,一经发现,本网将授权常年法律顾问予以追究侵权者的法律责任。
驻马店日报报业集团法律顾问单位:上海市汇业(武汉)律师事务所
首席法律顾问:冯程斌律师
2.凡本网注明“来源:XXX(非驻马店网)”的作品,均转载自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如其他个人、媒体、网站、团体从本网下载使用,必须保留本网站注明的“稿件来源”,并自负相关法律责任,否则本网将追究其相关法律责任。
3.如果您发现本网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。