1

一键关闭!再见,App广告

 2 years ago
source link: https://column.iresearch.cn/b/202203/931883.shtml
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

大多数人都能明显感受到,APP使用过一段时间之后,就能猜到你喜欢什么,并很快投你所好,不停精准推送相关内容,让人怀疑手机装了摄像头。

这就是算法推荐,对有的人来说,平台自动推送自己常看、喜欢的内容,自然省事了不少,但对另一部分人而言,算法推荐更多时候是自作聪明,用户不仅会受到所谓的“个性化广告”骚扰,还会对自身隐私信息安全产生担忧。

需不需要算法推荐,应该是用户自己说了算。

将算法开关交给APP用户 

无论是社交平台的信息流广告推送,还是电商平台上的购物推荐,背后都离不开算法的支持。

所谓算法,就是互联网企业通过抓取用户数据,依据用户画像提供定制化的娱乐信息、娱乐和消费服务,一方面可以提供个性化服务,另一方面也为企业带来更多利润。

但这种抓取用户隐私信息的行为,也带来了广告骚扰、大数据杀熟、信息茧房等问题,引发了大众关注。此前,国家网信办等四部门联合发布了《互联网信息服务算法推荐管理规定》,为算法推荐服务提供了规范指引,并于3月1日起正式施行。

近日,有消息称,已有多款APP上线了算法关闭键,包括抖音、微信、淘宝、今日头条等常用APP,用户可以在后台一键关闭“个性化推荐”的功能。关闭该功能之后,APP将不再根据用户的浏览记录生成推荐内容或者广告。

各大互联网平台上线这一功能,是迅速响应政策的做法,也是自查自纠、将算法开关交给用户的重要举动。

将算法开关交给APP用户,才是真正尊重用户知情权和选择权的态度。数字时代,随着数据技术在生活中的渗透率不断加深,公民隐私信息也暴露在公众和企业面前,而企业必须承担起保护用户隐私和数据安全的责任。

当然,上线算法关闭键仅仅仅是保障数字信息安全的第一步,要继续规范推荐算法,还需不断完善相关法规,从更加具体的层面,比如个性化推送、生成合成、排序精选等多种推荐方式来规范,政府部门也许继续敦促企业做好信息保障工作。

“关闭键”藏太深,诚意在哪? 

多家APP上线一键关闭推荐算法的功能,看似出发点是好的,但实际操作和体验来看,却并不如人意。

首先,要找到APP的算法关闭键,操作过于复杂,藏得太深,以至于很多用户很难找到。以淘宝和微信为例,要关闭淘宝的个性化推荐和广告推荐,步骤为:进入淘宝后选择“我的淘宝”,点击右上角设置标志进入,选择“隐私”进入,再往下拉找到广告管理和个性化推荐,可以分别选择关闭“个性化广告”和“个性化推荐”。

值得一提的是,在广告管理界面,平台声明中显示,即便关闭了个性化广告,也还是会看到广告,而且广告数量不会变,只是相关性会降低。

而微信的关闭算法功能,则是在“我”的页面选择“设置,在“隐私”一栏中,四条项目让人难以看出具体内容,而如果要关闭算法,需要选择“个人信息与权限”,进入之后才能看到“个性化广告管理”的选择,点击进入就能选择关闭个性化广告,但和淘宝一样,关闭之后广告也不会减少。

仅从这两个常用APP的设置来看,要找到关闭个性化推荐的功能,就比较繁琐了,而且深受广告烦恼的用户在关闭之后也不会有所改善。

有很多网友为此在网络上求助操作过程,也有不少人吐槽:为什么个性化推荐是默认开启,而要自己手动关闭?

其次,即使关闭了个性化推荐,用户也很难分辨自己到底有没有被平台牵着鼻子走,到底这个按键有没有用,并没有很强的实感。归根到底,其实是因为用户对算法本就一无所知,而平台却将所有用户的信息掌握在手里,这种不对等和全然无知的处境,让用户只能被动接受APP推送的任何东西而无计可施。

所以,从实际体验来看,上线推荐算法关闭键固然是好事,但在具体落实中,操作上通过技术优势设置重重阻碍,让用户难以“下手”,诚意不足;而不明算法背后的逻辑,信息被拿捏,也会让用户感到被困在信息囚笼,难以信任平台。

算法推荐,离个性化服务越来越远? 

理论上来说,平台推出算法推荐,可以达到想到提供个性化服务和增加广告利润的双赢,但在实际操作的过程中,却衍生出很多乱象,其中牵涉到平台利益,要改变并不是一朝一夕之事。

算法推荐的种种乱象,其实根源都在于对于用户而言,互联网企业的算法都是“黑箱”,许多人在不知情的情况下被收集大量隐私信息,而企业用这些信息做什么,用户却一无所知,难以拒绝,甚至被算法“算计”。

对用户而言,个性化服务可以快速找到自己需要的信息,这无疑是非常有用的,有利于提升用户体验和平台竞争力。当下大多数APP的个性化服务都与推荐算法深度绑定,如果选择关闭算法,也就等同关闭了个性化服务,而且关闭之后有没有用也不好说。

要么拒绝服务,要么拒绝算法,过于一刀切的选择,进一步让用户陷入两难。

而算法一旦被滥用,不仅会对个人隐私安全带来风险,也会对公共空间造成负面影响,用户终日被推荐自己喜欢的内容,难以看到新的、不一样的视角,就会困在信息茧房当中,进而排斥其他观点,形成信息孤岛,加剧网络矛盾。

不加约束,算法推荐只会离个性化服务越来越远,被动接受的个性化并不是真正的个性化,只有通过用户的自主选择,才能真正实现体验的提升。用户了解算法逻辑和规则之后,明白自己接收的是什么内容,算法过滤了哪些内容,再定制和调整自己需要的,也是真正的个性化,在提高信息获得效率的同时,接触更多丰富多样的内容。

如何约束,如何把握这个度,是监管部门和互联网企业都要继续考虑的问题。

作者:周文君

版权声明 本文仅代表作者观点,不代表艾瑞立场。本文系作者授权艾瑞专栏发表,未经许可,不得转载。
艾瑞网公众号
艾瑞网公众号
看资讯、查报告、搜数据 (搜索iresearch21cn或扫描二维码关注)
艾瑞网

Recommend

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK