皮盼资讯网移动版

皮盼资讯网 > 潮流时尚 >

用主流价值导向驾驭算法研究(4)

信息茧房是指人们的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的“茧房”中的现象。而数字算法下个性化推荐技术和用户的心理,共同造成了今日头条的“信息茧房”效应。

首先,在今日头条这个融合各种信息与观点的公开平台上,信息过载现象与用户注意力是匮缺以及用户选择性接触等多种原因,决定了人们更愿意倾向于选择自己感兴趣的话题,而今日头条“无价值观算法”的作用与“人工不干预”理念,加上其通过算法进行个性化推荐的广泛运用,导致其产品依靠数字算法,完全为了迎合受众的需求而进行个性化推荐,使用户禁锢在符合自己舒适度的“圈子”里,通过今日头条推荐算法获取的新闻大多与之前已经有所了解的内容相关或相同,导致用户不断被这些信息所包裹,从而形成了信息茧房。[6]

b) 低质量信息传播

今日头条个性化推荐算法完全依赖于用户行为,未对推荐信息进行宏观把控与干涉,当用户的阅读历史产生一定倾向性时,个性化推荐内容会迅速捕捉并匹配到这样的倾向性,然而,一方面,用户的需求通常是盲目且阶段性的,另一方面,一些娱乐主题的新闻或有噱头的标题,一定程度上确实会引起用户的好奇并增加其被用户点击的概率,双重作用导致当用户点开几条八卦新闻之后,其接收到的个性化推荐相关推送将会被各类八卦新闻占据;当用户观看几部不符合常理的、甚至涉及暴力或带有性暗示的打违法擦边球的视频作品后,平台将加速向其推荐这类劣质作品;而这样的低质量信息很容易对当代辨识能力不足的年轻人、儿童造成不良的价值观影响,不健康的信息的过度传播,将影响当代社会年轻人的身心发展与良好社会形态的构建。

2. 谷歌案例分析

使用最先进图像识别技术的谷歌早期曾由于搜索引擎所使用的算法未涵盖有关“种族”的价值观考量,Google Photo算法将黑人打上“猩猩”的标签,而搜索“不职业的发型”时,结果中种族面绝大多数是黑人的大辫子,同样,根据哈佛大学数据隐私实验室教授拉谭雅·斯维尼的调查发现,根据谷歌智能广告工具 Adsense 给出的结果,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告,同样在其退出的一款名为Google Arts & Culture 的对照片进行识别并找到相似的历史名画的APP中,外媒Digg News发现,有色人种和女性所配对的作品相当有限,而且往往带着种族歧视色彩,谷歌因此多次陷入“种族歧视”风波。可见即便算法与算法开发者不带有种族倾向性,可能也会由于算法与机器学习本身的特质吸收和放大歧视,对社会上的弱势社群造成伤害,因此算法必须考虑价值观因素。

3. 微软案例分析

2016年3月23日,微软开发的人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线。该机器人通过抓取和用户互动的数据模仿人类的对话进行聊天。而由于该机器人所依赖的算法并未对言语质量与伦理道德进行把控,上线一天之内,Tay 就成为了一个满口叫嚣着种族清洗的极端分子,并因此被下架。可见依赖于未考虑价值观因素的算法的产品极容易收到不良社会风气的影响,从而对网络环境及社会造成反向危害。

五. 基于主流价值观的算法未来发展方向

近几年来,关于“算法究竟有没有价值观”问题的讨论成为了互联网领域的热门话题,经过我们的调研与分析,它的答案是肯定的,也应该是肯定的。一些人提出,算法只是一门技术,不应给算法拷上沉重的道德伦理枷锁。然而,算法是人创造出来的,算法的价值观就是人的价值观的直接投射。拥有正确价值观的算法不仅仅给人们的生活带来便利,有时更接近于一种人文关怀。西安电子科技大学通过大数据分析学生在校刷饭卡的记录,给达到设定标准的学生予以补助,这一暖心举措获得人们的广泛好评,大赞。与之相反的是,拥有错误价值观的算法往往成为助长社会不良风气的温床,例如平台监管不力导致的淫秽色情、暴力血腥制品的传播,诈骗犯罪经由互联网渠道“重获新生”,隐私被窃取和贩卖的现象屡见不鲜……

由此,大力推行基于主流价值观的算法,整改与优化偏离主流价值观的算法已经刻不容缓。由今日头条的负面案例分析可见,在其“算法没有价值观”,“技术>价值观”的导向之下,弊端很快浮现,随之而来的央视点名、广电约谈、产品下架整改,操作快、稳、准,显示出国家引导算法向主流价值观靠近的决心与力度。

(责任编辑:admin)