Facebook演算法如何成洪水猛兽 影响心理健康造成社会分化

撰写:
最后更新日期:
撰写:
最后更新日期:

Facebook前顾员豪根(Frances Haugen)10月5日出席美国国会听证会,她早前向媒体爆料Facebook漠视影响青少年心理健康及造成社会分化的问题,牵起风波。豪根把其中一部分的问题归咎于Facebook的演算法,而这演算法某程度超出了很多人想像的范围。

所谓演算法(Algorithm)是一种内建的公式,Facebook演算法最直接的作用,就是为每一名使用者投放合适的推送内容。不论是Facebook,Twitter还是其他的社交与网络平台,因网站的内容极多,为选择合适的内容显示给用户,必须有一套公式存在。

最简单的例子,是Facebook会因应用户使用中文和居住在香港,推荐和香港相关的中文内容,而不是其他地区毫无关系的东西。

图为10月5日,Facebook前员工豪根出席国会听证会,就早前爆料Facebook的问题作听证。(Reuters)

如此运用演算法的当然不仅Facebook,在其他社交及网络平台都有类似使用。然而,Facebook用户数目非常庞大,Facebook不仅得悉每一个用户来自的地方,使用的语言,还有年龄、阅览时间、浏览网络的习惯、朋友圈、朋友圈的阅览时间、朋友圈浏览网络的习惯等等,AI可以根据无数的用户使用习惯,得出更准确的答案。

演算法的推波助澜

当得知甚么样的东西最容易吸引人注意的时候,便能理解为何如此的演算法,会造成今天的问题。人类对耸动的标题、怪奇的现象、骇人的讯息尤为喜欢。而假资讯及散布极端思想的内容,正好就是以这样的方式包装。

当用户前往Facebook寻找新冠疫苗的副作用资讯的时候,Facebook便可能会为其推荐持疫苗怀疑论的相关文章,继而因应用户的点击,Facebook会给予更多相关的内容、短片、网络群组等等。这些内容部分可能有根据,但也有可能是假的,但观看的人若无法分办真伪,便可能误信。

图为一个手提电话上的Facebook程式。Facebook是今天最大的网络社交平台之一。(Reuters)

这现象Facebook是知晓的,根据豪根爆料的内部文件和说法,Facebook最少在2016年内部便开始研究这个问题,当年Facebook不仅寄宿了大量极端主义团体,而且还把他们推广给用户。这些团体中的成员,有64%都是经Facebook的推荐而点击参加。

在2017 年,Facebook成立了一个工作组,以了解最大限度地提高用户参与度是否会导致政治两极分化,而结论是肯定的。减少两极分化将意味着对参与度造成打击,减少用户逗留在Facebook上的时间。

更进一步的问题,是Facebook不仅只有英语圈的用户,如上文所说Facebook有大量华语,以至世上不同语言使用者的用户。Facebook制作演算法的AI,已到达登峰造极的境界,对世界任何角落、任何语言、任何文化背景等都了如指掌,都能推荐出用户喜欢的内容。

推荐阅读:

「版权声明:本文版权归多维新闻所有,未经授权,不得转载」


X
X
请使用下列任何一种浏览器浏览以达至最佳的用户体验:Google Chrome、Mozilla Firefox、Internet Explorer、Microsoft Edge 或Safari。为避免使用网页时发生问题,请确保你的网页浏览器已更新至最新版本。