从全球来看,脸书在政治上变得越来越重要,印度也不例外。
印度脸书一直在有选择地遏制仇恨言论、错误信息和煽动性帖子,尤其是反穆斯林内容,尽管脸书自己的员工对该公司有动机和兴趣。
从今年3月的研究到追溯至2019年的公司备忘录,关于印度的内部文件强调,脸书一直在努力消除其平台上的辱骂性内容,印度是世界上最大的民主国家,也是该公司最大的增长市场。印度的社区和宗教紧张局势一直在社交媒体上沸腾,并煽动暴力。
这些文件表明,脸书多年来一直意识到这些问题,这使人怀疑它是否采取了足够的措施来解决这些问题。许多批评者和数字专家表示,它没有做到这一点,尤其是在总理达摩达斯莫迪领导下的BJP成员的参与下。
莫迪因在选举期间利用该平台为他的政党带来优势而受到称赞。去年《华尔街日报》的报道让人怀疑,脸书是否有选择地实施仇恨言论政策,以避免遭到人民党的反击。脸书董事长兼首席执行官马克扎克伯格散发出亲切的气氛,2015年两人在脸书总部拥抱的照片就是纪念。
泄露的文件包括大量关于印度仇恨言论和错误信息的内部报告。在某些情况下,它自己的“推荐”功能和算法增强了大部分功能。但也包括员工对这些问题处理不当的担忧,以及对平台上病毒式“不满”表达的不满。
根据这些文件,脸书将印度视为世界上“风险最大的国家”之一,并将印地语和孟加拉语列为“自动违反敌对言论”的优先对象。然而,脸书没有足够的本地语言版主或内容标签来防止有时会导致现实世界暴力的错误信息。
脸书在给美联社的一份声明中表示,该国“投入大量技术,寻找各种语言的仇恨言论,包括印地语和孟加拉语”,这导致2021年“人们看到的仇恨言论数量减半”。
“针对包括穆斯林在内的边缘化群体的仇恨言论在世界范围内呈上升趋势。因此,我们正在加强执法,并致力于随着互联网上仇恨言论的演变更新我们的政策,”公司发言人说。
美联社的这篇报道和其他正在发表的报道都是基于向美国证券交易委员会披露的信息,并由弗朗西斯休根的法律顾问以编辑后的形式提供给国会,弗朗西斯休根是一名前脸书雇员,后来成为了一名告密者。编辑后的版本是由包括美联社在内的新闻机构联盟获得的。
早在2019年2月,在担心信息有误的大选前,一位脸书员工就想知道国内新用户在新闻提要中看到了什么,如果他们所做的只是关注平台全力推荐的页面和群组。
该员工创建了一个测试用户帐户,并保留了三周。在此期间,一个不寻常的事件震惊了印度——。在有争议的克什米尔地区发生的一次激进袭击造成40多名印度士兵死亡,并使该国接近与对手巴基斯坦的战争。
在标题为“一名印度测试用户陷入两极分化和民族主义信息的海洋”的解释中,被编辑姓名的员工表示,他们对充斥着新闻摘要的内容感到“震惊”,民族主义内容、错误信息、暴力和血腥“这几乎是一种持续的两极分化”。"
脸书推荐的看似良性无害的群体,很快就变成了完全不同的群体,仇恨言论、未经证实的谣言、病毒内容泛滥。
推荐的群体充斥着假新闻、反巴言论和伊斯兰恐惧症。大部分内容都很生动。
其中一个人抱着另一个人的血淋淋的头,走了上去。
面覆盖着巴基斯坦国旗,头上是印度国旗。它的“在Facebook上流行”功能显示了大量与爆炸事件后印度对巴基斯坦的报复性袭击有关的未经证实的内容,其中包括来自Facebook的一个事实核查合作伙伴揭穿的视频游戏剪辑中的凝固汽油弹的图像。
研究人员写道:“在这个测试用户的新闻提要之后,过去三周我看到的死者图片比我一生中看到的还要多。”
它引发了人们对这种分裂内容在现实世界中可能导致的后果的深切担忧,当时当地新闻报道了克什米尔人在后果中受到攻击的情况。
“作为一家公司,我们是否应该承担额外的责任来防止推荐内容导致的完整性损害?”研究人员在他们的结论中问道。
与其他员工一起分发的备忘录没有回答这个问题。但它确实暴露了平台自己的算法或默认设置如何在刺激这种不满中发挥作用。该员工指出,存在明显的“盲点”,尤其是“本地语言内容”。他们表示,他们希望这些发现能够引发关于如何避免这种“完整性损害”的对话,尤其是对于那些与典型的美国用户“显着不同”的人。
尽管这项研究是在三周内进行的,这不是一般的代表性,但他们承认它确实表明,在“重大危机事件”期间,这种“未经审核”和有问题的内容如何“完全接管”。
Facebook发言人表示,这项测试研究“激发了对其推荐系统进行更深入、更严格的分析”,并“促进了产品的改进以改进它们”。
“另外,我们遏制仇恨言论的工作仍在继续,我们进一步加强了仇恨分类,包括四种印度语言,”发言人说。
其他关于印度错误信息的研究文件强调了该平台的问题有多大。
2019年1月,也就是测试用户实验前一个月,另一项评估对误导性内容发出了类似警告。在分发给员工的演示文稿中,调查结果得出结论,Facebook的错误信息标签对用户来说不够清晰,强调它需要采取更多措施来阻止仇恨言论和虚假新闻。用户告诉研究人员,“清楚地标记信息会让他们的生活更轻松。”
再次指出,该平台没有足够的本地语言事实检查员,这意味着很多内容未经验证。
除了错误信息外,泄露的文件还揭示了困扰Facebook在印度的另一个问题:反穆斯林宣传,尤其是印度强硬派团体的宣传。
印度是Facebook最大的市场,拥有超过3.4亿用户——近4亿印度人还使用该公司的消息服务WhatsApp。但两者都被指控为传播针对少数族裔的仇恨言论和假新闻的工具。
2020年2月,当莫迪所在政党的一位政客在该平台上上传了一段视频时,这些紧张局势在Facebook上变得生动起来,他在视频中呼吁他的支持者如果警察不这样做,就将大部分穆斯林抗议者从新德里的一条道路上赶走。数小时内爆发了暴力骚乱,造成53人死亡。他们中的大多数是穆斯林。只有在数千次观看和分享后,Facebook才删除了该视频。
4月,针对穆斯林的错误信息再次在其平台上传播开来,因为“Coronajihad”主题标签充斥着新闻提要,将COVID-19病例激增归咎于社区。这个话题标签在Facebook上流行了好几天,但后来被公司删除了。
对于新德里54岁的穆斯林传教士穆罕默德·阿巴斯(MohammadAbbas)来说,这些信息令人震惊。
一些视频片段和帖子据称显示穆斯林向当局和医院工作人员吐口水。他们很快被证明是假的,但到那时,印度的公共断层线仍然受到一个月前致命骚乱的压力,再次裂开。
错误信息引发了一波针对穆斯林的暴力、商业抵制和仇恨言论。来自社区的数千人,包括阿巴斯,在全国范围内被隔离了数周。有些人甚至被送进监狱,后来才被法庭宣判无罪。
“人们在Facebook上分享了声称穆斯林传播病毒的假视频。最初在Facebook上的谎言变成了数百万人的真相,”阿巴斯说。
去年8月,《华尔街日报》发表了一系列报道,详细说明该公司如何在内部辩论是否将一名与莫迪党派关系密切的印度强硬派议员归类为“危险人物”,从而加剧了对Facebook处理此类内容的批评。-在他的帐户中发布了一系列反穆斯林帖子之后,该分类将禁止他进入该平台。
文件显示,领导层对这一决定犹豫不决,这引起了一些员工的担忧,其中一位员工写道,Facebook只是将非印度教极端主义组织列为“危险组织”。
这些文件还显示了该公司的南亚政策负责人本人如何在她的个人Facebook个人资料上分享了许多人认为是伊斯兰恐惧症的帖子。当时,她还辩称,将这位政治家归类为危险人物会损害Facebook在印度的前景。
2020年12月关于强大政治行为者对Facebook政策决策影响的内部文件的作者指出,“Facebook在执行内容政策时通常会为强大的行为者设置例外。”该文件还引用了Facebook前首席安全官的话说,在美国以外,“地方政策负责人通常是从执政党中拉出来的,很少来自弱势族群、宗教信仰或演员”,这“自然会扭曲决策。走向强者。”
几个月后,这位印度官员退出了Facebook。该公司还将这位政治家从平台上撤下,但文件显示,许多公司员工认为该平台处理不当,指责其存在选择性偏见,以避免成为印度政府的目标。
一名员工写道:“几位穆斯林同事对印度政策领导层在其个人Facebook个人资料中使用的一些语言深感不安/伤害。”
另一位写道,“野蛮行为”被允许“在我们的网络上盛行”。
根据泄露的文件,Facebook一直存在这个问题。
就在今年3月,该公司还在内部辩论是否可以控制RashtriyaSwayamsevakSangh推动的“散布恐惧、反穆斯林的言论”,这是一个极右的印度教民族主义团体,莫迪也是其中的一员,在其平台上。
在一份名为“LotusMahal”的文件中,该公司指出,与BJP有联系的成员创建了多个Facebook帐户来放大反穆斯林内容,包括“呼吁从印度驱逐穆斯林人口”和未经证实的“爱圣战”。印度教强硬派的阴谋论,他们指责穆斯林男人利用不同信仰的婚姻来胁迫印度教妇女改变他们的宗教信仰。
研究发现,由于Facebook缺乏印地语和孟加拉语的“分类器”和“版主”,因此其中大部分内容“从未被标记或采取行动”。Facebook表示,它从2018年开始在印地语中添加了仇恨言论分类器,并在2020年引入了孟加拉语。
员工们还写道,鉴于政治敏感性,Facebook尚未“提名提名该组织。”
该公司表示,其指定过程包括由整个公司的相关团队对每个案件进行审查,并且不分地区、意识形态或宗教,而是关注暴力和仇恨的指标。然而,它没有透露印度教民族主义团体是否已被指定为“危险的”。
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/49993.html