文/廖颖凯|非典型求职者怀着兴趣从事科普工作、科学教育和科技政策研究。对信息和真相有一种奇怪的渴望和执着,梦想成为钢铁侠或者心理史学家。带回家的信息
虽然AI可以帮助抑制非法或侵权的言论,但普通大众无法知道它的判断机制,无形中造成了伤害。AI的数据库错误会导致算法对文化或族群有偏见。而深度学习的算法往往因为数据量巨大,使得使用AI的研究人员或机构无法理解和追溯AI的决策原因。欧盟、美国、联合国等组织相继制定了AI的规范和监管办法。台湾省仍需制定AI相关的监管措施,以应对科技的发展变化。“你今天被崇拜了吗?」
众所周知,目前最大的社交网络平台脸书为了遏制违法或侵权言论,隐藏了某些违反其“社区守则”的言论。不可否认,非法和侵权的言论对社交网络造成了严重的伤害,但有时这些隐藏的原则似乎与政治或具体问题有关。不时有朋友提到,一个普通的帖子或照片,莫名其妙地被宣布违反了社区守则。于是,在去年(2021年),网友们开始将脸书创始人马克扎克伯格(Mark Zuckerber)的姓氏改成了一句讽刺脸书封杀文章标准混乱的口号:你“祖上”了吗?
当然,像脸书这样的社交媒体依靠算法来自动确定一个帖子是否违法。除了文字和图片的内容分析,其他如报案数量、账号活跃度、账号发布方式、商业价值等因素。都成为算法评价一个帖子是否违规的依据,就好像法官在给犯人定罪时,不仅依据犯罪行为,还要权衡犯人及其社会地位。但是,我们可以看到法官的决策过程和理由,却永远没有机会搞清楚算法到底出了什么问题,然后就会宣布一个普通的岗位违规。
虽然我们平时会遇到这种帖子被删的情况,但一般也就是重新打一篇文章,贴一张图投诉,仅此而已。然而,这种时不时可以看到的神秘隐藏事件,其实是人工智能(AI)在我们生活中不断带来隐性伤害的频发案例。
AI 的伤害跟以往想像的不一样
工业革命以来,人类其实相当快就对科技发展的副作用提出了深刻的反思。比如1818年英国作家玛丽雪莱创作的人类历史上第一部科幻作品《科学怪人》(弗兰肯斯坦),是一部以拟人化思维的人工生命为主角的科幻惊悚片。随着机器的发展,在1956年关于人工智能的达特茅斯夏季研究项目上,与会专家提出了“人工智能”一词,认为机器的发展会像人一样具有学习、理解和适应的能力。
随着AI技术的演进,人们对AI的乐观和悲观态度越来越分歧。按照他们的态度,AI的发展带来的社会影响可以分为:对科技持乐观态度的人,他们相信“强AI”的问世可以让计算机拥有等同甚至超越人类的思维能力,为人类解决大部分问题,带来更美好的明天。电影、动画等作品中不乏这样的理想人工智能角色;重视科技从业者,倾向于认为AI可以通过辅助人类,解放人类劳动,为科技应用创造更多可能;重视科技发展的人,认为AI只是科技发展中的一个流行语,只有那些还在发展中,没有完全掌握的技术,才会被认为是AI。相对于科技领域,对AI发展的反思更常见于人文社会领域,比如研究AI对人类劳动替代的微弱影响;或者更糟糕的是,强AI不受控制的发展会导致人类文明的毁灭。这些来自不同立场的观点都揭示了多元主义
虽然当代影视作品和学术研究都对AI会造成什么样的危害感兴趣,但AI造成的危害早已显现多年,并默默影响着人类社会。2018年,《自然》 (Nature)期刊上的一篇评论介绍了一组欧美传统新娘和印度传统新娘穿着白纱的合影。当算法看两张新娘的照片时,前者会被判断为“新娘”、“礼服”、“女人”和“婚礼”,而后者会被判断为“表演”和“服装”。在这种情况下,AI或算法设计本身并不存在独特的文化,但由于算法训练来自已有的图库,图库中的图像来源和标注注释与真实世界的外观不同,人工智能就像真人一样,对种族和文化的偏见(bias)是由不完整的学习材料产生的,算法可能无法有意识地对自我产生的偏见进行反思(。
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/188316.html