我是一家大型互联网公司的黄色鉴赏家:我没看到黄图打代码,我的同事都是医生。

本文来源:时代周报 作者:杨玲玲

来源:时代周刊作者:杨玲玲

秦始皇的工作轻松有趣,但他应该身体强壮。黄健在外界眼中是一个梦幻般的职业。关于黄健的故事层出不穷,“带薪观影”可能是最大的误解。

黄石的作品诞生于20世纪80年代。当时公安部为了响应“扫黄打非”的要求,设立了这个新岗位。我国第一批黄评估师多为女警察。

随着互联网的普及和技术的发展演变,对黄评估师的要求也在不断迭代:从最初的“肉眼黄鉴定”,发展到AI技术鉴定阶段。AI黄行家不再需要每天看图片,更接近码农的工作状态,面对的是一串串冰冷枯燥的程序代码。

与瘸子躲在小黑屋看电影的刻板印象不同,AI黄行家的要求极高,高学历几乎成为职业标准。

我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士

来源:视觉中国

陈愉(化名)2017年毕业于香港科技大学,之后加入腾讯安全团队。这个AI黄色鉴定小组只有10名成员,几乎都是医生。他们的主要工作是构建一个模拟人脑的多模态系统,可以通过AI识别与色情相关的图像、音频和视频。总之,黄健的工作不再是“黄图连连看”,而更像是从事人工智能研究的程序员。

网络上的信息多种多样,这使得识别更加困难。黄爱评估师不仅要有编程功底和过硬的智商,还要深入一线,实时关注行业趋势。用的话说,评判黄就像是一场谍战。他们经常要潜入黑产组,了解前线,找出暗语。

根据国家扫黄打非办发布的信息,2020年,全国各地扫黄打非部门共处理互联网有害信息1200多万条,查处扫黄打非相关网络案件5800余件。

在虚拟世界中,剑遇到看不见的另一端,或短距离面对面,双方从未停止过对一个名为“人性”的高地的攻守。

鉴黄师需要价值观面试

2016年,腾讯的AI黄队初步成立。今天,这个团队有10个人,陈愉就是其中之一。团队成员多为清华大学、中科院、华中大学等名校毕业的博士生。

高飞人首先需要明白的是,团队不是在做“带薪看电影”的工作。起初,团队成员都是男性。后来分工越来越细化,女性开始加入。其中一个女孩主要负责声学场景的分类,她不知道自己的工作是识别黄。知道女性从事识别黄河,首先需要克服心理障碍。

我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士

“一开始我有点尴尬,不知道怎么向朋友介绍自己的职业,但很快就习惯了。在技术人员眼里,他们看到的无非是各种特征和规律。”这是这位女成员如何描述她的心路历程。如果不用听,就把声音当成信号,分析声谱图(语音数据的频谱分析视图)。当时,中国很少有人发出黄色歧视的声音。团队合力推出第一版音黄辨别系统后,她渐渐有了成就感。

我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士

来源:图片由受访者提供

鉴定黄的工作难免会有尴尬的时刻。有一次,团队的一个女同事在车站分析图片。为了看得清楚,这幅画被放大了几倍。偏偏其他部门的同事在这个时候路过。顿时,空气中充满了尴尬。

除了过硬的技能,考生通过价值评估更重要。腾讯的AI黄评团队有一个价值访谈。

“(价值面试)主要考核应聘者在这个职业中的坚定性。工作中可能会有一些诱惑,例如,当一个外部朋友被授予一个头衔,并要求你帮助解决它,或者一些人联系你做一些技术循环

网络色情内容有多种形式,包括静态文本、图片、动态视频和音频,仅靠肉眼无法识别。

时代周刊记者了解到,色情、黑色产品利润很高,员工数百万。他们也是“高科技人才”和“AI技术专家”。他们与黄色鉴赏家的对抗是实时发生的。

“有时候我们觉得很像谍战剧。双方斗智斗勇,从明显的色情对抗到潜移默化的色情对抗再到AI对抗。这是一个持续的迭代过程。”陈愉介绍。

我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士

毫不夸张地说,这是一场间谍战。此前,各大社交平台上频繁出现的“新茶”“喝茶”等内容,文字下方的图片,显微镜下难以发现的一片茶叶,都是少女们的自拍。这是色情行业的一个消耗代码。

一些所谓的“学生团体”和“培训团体”,一位成员的美丽画像说“有一个地方可以上网课”。这是组织者向小组成员发送“我可以预约”;“早上好”是指早上有时间;“晚了?

会”是说晚上有时间。

陈宇他们时常在这些群卧底。“实时关注行业黑话变化,总得知道他们到底在说些什么。统一收集之后,这些就成了我们算法训练的素材。”陈宇说。

无人工,不智能。这些复杂且隐蔽的色情内容,即便AI,最初也不一定搞得定,需技术人员花大量时间去研究黑产中的具体行为,然后通过人工辅助机器标注、训练、识别。

“模型天天都在学习和训练,关注最近出现的新词、黑话。”陈宇说。

我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士

在此过程中,模型也需排除许多干扰。比如,医学中的宫颈糜烂图片、雕塑和油画中的裸露画面。不同场景下,模型界定的标准也需动态调整。

搭建、运行如此一套复杂的AI鉴黄系统,真不是普通人干得了的。目前,即便这支全员博士的小分队,鉴黄准确率也很难达到100%:明显的色情内容可以达到99.99%,轻微人工对抗内容为80%,专业AI对抗在60%左右。

“AI鉴黄技术在文字类和静态图像中的准确率较高,视频类次之,音频类较低。人工智能对软色情的鉴别还有短板。AI鉴黄可以大大减轻人工鉴黄师的工作量,但目前仍有误鉴率。”9月18日,赛迪顾问人工智能产业研究中心高级分析师徐畅告诉时代周报记者。

在陈宇看来,目前已经不再是单纯地音频鉴黄或者视频鉴黄,而是用多模态把信息聚合在一起,模拟人脑思维过程,准确率比单纯的音频或视频鉴别高得多。

AI鉴黄还能扩展应用?

AI技术迅猛发展的今天,科技企业纷纷布局AI鉴黄。

例如成立于2014年的图普科技,成立之初便基于计算机视觉技术搭建云平台推出内容审核服务,用于识别色情、暴恐、时政敏感信息及小广告等违规内容;今年6月,阿里巴巴安全部公开招募“AI鉴黄一日体验官”,提供1000元日薪、1T硬盘、1年网盘会员、路费打包,下午茶不限量供应。这一度引发舆论热议。

国外巨头的AI鉴黄走得更早。谷歌在2018年就推出免费AI工具软件,辅助人类鉴黄师对儿童性虐待内容(CSAM)的图像进行分类和鉴别。AI技术发展多年,如何落地真正改变人们生活,始终是科技企业的突破难点,AI鉴黄正是一个不错的应用场景。学术研究需要真正落地去解决社会问题,而不仅是发表在期刊上的“空中楼阁”。

我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士

如今,腾讯AI鉴黄团队的技术成果主要运用于腾讯内外部的直播、短视频等公开场景,针对腾讯平台上的公开场景内容,结合用户举报信息进行鉴别,也会通过腾讯云对外输出。

徐畅向时代周报记者介绍,用于AI鉴黄的各类技术,还可应用于安防、交通、金融、商业等多个场景,具体来说,可用于生物特征识别、人脸识别、远程身份认证、公安技侦、AI奢侈品鉴定、笔迹鉴定、电子支付、声纹锁控、语音交互、字幕制作、语音质检等。

IDC全球人工智能支出指南预测,未来4年,全球人工智能相关支出将从2020年的501亿美元增至2024年的1100多亿美元。

2020年,在新冠肺炎疫情的影响下,中国人工智能加速落地,助力抗疫与复工复产。AI技术在病毒基因检测、医疗影像分析等各领域都得到推广普及。艾媒咨询数据显示,2020年中国人工智能行业核心产业市场规模超过1500亿元,预计在2025年超过4000亿元。

在陈宇看来,AI鉴黄可以帮助净化网络环境,是一项科技向善的技术。

“科技向善”这一理念的提出者保罗·米勒曾说,“希望确保技术公司专注于回馈世界,而不仅仅是占领我们的屏幕时间”。

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/104569.html

(0)

相关推荐