数字经济主要依靠算法来提高经济效率和客户体验。在实践中,大型科技公司的算法在很大程度上影响了消费者的行为。
10月24日,在第三届外滩金融峰会上,中国金融四十人论坛高级研究员、清华大学五道口金融学院院长章小蕙认为,算法监管应该公开透明。由于算法的复杂性和算法用户的刻意隐瞒,大多数人无法理解算法的工作原理。由此,作为算法用户的大型科技公司,尤其是持有几乎所有与个人生活行为相关的数字平台的公司,处于事实上的主导地位,形成“算法霸权”,从而严重危害算法对应方即消费者的合法权益。
应该说,算法已经成为大型科技公司控制市场的主要工具。章小蕙表示,该算法以保护竞争优势和商业秘密为名,为大型科技公司故意隐藏规则、操纵消费者、制造歧视创造了更多灰色空间。
具体来说,首先,他们通过不公平的排名偏向自己的产品或商业伙伴。比如金融科技公司给出的资产配置,倾向于推荐与自身利益高度相关的产品,有些平台会通过特定算法过滤质量差的产品,但自己的产品或服务是豁免的。
二是算法歧视,包括价格歧视、性别歧视、教育歧视等等。“大数据扼杀是价格歧视的一种表现,为不同的用户提供不同的商品定价。”章小蕙认为,算法歧视往往比传统歧视更难抑制。“歧视性定价只有垄断企业才能实现,在完全竞争的市场中不会存在,这是一种新型的垄断行为。”她说。
三是通过诱导信息和风险隐瞒,诱导消费者过度消费和承担风险。章小蕙介绍,智能算法往往会掩盖金融风险的复杂性,不仅会导致过度消费和负债,还会误导金融投资领域的投资者。此外,大型科技公司商业模式和算法的趋同,容易导致羊群效应,导致市场大起大落。特别是大型科技公司服务大众的金融专业知识和识别能力较弱,更容易引发社会群体性事件,可能引发系统性金融风险。
有鉴于此,章小蕙认为,大型科技公司的主要算法需要实施外部监管,提高透明度。因为如果算法对用户(平台管理者)不利,他们肯定会立即做出改变;但如果对消费者不利,只有曝光或强制公开透明才可能纠正。
这一点已经得到监管部门的充分认可,并采取了相应的措施。9月30日,央行发布《征信业务管理办法》,要求征信公司披露个人信用评分算法模型;103010年,针对“大数据查杀”、“算法歧视”等问题,要求从业者完善算法管理体系,优化算法推荐,定期对算法模型进行审核评估,加强内容管理,向上推动算法应用。
章小蕙强调,在算法监管中,必须确立公开透明的原则,确保用户得到公平对待。自动决策要提前做风险或影响评估,避免算法滥用带来的风险。未来还应考虑将算法纳入反垄断监管。
除了建议公开透明地监管算法之外,在外滩峰会上,章小蕙还列举了其他几个需要高度关注的问题,包括:数据治理中的隐私保护和公平使用应当平衡;对互联网消费信贷实施与传统金融服务相一致的监管;并且要防止大型科技公司的恶性竞争和跨境控股投资。
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/45988.html