人工智能是一门多学科的科学和工程,其目标是创造智能机器。
最近,内森贝奈奇和兰霍加斯博士发表了《2021人工智能状况报告》。
该报告试图捕捉人工智能领域的最新进展。毫无疑问,人工智能将成为我们这个世界技术进步的力量倍增器。如果我们想控制如此巨大的转变,对这个领域有更广泛的了解是非常重要的。我们相信,在这个日益数字化和数据驱动的世界,人工智能将成为技术进步的动力倍增器。报告涉及人工智能研究、人才、产业和政治等领域。以下是对报告的分析。
人工智能(AI):是一门广泛的学科,旨在创造智能机器,而不是人类和动物证明的自然智能。它已经成为一个包罗万象的术语。但是,我们需要把握这个领域的长远野心,那就是制造出能够模仿和超越人类认知的机器。
机器学习(ML):是人工智能的一个子集,它经常使用统计技术使机器能够从数据中“学习”,而不需要明确给出如何学习的指令。这个过程被称为通过使用学习“算法”来“训练”该“模型”,并逐渐提高该模型在特定任务中的性能。
强化学习(RL)3360ml的一个字段用于描述和解决代理在与环境交互过程中通过学习策略来实现收益最大化或实现特定目标的问题。强化学习不需要提前给出任何数据,而是通过接受环境对动作的奖励(反馈)来获取学习信息和更新模型参数。
深度学习(DL)一个:毫升的区域试图模仿大脑神经元层的活动,并学习如何识别数据中的复杂模式。深度学习中的“深度”是指当代ML模型中的大量神经元层,有助于学习丰富的数据表示,获得更好的性能增益。
研究领域
Transformer架构超出NLP的应用范围,正在成为机器学习的通用架构
Transformer是2017年一篇论文《Attention is All You Need》中提出的模型架构。其开创性的思想颠覆了以往将序列建模等同于RNN的思维,现已广泛应用于自然语言处理的各个领域。目前非常流行的GPT-3也是基于Transformer模型,几乎可以完成自然语言处理的大部分任务,如面向问题的搜索、阅读理解、语义推理、机器翻译、文章生成和自动问答等。而且该模型在很多任务上表现出色,比如法英、德英机器翻译任务,自动生成的文章几乎无法区分人和机器。
在计算机视觉中,受自然语言处理成功的启发,人们进行了许多尝试来结合Transformer的自注意机制。谷歌提出了ViT(VisionTransformer)模型——,一种无卷积的Transformer架构。当在公共ImageNet-21k数据集或内部JFT-300M数据集上进行预训练时,ViT在多个图像识别基准中达到或超过了最新水平。
Transformer还尝试了其他人工智能应用,比如音频和3D点云。自我关注是实现SOTA语音识别模型的基本组成部分。来自牛津大学和英特尔实验室的团队为点云设计了一个名为“点变压器”的自关注网络,在对象分类、对象部分分割和语义场景分割等不同任务上明显优于以往的工作。
图|视觉转换器
图神经网络:从小众到人工智能研究的最热门领域之一
图形数据包包含丰富的关键信息。从文本和图像等非结构化数据中进行推理学习,如句子的依赖树和图像的场景图,需要图形推理模型。图神经网络是一种链接模型,它依靠图中节点之间的信息传递来捕捉图中的依赖关系。近年来,图神经网络在许多领域取得了巨大的成功。
基于网格的图形神经网络应用模拟:
物理系统动力学建模通常需要将复杂的连续空间细分为更简单的离散单元,这个过程称为网格生成。基于网格的模拟旨在预测网格如何根据外部因素随时间变化。例如:布料在风的作用下如何移动。网格可以自然地表示为图,其中相邻的单元被连接,每个单元有若干节点和边,由网格选择决定。DeepMind的研究人员使用GNN(图神经网络)来学习网格动力学,并在仿真域的不同区域调整分辨率以满足要求的精度。他们的研究表明,该方法比基于粒子和网格的基线更快,并且可以推广到比那些更复杂的动力学。
图 | 图神经网络
采用人工智能的方法已经席卷了结构生物学
AlphaFold 2,是DeepMind公司的一个人工智能程序。该人工智能程序在蛋白质结构预测大赛CASP 14中,对大部分蛋白质结构的预测与真实结构只差一个原子的宽度,达到了人类利用冷冻电子显微镜等复杂仪器观察预测的水平,这是蛋白质结构预测史无前例的巨大进步。DeepMind公开了AlphaFold 2的源代码,免费开源有关数据集,供全世界科研人员使用。被释放的海量蛋白质结构信息蕴含着生命信息的密码,将有力推动生命科学的发展,大大加速针对癌症、病毒的抗生素、靶向药物和新效率的蛋白酶的研发
图 | AlphaFold2
产业应用
大量Ipo,标志着人工智能进入部署阶段
82家活跃的AI独角兽,合计企业价值1.3万亿美元,在人工智能独角兽的数量上,美国强于其他国家,中国、英国和以色列紧随其后。美国独角兽公司的总市值已超过8000亿欧元。
美国的人工智能创业公司吸引了最多的资金,但欧盟和英国增长迅速。美国占全球人工智能投资的2 / 3,欧盟和英国有望在2021年将其份额翻一番。
随着人工智能初创公司在全球范围内的成熟,百万轮投资现已成为普遍现象;其中,企业应用软件是2010-2021年全球投资最多的类别,数据丰富的医疗健康和金融科技领域也是相当受欢迎的投资类别。
图 | 独角兽
以人工智能为先导的药物研发公司首次公开募股
英国以人工智能为先导的药物研发公司Exscientia推出了世界上首批3种人工智能设计的药物,并进入了第一阶段人体测试;该公司于2021年10月1日在纳斯达克上市,估值为30亿美元。在提高癌症患者的生存率上,人工智能显微镜被用于测量活癌细胞对140种临床批准的第三方抗癌药物在单个细胞水平上的反应,应用计算机视觉识别出最有效的药物。
总部位于犹他州的递归制药公司(Recursion Pharmaceuticals)是一家以人工智能为基础的公司,利用高通量筛选和计算机视觉驱动显微镜来发现药物。该公司于2021年4月在纳斯达克(NASDAQ)上市,融资4.36亿美元。通过对化合物和疾病细胞类型组合的生物搜索空间进行针对性探索,构建疾病生物学“地图”。
图 | 癌症药物开发
AI优先产品部署在高风险的用例中
实时计算机视觉保护员工免受工伤:Intenseye的计算机视觉模型经过培训,可以检测超过35种员工健康与安全(EHS)事件,而人类EHS检查员不可能实时看到这些事件。该系统已在15个国家和30个城市运行,在18个月的时间里已经发现了超过180万个不安全行为。Intenseye创建了一个协作工作流,将人工智能、工作场所分析和行为改变连接起来,从而减少伤害,降低保险费,并全面提高公司生产力。
利用预测模型提高农场的可持续性和碳效率:奶牛养殖者监测他们的牲畜的健康问题和牛犊的开始。通过使用深度学习分析佩戴在脖子上的传感器的加速度计数据,能够在人类观察前2-3天预测健康问题。它们还可以预测产犊的开始时间,这将使怀孕母牛接受抗生素治疗的天数减少50%。AI系统可以预测未来200天的产奶量,误差小于1%,这同时也可以减少二氧化碳排放量。
图 | 危险驾驶行为
军用人工智能投入生产
以色列在加沙袭击中使用人工智能制导无人机群,以色列国防军使用由单一操作员控制的无人机群,利用未知技术描述的人工智能方法进行协调;以色列军事情报部门宣布加沙战役为世界上“第一次人工智能战争”,声称“人工智能首次成为对抗敌人战争中的关键因素和力量倍增器”。
美国空军在一架U-2侦察机上驾驶了一名人工智能副驾驶员,U-2给了该系统(ARTUμ)完全的雷达控制,同时“关闭”其他子系统的访问,允许操作人员选择AI不会做什么,以接受它将要做的操作风险。
美国空军研究实验室测试自主的Skyborg“天空堡先锋”计划旨在将“全任务自主与低成本、高品质的无人系统”整合在一起,使无人驾驶团队成为可能。代替人类飞行员,Skyborg为载人飞机提供态势感知和战斗任务中的生存能力。
目前,美国在人工智能上以更加协调和紧迫的方式参与竞争,以期望获得决定性的优势;其次,军事领域人工智能的投资——将与其他领域人工智能的增长形成共生关系。
图 | 飞机
其他
社区重新关注影响模型生产性能的数据问题
机器学习(ML)在生产中由以模型为中心转向以数据为中心:随着ML模型的能力和可用性的增加,模型改进的收益已经变得微不足道。在这种背景下,ML社区越来越意识到更好的数据实践的重要性,更普遍更好的MLOps(机器学习模型运营),以建立可靠的ML产品。
随着越来越多的模型部署到生产中,持续的数据管理对保持模型性能的关键变得越来越明显。随着ML系统满足更多用户的需求,数据收集和标记程序必须适应分布的变化。
研究界正在发起多项倡议,以提高人们对以数据为中心的人工智能的认识。组织一场以数据为中心的人工智能竞赛,参与者将得到一个固定的模型,并被要求修改数据,以达到可能的最佳表现。
人工智能监管始于欧洲
欧盟于2021年4月提出了《人工智能法》(AI Act)提案。该提案旨在提供必要的法律确定性,以促进创新,同时确保消费者权利的保护。与GDPR一样,拟议中的法律也涉及任何涉及在欧盟放置或使用人工智能系统的个人或组织,甚至包括外国机构。但《人工智能法案》超越了GDPR,旨在直接监管人工智能系统的使用。被禁止的人工智能做法包括扭曲人的行为的“潜意识技术”、针对弱势群体、社会评分和实时远程生物识别应用。高风险系统包括那些用作大型系统安全组件的系统,以及那些可能对基本权利产生影响的系统。它们包括公共基础设施、社会福利、医疗服务、交通系统等。低风险AI系统是指所有不属于上述类别的AI系统
欧盟《人工智能法》反映出欧盟积极创建面向未来的全球数字治理新规则的雄心。虽然前景未知,但欧盟的立法实践本身就具有积极意义,对相关领域国际规则制定有一定参考价值。
人工智能的安全是最重要的
人工智能安全定义为“确保人工智能以不伤害人类的方式部署的努力”;来自康奈尔大学、牛津大学和宾夕法尼亚大学的一个团队调查了524名在顶级ML会议上发表文章的研究人员,并就国际政治和科学组织的信任、人工智能的军事应用等问题将他们的观点与普通公众的观点进行了比较。
接受调查的人工智能研究人员中,68%的人认为人工智能安全应该比今天更加优先,这一比例高于2016年调查中发现的49%。总体而言,他们不信任政府的军队。大多数人反对或强烈反对研发致命的自主武器(73%)
在人工智能安全领域,如何确保日益强大的人工智能系统具有与人类一致的目标;如果革命性的人工智能可能在未来30年发生,有多少人正在努力确保它对人类有益呢?
更多关于图神经网络、强化学习及更多案例和数据
关注微信公众号 AI方程式 + 回复“报告”
即可获取取完整版《2021人工智能状况报告》
-END-
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/48283.html