机器心脏报告
编辑:陈平、泽楠
AI的发展方向需要转向“小数据”。
吴恩达在人工智能领域有很高的声誉。2000年代末,他率先与斯坦福大学学生一起使用GPU训练深度学习模型,并于2011年创立了谷歌大脑(Google Brain),通过分布式集群计算机开发超大规模人工神经网络。2014年5月,吴恩达加入百度,负责“百度大脑”项目,并担任百度首席科学家。2017年3月,吴恩达宣布从百度辞职。2017年12月,吴恩达宣布成立蓝鼎。人工智能公司AI,担任公司CEO。
近日,吴恩达在接受IEEE Spectrum采访时表示,他已经确定了AI领域下一个重大变革方向,是时候从大数据转向小数据和高质量数据了。
目前,吴恩达的工作重点是着陆。他创办的AI公司,该公司建立了一个名为LandingLens的平台,通过计算机视觉帮助制造商提高视觉检测。此外,他还成为“以数据为中心”的AI运动的支持者,并表示小数据也可以解决包括模型效率、准确性和偏差在内的大AI问题。
以下为采访原文,机器之心在不改变初衷的情况下进行了整理。
吴恩达:以数据为中心的解决人工智能大问题的方案
在过去的十几年里,深度学习的巨大进步是由越来越大的模型处理越来越多的数据推动的。有些人认为这是一个不可持续的轨迹。你怎么想呢?
吴恩达:这确实是一个值得思考的问题。我们看到了基本模型在NLP领域的发展潜力。我对NLP模型变得更大并在计算机视觉中构建基本模型感到兴奋。我觉得CV里面还是有很多信息可以利用的:但是由于计算性能和视频处理成本的限制,相关的基础模型还不能建立。大数据和大模型作为深度学习算法的引擎已经成功运行了15年左右。到目前为止,它仍然有力量。说了这么多,只适用于部分问题,还有一系列其他问题需要小数据来解决。
你说的计算机视觉的基本模型是什么意思?
吴恩达:这个术语是我和斯坦福大学的一些朋友创造的。它指的是非常大的模型,在非常大的数据集上训练,可以针对特定的应用进行微调。例如,我们可以将GPT-3视为NLP领域的基本模型。基本模型为机器学习应用的开发提供了新的范式,具有巨大的应用前景,但同时也面临一些挑战:如何保证公平和公正,尤其是随着越来越多的研究人员在基本模型上构建应用,这些挑战将变得越来越明显。
建立一个视频的基本模型需要什么?
吴恩达:我认为这是一个可扩展性的问题。与NLP相比,在CV领域处理大量视频图像需要巨大的计算量。我想这就是为什么基本模型首先出现在NLP中的原因。许多研究人员正在研究这个问题,我认为在CV领域已经有了开发此类模型的早期迹象。但是如果我们有一个比现在高10倍的处理器,我们可以很容易地用10倍的视频数据建立一个基本的视觉模型。
话虽如此,过去十年深度学习的成功大多发生在面向消费者的公司。这些公司拥有庞大的用户群,有时有数十亿用户,所以数据量巨大。虽然这种机器学习范式给消费类软件带来了巨大的经济价值,但我发现这种规模方法并不适用于其他行业。
听起来很有意思,因为你早期的工作是在一家面向消费者的公司,拥有数百万用户。
吴恩达:十多年前,当我提议启动谷歌大脑项目时,使用谷歌的计算基础设施来构建大型神经网络是一种有争议的做法。一位非常资深的研究员曾经告诉我,启动谷歌大脑会对我的职业生涯不利。我不应该只关注规模扩张,而应该关注架构创新。
在数据行业,我认为重点必须从大数据转向高质量的数据。拥有50个设计良好的例子就足以向神经网络解释用户希望它学习什么。
记得我和我的学生在发表第一篇NeurIPS workshop论文的时候,提倡使用CUDA进行深度学习3354。另一位AI领域资深人士告诉我:CUDA编程很复杂,作为编程范式,工作量太大,但我说服不了他。
我想他们现在都信了。
吴恩达:我也这么认为。在过去的一年里,当我和人们谈论以数据为中心的AI运动时,我总是会想到10年或15年前我和人们谈论深度学习和可扩展性时的情况。在过去的一年里,我做出了与10年前相同的评价:这里没有什么新东西,这似乎是错误的方向。
你如何定义以数据为中心的AI,为什么认为它是一项运动?
吴恩达:以数据为中心的人工智能是一门学科,它的研究重点是建立人工智能系统所需的数据。对于AI系统,你得用代码实现一些算法,比如神经网络,然后在你的数据集上训练。基于这种范式,在过去的十年中,深度学习网络已经得到了显著的改进,以
至于对于许多应用程序,代码、神经网络架构基本上是一个已经解决的问题。因此,在实际应用程序中,现在更有效率的做法是保持神经网络体系架构不变,转而寻找改进数据的方法。
当我讲到这件事时,很多研究者表示赞成,他们按照这个规律已经做了 20 年了。现在是时候把这些事做成一门系统的工程学科了。
以数据为中心的 AI 运动要比一家公司或一组研究人员要大得多。我和其他合作者在 NeurIPS 上组织了一个以数据为中心的 AI 研讨会,我对出席的作者和演讲者的数量感到非常高兴。
你经常谈论公司或机构可供使用的数据非常少,以数据为中心的 AI 如何帮助他们?
吴恩达:我们曾听说过很多用数百万张图像构建的视觉系统——我曾经用 3.5 亿张图像构建了一个人脸识别系统。用数亿张图像构建的系统,是用 50 张图像构建的系统所远不能达到的。但事实证明,如果你有 50 个非常好的示例,你就可以构建一些有价值的东西,比如缺陷检查系统。在许多缺少巨型数据集的行业中,我认为重点必须从大数据转向优质数据。拥有 50 个精心设计的示例足以向神经网络解释用户希望它学习什么。
仅使用 50 张图像来训练模型,你所讲的是在非常大的数据集上训练模型并对其进行微调?还是训练一个全新的模型?
吴恩达:让我来描述一下 Landing.AI 的功能。在为制造商做视觉检查时,我们经常使用预训练模型 RetinaNet,其实预训练只是一小部分难题,更大的难题是可供使用的工具,使制造商能够选择正确的图像集并以相同的方式标注它们。我们在视觉、NLP 和语音方面都遇到过一个非常实际的问题,即使是人类标注也不能就标签达成一致。对于大数据应用程序,常见的反应是:如果数据有噪声,我们只需通过大量数据,相应的算法就会对其进行平均。但是,如果能够开发出一些工具来标记数据不一致的地方,并提供具有针对性的方法改善数据的一致性,这将是一个获得高性能系统的更有效的方法。
收集更多的数据通常会有所帮助,但如果研究者尝试为所有内容收集更多数据,那代价非常昂贵。
例如,如果你有 10,000 张图像,其中 30 张图像属于一类,而这 30 张图像标签有不一致的地方,我们要做的就是构建一种工具来对不一致的数据子集进行处理。因此,你可以非常快速地重新标记这些图像以使其更加一致,从而提高性能。
对高质量数据的关注是否会帮助消除数据偏见?如果你可以在训练之前更多地整理数据?
吴恩达:肯定是这样。很多研究人员指出,有偏见的数据是导致有偏见系统的众多因素之一。在数据工程方面我们已经有许多深思熟虑的工作。在 NeurIPS 的研讨会上,Olga Russakovsky 对此进行了非常精彩的演讲。在 NeurIPS 主会议上,我也非常喜欢 Mary Gray 的演讲,其中谈到了以数据为中心的 AI 如何成为解决方案的一部分(而不是整个解决方案)。像 Datasheets for Datasets 这样的新工具似乎也是这个难题的重要组成部分。
以数据为中心的 AI 为我们提供的强大工具之一是能够设计数据子集。想象一下,训练一个机器学习系统,发现它的性能对于大多数数据集都还可以,但它的性能只对数据的一个子集有偏见。如果你尝试更改整个神经网络架构以仅提高该子集的性能,那将非常困难。但是,如果你可以调整数据的子集,则可以更有针对性地解决问题。
当说到数据工程,我们主要在讨论的是什么?
吴恩达:在 AI 领域里,数据清洗非常重要,但清洗数据的方式通常高度依赖手动的方式。在计算机视觉中,有人可能会通过 Jupyter Notebook 来可视化图像,以发现问题并修复它。我对能够让自己拥有大规模数据集的工具感到兴奋,这些工具可以快速有效地将你的注意力吸引到标签嘈杂的数据子集上。或者快速将你的注意力吸引到 100 个类别中的一个,这将有利于收集更多数据。但如果你尝试为所有内容收集更多数据,那可能是一项非常昂贵的工作。
例如,我曾经发现当背景中有汽车噪音时,语音识别系统的性能会很差。知道这一点让我能够在后台收集更多有汽车噪音的数据,而不是试图为所有事情收集更多数据,后者将是昂贵且缓慢的。
使用合成数据怎么样,这通常是一个好的解决方案吗?
吴恩达:我认为合成数据是以数据为中心的 AI 工具箱中的重要工具。在 NeurIPS 研讨会上,Anima Anandkumar 做了一个关于合成数据的精彩演讲。我认为合成数据的重要用途不仅仅是作为增加学习算法数据集的预处理步骤。我希望看到更多工具让开发人员使用合成数据生成作为迭代机器学习开发闭环的一部分。
你的意思是,合成数据可以让你在更多数据集上尝试模型吗?
吴恩达:不,这是个例子。假如你试图检测智能手机外壳上的缺陷,手机上有很多不同类型的缺陷:如划痕、凹痕、砂孔、涂料问题等等。如果你训练了一个模型,然后通过错误分析发现它总体上表现良好,但在凹痕问题上表现不佳,那么合成数据生成可以让你以更有针对性的方式解决问题。你可以仅为凹痕记类别生成更多数据。
合成数据生成是一个非常强大的工具,我们也会率先尝试很多其他工具。例如数据增强、提高标签一致性,或者仅仅要求工厂收集更多数据。
你能举个例子吗?有公司联系 Landing.AI 并表示在视觉检测方面有问题时,你如何说服他们部署自己的产品?
吴恩达:当客户找到我们时,我们首先就他们面临的问题进行交流,并查看一些图像以验证该问题在计算机视觉方面是否可行。通常我们会要求他们将数据上传到 LandingLens 平台。我们经常就以数据为中心的 AI 方法论向他们提供建议,并帮助他们标注数据。
Landing.AI 的一项重要业务就是帮助制造业公司应用机器学习。我们很多时候的工作是确保软件足够快速,易于使用。通过机器学习开发的迭代流程,我们为客户提供诸如如何在平台上训练模型、何时以及如何改进数据标记以提高模型性能等方面的建议。最后,我们的培训和软件服务,及已训练模型将部署到工厂的边缘设备上,来为他们提供全程支持。
如何应对不断变化的需求?如果工厂的产品发生变化或照明条件发生变化,AI 模型能否跟上?
吴恩达:每个工厂的情况都不一样。很多情况下都会出现数据飘移现象,但是有一些制造商的生产线已经运行了 20 年几乎没有变化,他们也预计未来五年不发生变化。那些稳定的环境使事情变得更容易。
对于其他生产商,我们提供了在出现重大数据漂移问题时进行标记的工具。我发现授权制造业客户更正数据、重新训练和更新模型是非常重要的事。因为如果发生问题并是在美国凌晨 3 点的情况下,我希望他们能够立即调整他们的机器学习算法以维持工厂运转。
在消费互联网软件中,我们可以训练一些机器学习模型来服务数十亿用户。在制造业中,你可能有一万家制造商构建一万个自定义 AI 模型。挑战在于,Landing.AI 如何在不雇佣一万名机器学习专家的条件下做到这一点?
你是说要使其规模化,就必须在用户侧做大量训练等工作?
吴恩达:就是这样。这是人工智能领域中的一个全行业问题,而不仅仅是制造业。看看医疗行业,每家医院的电子健康记录格式都略有不同。医院如何在此之上训练自己的 AI 模型?期望每家医院的 IT 人员都发明新的神经网络架构是不现实的。
摆脱困境的唯一方法是构建工具,通过为客户提供工具来构筑数据和表达他们的领域知识,从而使他们能够构建自己的模型。这是 Landing.AI 在计算机视觉领域中所做的工作,而 AI 领域需要其他团队在其他领域执行。
你认为在以数据为中心的 AI 运动中,还有哪些是人们需要知道的重要事情?
吴恩达:过去十年,人工智能最大的转变是向深度学习的转变。我认为在这十年中,最大的变化很可能是转向以数据为中心的人工智能。随着当今神经网络架构的成熟,我认为在很多实际应用上,瓶颈将出在「能否有效获取开发运行良好系统所需的数据」上。
以数据为中心的 AI 运动在整个社区拥有巨大的能量和动力。我希望更多研究和开发人员能够加入并持续推动它。
原文链接:
https://spectrum.ieee.org/andrew-ng-data-centric-ai
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/254923.html