spark权威指南(大数据处理框架Apache Spark设计与实现)

技术Apache Spark 3.0的重大功能有哪些这篇文章将为大家详细讲解有关Apache Spark 3.0的重大功能有哪些,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了

本文将详细讲解Apache Spark 3.0的主要功能,文章内容质量较高,所以边肖将与大家分享作为参考。希望你看完这篇文章后有所了解。

Apache Spark 3.0增加了许多令人兴奋的新功能,包括动态分区修剪、自适应查询执行、加速器感知调度、支持目录的数据源API(支持目录的数据源API)、Spark R中的矢量化、Hadoop 3/JDK 11/Scala 2.12等。

spark 3 . 0 . 0-在此预览预览预览中的主要功能和更改的完整列表。

Apache  Spark  3.0的重大功能有哪些

如果你想及时了解Spark,

Spark 3.0似乎没有太多与流/结构化流相关的问题,这可能有几个原因:

目前基于批处理模式的Spark Streaming/Structured Streaming能够满足大部分企业的需求,真正需要非常实时计算的应用还很少,所以Continuous Processing模块还处于实验阶段,还不急着毕业。

开发三角洲湖相关的东西要投几块砖,能给企业带来收益。目前这是他们的重点,所以对自然开发Streaming的投入比较少。

00-1010所谓的动态分区裁剪就是基于运行时推断的信息进一步进行分区裁剪。例如,我们有以下查询:

从迪姆博客中选择*

JOIN fact_iteblog

ON(dim _ iteblog . part col=fact _ iteblog . part col)

WHERE dim_iteblog.othercol 10

假设dim_iteblog表的dim_iteblog.othercol10过滤出的数据较少,但由于之前版本的Spark无法动态计算成本,可能会导致fact_iteblog表扫描出大量无效数据。通过动态分区切割,可以在运行时过滤掉fact_iteblog表中无用的数据。优化后,查询扫描的数据量大大减少,性能提高了33倍。

与此功能相对应的问题可以在SPARK-11150和SPARK-28888中找到。

00-1010自适应查询执行(也称为自适应查询优化或自适应优化)是查询执行计划的优化,允许Spark Planner在运行时执行可选的执行计划,这些计划将基于运行时统计进行优化。

早在2015年,Spark社区就提出了自适应执行的基本思想,在Spark的DAGScheduler中增加了提交单地图阶段的接口,并尝试在运行时调整shuffle分区的数量。但是,目前这种实现方式有一定的局限性。在某些场景中,会引入更多的洗牌,也就是更多的阶段,这对于三个表在同一个阶段连接的情况不能很好地处理。此外,使用当前框架很难在自适应执行中灵活地实现其他功能,例如更改执行计划或在运行时处理倾斜连接。所以这个功能一直处于实验阶段,官方文件中没有提到配置参数。这个想法主要来自英特尔和百度的大牛。详见SPARK-9850。

Apache Spark 3.0的自适应查询执行是基于SPARK-9850的思想。详见SPARK-23128。SPARK-23128的目标是实现一个灵活的框架,在Spark SQL中执行自适应执行,并支持在运行时改变减速器的数量。的新实现解决了前面讨论的所有限制,其他功能,如更改连接策略和处理倾斜连接,将作为单独的功能实现,并在以后的版本中作为插件提供。

动态分区修剪(Dynamic Partition Pruning)

如今,大数据和机器学习已经有了很大的结合。

在机器学习里面,因为计算迭代的时间可能会很长,开发人员一般会选择使用 GPU、FPGA 或 TPU 来加速计算。在 Apache Hadoop 3.1 版本里面已经开始内置原生支持 GPU 和 FPGA 了。作为通用计算引擎的 Spark 肯定也不甘落后,来自 Databricks、NVIDIA、Google 以及阿里巴巴的工程师们正在为 Apache Spark 添加原生的 GPU 调度支持,该方案填补了 Spark 在 GPU 资源的任务调度方面的空白,有机地融合了大数据处理和 AI 应用,扩展了 Spark 在深度学习、信号处理和各大数据应用的应用场景。这项工作的 issue 可以在 SPARK-24615 里面查看,相关的 SPIP(Spark Project Improvement Proposals) 文档可以参见 SPIP: Accelerator-aware scheduling。

Apache Spark 3.0的重大功能有哪些

目前 Apache Spark 支持的资源管理器 YARN 和 Kubernetes 已经支持了 GPU。为了让 Spark 也支持 GPUs,在技术层面上需要做出两个主要改变:

  • 在 cluster manager 层面上,需要升级 cluster managers 来支持 GPU。并且给用户提供相关 API,使得用户可以控制 GPU 资源的使用和分配。

  • 在 Spark 内部,需要在 scheduler 层面做出修改,使得 scheduler 可以在用户 task 请求中识别 GPU 的需求,然后根据 executor 上的 GPU 供给来完成分配。

因为让 Apache Spark 支持 GPU 是一个比较大的特性,所以项目分为了几个阶段。 在 Apache Spark 3.0 版本,将支持在 standalone、 YARN 以及 Kubernetes 资源管理器下支持 GPU,并且对现有正常的作业基本没影响。 对于 TPU 的支持、Mesos 资源管理器中 GPU 的支持、以及 Windows 平台的 GPU 支持将不是这个版本的目标。 而且对于一张 GPU 卡内的细粒度调度也不会在这个版本支持; Apache Spark 3.0 版本将把一张 GPU 卡和其内存作为不可分割的单元。

Apache Spark DataSource V2

Data Source API 定义如何从存储系统进行读写的相关 API 接口,比如 Hadoop 的 InputFormat/OutputFormat,Hive 的 Serde 等。这些 API 非常适合用户在 Spark 中使用 RDD 编程的时候使用。使用这些 API 进行编程虽然能够解决我们的问题,但是对用户来说使用成本还是挺高的,而且 Spark 也不能对其进行优化。为了解决这些问题,Spark 1.3 版本开始引入了 Data Source API V1,通过这个 API 我们可以很方便的读取各种来源的数据,而且 Spark 使用 SQL 组件的一些优化引擎对数据源的读取进行优化,比如列裁剪、过滤下推等等。

Data Source API V1 为我们抽象了一系列的接口,使用这些接口可以实现大部分的场景。 但是随着使用的用户增多,逐渐显现出一些问题:

  • 部分接口依赖 SQLContext 和 DataFrame

  • 扩展能力有限,难以下推其他算子

  • 缺乏对列式存储读取的支持

  • 缺乏分区和排序信息

  • 写操作不支持事务

  • 不支持流处理

为了解决 Data Source V1 的一些问题,从 Apache Spark 2.3.0 版本开始,社区引入了 Data Source API V2,在保留原有的功能之外,还解决了 Data Source API V1 存在的一些问题,比如不再依赖上层 API,扩展能力增强。 Data Source API V2 对应的 ISSUE 可以参见  SPARK-15689 。 虽然这个功能在 Apache Spark 2.x 版本就出现了,但是不是很稳定,所以社区对 Spark DataSource API V2 的稳定性工作以及新功能分别开了两个 ISSUE: SPARK-25186  以及  SPARK-22386 。 Spark DataSource API V2 最终稳定版以及新功能将会随着年底和 Apache Spark 3.0.0 版本一起发布,其也算是 Apache Spark 3.0.0 版本的一大新功能。

更好的 ANSI SQL 兼容

PostgreSQL 是最先进的开源数据库之一,其支持 SQL:2011 的大部分主要特性,完全符合 SQL:2011 要求的 179 个功能中,PostgreSQL 至少符合 160 个。Spark 社区目前专门开了一个 ISSUE SPARK-27764 来解决 Spark SQL 和 PostgreSQL 之间的差异,包括功能特性补齐、Bug 修改等。功能补齐包括了支持 ANSI SQL 的一些函数、区分 SQL 保留关键字以及内置函数等。这个 ISSUE 下面对应了 231 个子 ISSUE,如果这部分的 ISSUE 都解决了,那么 Spark SQL 和 PostgreSQL 或者 ANSI SQL:2011 之间的差异更小了。

SparkR 向量化读写

Spark 是从 1.4 版本开始支持 R 语言的,但是那时候 Spark 和 R 进行交互的架构图如下:

Apache Spark 3.0的重大功能有哪些

每当我们使用 R 语言和 Spark 集群进行交互,需要经过 JVM ,这也就无法避免数据的序列化和反序列化操作,这在数据量很大的情况下性能是十分低下的!

而且 Apache Spark 已经在许多操作中进行了向量化优化(vectorization optimization),例如,内部列式格式(columnar format)、Parquet/ORC 向量化读取、Pandas UDFs 等。向量化可以大大提高性能。SparkR 向量化允许用户按原样使用现有代码,但是当他们执行 R 本地函数或将 Spark DataFrame 与 R DataFrame 互相转换时,可以将性能提高大约数千倍。这项工作可以看下 SPARK-26759。

可以看出,SparkR 向量化是利用 Apache Arrow,其使得系统之间数据的交互变得很高效,而且避免了数据的序列化和反序列化的消耗,所以采用了这个之后,SparkR 和 Spark 交互的性能得到极大提升。

其他

  • Spark on K8S:Spark 对 Kubernetes 的支持是从2.3版本开始的,Spark 2.4 得到提升,Spark 3.0 将会加入 Kerberos 以及资源动态分配的支持。

  • Remote Shuffle Service:当前的 Shuffle 有很多问题,比如弹性差、对 NodeManager 有很大影响,不适应云环境。为了解决上面问题,将会引入 Remote Shuffle Service,具体参见 SPARK-25299

  • 支持 JDK 11:参见 SPARK-24417,之所以直接选择 JDK 11 是因为 JDK 8 即将达到 EOL(end of life),而 JDK9 和 JDK10 已经是 EOL,所以社区就跳过 JDK9 和 JDK10 而直接支持 JDK11。不过 Spark 3.0 预览版默认还是使用 JDK 1.8;

  • 移除对 Scala 2.11 的支持,默认支持 Scala 2.12,具体参见 SPARK-26132

  • 支持 Hadoop 3.2,具体参见 SPARK-23710,Hadoop 3.0 已经发布了2年了(Apache Hadoop 3.0.0-beta1 正式发布,下一个版本(GA)即可在线上使用),所以支持 Hadoop 3.0 也是自然的,不过 Spark 3.0 预览版默认还是使用 Hadoop 2.7.4。

关于Apache Spark 3.0的重大功能有哪些就分享到这里了,希望

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/149259.html

(0)

相关推荐

  • 为什么香港服务器租用要选择优质服务商

    技术为什么香港服务器租用要选择优质服务商租用香港服务器可以为您提供大量不同的优势,这些优势对您和您的业务都有增益。选择可靠的服务商,您还将获得更有效、更专业和技术支持。高速网络和正常运行时间的性能表现也能将您的业务提升到

    礼包 2021年12月14日
  • 学完Python可以做什么

    技术学完Python可以做什么这篇文章主要介绍“学完Python可以做什么”,在日常操作中,相信很多人在学完Python可以做什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”学完Pyth

    攻略 2021年11月23日
  • 香港多IP香港多IP服务器可以做游戏代理吗

    技术香港多IP香港多IP服务器可以做游戏代理吗很多玩家候经常会发现无论是steam还是psn虽然游戏下载升级很快但是联机的时候质量很差,那么如何解决这一问题呢,不少用户想到利用游戏加速器,但是现在很多游戏加速器都推出了V

    礼包 2021年10月22日
  • hibernate如何实现逆向工程

    技术hibernate如何实现逆向工程这篇文章将为大家详细讲解有关hibernate如何实现逆向工程,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。导入hibernate 插件,这个自己

    攻略 2021年12月8日
  • SQL-Hive中Select From怎么用

    技术SQL-Hive中Select From怎么用这篇文章主要介绍了SQL-Hive中Select From怎么用,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解

    攻略 2021年12月10日
  • 如何掌握函数式编程

    技术如何掌握函数式编程这篇文章主要介绍“如何掌握函数式编程”,在日常操作中,相信很多人在如何掌握函数式编程问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”如何掌握函数式编程”的疑惑有所帮助!

    攻略 2021年10月27日