apachesparkapi(apachespark中文实战攻略)

技术怎么使用Apache Spark构建分析Dashboard这篇文章主要介绍“怎么使用Apache Spark构建分析Dashboard”,在日常操作中,相信很多人在怎么使用Apache Spark构建分析Dashbo

本文主要介绍“如何使用Apache Spark构建分析仪表盘”。在日常操作中,相信很多人对于如何使用Apache Spark构建分析Dashboard都有疑问。边肖查阅了各种资料,整理出简单易用的操作方法,希望能帮你解答关于如何使用Apache Spark搭建分析Dashboard的疑惑!接下来,请和边肖一起学习!
问题描述
电子商务门户网站(http://www.aaaa.com)希望建立一个实时分析仪表板,以可视化每分钟交付的订单数量,从而优化物流效率。
解决方案
在解决方案之前,请快速查看我们将使用的工具:
Apache Spark ndash通用大规模数据快速处理引擎。Spark的批处理速度比Hadoop的MapReduce快近10倍,而内存中的数据分析速度快近100倍。
Python ndashPython是一种广泛使用的高级、通用、解释性和动态编程语言。
Kafka ndash一个高吞吐量的分布式消息发布和订阅系统。
Node.js ndash事件驱动的I/O服务器端JavaScript环境,运行在V8引擎上。
Socket.io ndash插座。IO是一个用于构建实时Web应用程序的JavaScript库。它支持Web客户端和服务器之间的实时双向通信。
高级图表。网页上的交互式JavaScript图表。
CloudxLab ndash为练习和学习各种工具提供一个真实的基于云的环境。
如何构建数据Pipeline?
下面是数据管道的高层架构图。
怎么使用Apache Spark构建分析Dashboard
数据管道
怎么使用Apache Spark构建分析Dashboard
实时分析Dashboard
让我们从数据管道中每个阶段的描述开始,并完成解决方案的构建。
阶段1
当客户采购系统中的项目或订单管理系统中的订单状态发生变化时,相应的订单ID、订单状态和时间会被推送到相应的卡夫卡主题。
数据集
因为没有真正的线上电商门户,我们打算用CSV数据集来模拟一下。让我们看看数据集:
怎么使用Apache Spark构建分析Dashboard
数据集中有三列:“日期时间”、“订单编号”和“状态”。数据集中的每一行代表订单在特定时间的状态。这里我们用“xxxxx

-xxx”代表订单标识。我们只对每分钟交付的订单数量感兴趣,所以不需要实际的订单ID。

您可以从CloudxLab GitHub仓库克隆完整解决方案的源代码和数据集。

数据集位于项目的spark-streaming/data/order _ data文件夹中。

推送数据集到Kafka

shell脚本将分别从这些CSV文件中获取每一行,并将其推送到Kafka。将一个CSV文件推送至Kafka后,需要等待1分钟才能推送下一个CSV文件,可以模拟实时电商门户环境,其中订单状态会以不同的时间间隔进行更新。在现实世界中,当订单状态发生变化时,相应的订单明细会推送给卡夫卡。

运行我们的shell脚本,将数据推入卡夫卡主题。登录到CloudxLab网络控制台并运行以下命令。

怎么使用Apache  Spark构建分析Dashboard

阶段2

在第一阶段之后,卡夫卡的“订单-数据”主题中的每条信息将如下

怎么使用Apache  Spark构建分析Dashboard

阶段3

trong>

Spark  streaming代码将在60秒的时间窗口中从“order-data”的Kafka主题获取数据并处理,这样就能在该60秒时间窗口中为每种状态的订单计数。处理后,每种状态订单的总计数被推送到“order-one-min-data”的Kafka主题中。

请在Web控制台中运行这些Spark streaming代码

怎么使用Apache Spark构建分析Dashboard

阶段4

在这个阶段,Kafka主题“order-one-min-data”中的每个消息都将类似于以下JSON字符串

怎么使用Apache Spark构建分析Dashboard

阶段5

运行Node.js server

现在我们将运行一个node.js服务器来使用“order-one-min-data”Kafka主题的消息,并将其推送到Web浏览器,这样就可以在Web浏览器中显示出每分钟发货的订单数量。

请在Web控制台中运行以下命令以启动node.js服务器

怎么使用Apache Spark构建分析Dashboard

现在node服务器将运行在端口3001上。如果在启动node服务器时出现“EADDRINUSE”错误,请编辑index.js文件并将端口依次更改为3002...3003...3004等。请使用3001-3010范围内的任意可用端口来运行node服务器。

用浏览器访问

启动node服务器后,请转到http://YOUR_WEB_CONSOLE:PORT_NUMBER访问实时分析Dashboard。如果您的Web控制台是f.cloudxlab.com,并且node服务器正在端口3002上运行,请转到http://f.cloudxlab.com:3002访问Dashboard。

当我们访问上面的URL时,socket.io-client库被加载到浏览器,它会开启服务器和浏览器之间的双向通信信道。

阶段6

一旦在Kafka的“order-one-min-data”主题中有新消息到达,node进程就会消费它。消费的消息将通过socket.io发送给Web浏览器。

阶段7

一旦web浏览器中的socket.io-client接收到一个新的“message”事件,事件中的数据将会被处理。如果接收的数据中的订单状态是“shipped”,它将会被添加到HighCharts坐标系上并显示在浏览器中。

截图

我们还录制了一个关于如何运行上述所有的命令并构建实时分析Dashboard的视频。

我们已成功构建实时分析Dashboard。这是一个基本示例,演示如何集成Spark-streaming,Kafka,node.js和socket.io来构建实时分析Dashboard。现在,由于有了这些基础知识,我们就可以使用上述工具构建更复杂的系统。

到此,关于“怎么使用Apache Spark构建分析Dashboard”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/145801.html

(0)

相关推荐

  • oracle left join先后顺序(oracle rac)

    技术ORACLE 10G RAC如何启动与关闭小编给大家分享一下ORACLE 10G RAC如何启动与关闭,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了

    攻略 2021年12月18日
  • 12.18 课程总结

    技术12.18 课程总结 12.18 课程总结大三上半学期转眼就进入了尾声,又是一个充满了代码和压力的学期,疫情好转但是疫情防控不容忽视,所以自从开学到校之后依旧是不能够自由进出校园。大三上学期学习了很

    礼包 2021年12月18日
  • 数组扁平化js(js实现数组扁平化输出)

    技术js怎样实现数组的扁平化js怎样实现数组的扁平化,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。数组扁平化的方式什么是数组扁平化?数组扁平化:指将一个

    攻略 2021年12月13日
  • 歌吟的意思,古代文人雅士的啸是什么意思

    技术歌吟的意思,古代文人雅士的啸是什么意思啸,一种歌吟方式歌吟的意思。啸,一种歌吟方式,称之为“啸”。啸不承担切实的内容,不遵守既定的格式,只随心所欲地吐露出一派风致,一腔心曲,因此特别适合乱世名士。历史上的魏晋时期多有

    生活 2021年10月27日
  • c++ 文本处理

    技术c++ 文本处理 c++ 文本处理c++ 文本处理
    1、使用sstream版本
    (1)功能:截取第一列为1以后的数据,如下图,截取第5行(包括第5行)以后的数据,前面4行数据丢弃。(2)代码:tex

    礼包 2021年12月3日
  • MySQL 5.7的分布式事务支持举例分析

    技术MySQL 5.7的分布式事务支持举例分析本篇内容主要讲解“MySQL 5.7的分布式事务支持举例分析”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“MySQL 5.7的分

    攻略 2021年11月19日