爬虫Spark UI(Spark streaming监控)_spark爬虫-程序员宅基地

技术标签: spark streaming  爬虫  spark  监控  Spark Streaming  

spark streaming作为实时任务,出了问题并不像离线任务重跑就可以了.对监控要求个方面要求较高.在任务失败 堵塞 卡死等情况下都需要发邮件或者短信报警.
比较普遍的方式是利用spark streaming自带的StreamingListener接口来监控.
如果前者不满足要求,我们也可以简单写个静态爬虫轮询爬取spark ui上的各种指标来diy监控.

方案一 StreamingListener接口

StreamingListener接口只需要新建一个监控类继承StreamingListener,然后重写需要的方法即可.然后记得在主类里加上 ssc.addStreamingListener执行.
以下是个简单的示例,在batch开始时监控schedulingDelay

class StreamingMonitor(ssc:StreamingContext) extends StreamingListener{
  override def onBatchStarted(batchStarted: StreamingListenerBatchStarted): Unit = {
    val Delay_ts = batchStarted.batchInfo.schedulingDelay.get
    if(Delay_ts > DELAY_MAX ){
        sendEmail(...)
    }
  }
}

...
//在main里加
    ssc.addStreamingListener(new StreamingMonitor(ssc))

值得注意的是,StreamingListener接口有多个方法可以重写

//需要监听spark streaming中各个阶段的事件只需实现这个特质中对应的事件函数即可
//本身既有注释说明
trait StreamingListener {

 /** Called when the streaming has been started */
 /** streaming 启动的事件 */
 def onStreamingStarted(streamingStarted: StreamingListenerStreamingStarted) { }

 /** Called when a receiver has been started */
 /** 接收启动事件 */
 def onReceiverStarted(receiverStarted: StreamingListenerReceiverStarted) { }

 /** Called when a receiver has reported an error */
 def onReceiverError(receiverError: StreamingListenerReceiverError) { }

 /** Called when a receiver has been stopped */
 def onReceiverStopped(receiverStopped: StreamingListenerReceiverStopped) { }

 /** Called when a batch of jobs has been submitted for processing. */
 /** 每个批次提交的事件 */
 def onBatchSubmitted(batchSubmitted: StreamingListenerBatchSubmitted) { }

 /** Called when processing of a batch of jobs has started.  */
 /** 每个批次启动的事件 */
 def onBatchStarted(batchStarted: StreamingListenerBatchStarted) { }

 /** Called when processing of a batch of jobs has completed. */
 /** 每个批次完成的事件  */
 def onBatchCompleted(batchCompleted: StreamingListenerBatchCompleted) { }

 /** Called when processing of a job of a batch has started. */
 def onOutputOperationStarted(
     outputOperationStarted: StreamingListenerOutputOperationStarted) { }

 /** Called when processing of a job of a batch has completed. */
 def onOutputOperationCompleted(
     outputOperationCompleted: StreamingListenerOutputOperationCompleted) { }
}

独立监控程序监控spark ui

有些指标可能我们用接口实现不了. 使用scala实现一个简单的静态爬虫来监控spark ui,相当于一个脚本程序替我们不停查看spark ui

//需要jsoup包来读接口并解析html
        <dependency>
            <groupId>org.jsoup</groupId>
            <artifactId>jsoup</artifactId>
        </dependency>

以下是个简单的示例来监控job页面的job执行时间是否过长.
注意有些公司 spark ui可能需要cookie信息.


object StreamingUIMonitorJob {

    val app_id = args(0)
    var dc = getJobDoc(app_id)
    if(dc == null){
      println("get Job document failed")    
      ...
    }

    //如果没有active job则等待1min,等待10min报警
    var active_job_table = dc.getElementById("activeJob-table")
    var alarm_num = 0
    while (active_job_table == null){
      if(alarm_num > 10){
        ...
      }
      Thread.sleep(60000)
      dc = getJobDoc(app_id)
      active_job_table = dc.getElementById("activeJob-table")
      alarm_num = alarm_num + 1
    }


    var durs = Array[String]()
    var batchs = Array[String]()

    //只有一个tbody tbody里可能有多个tr,一个job 一个tr
    val active_jobs = active_job_table.getElementsByTag("tbody")(0).getElementsByTag("tr")
    for(active_job <- active_jobs){
      val job_infos = active_job.getElementsByTag("td")
      println(job_infos(2).text()) //batch 时间
      batchs :+= job_infos(2).text()
      println(job_infos(3).text()) //dur 时间
      durs :+= job_infos(3).text()
    }


    if(durs.length > 0){
      try{
        var delay:Double = 0.0
        for(dur <- durs){
          val ls = dur.split(" ")
          val num = ls(0).toDouble
          if(ls(1) == "min" && num > delay) delay = num
        }
        if(delay > MAX_DELAY_TIME) {
          println(s"active job delay ${delay} min !")
          //报警
          ...
        }
      }catch {
        case e:Exception=>
          println(s"解析durs出错 Exception:${e}")
      }
    }
}

  def getJobDoc(app_id :String): Document ={
    var con = Jsoup.connect(SPARK_UI_URL + app_id )
    var cookie = ""
    // get cookie
    try {
      cookie = con.execute().cookies().toString
      cookie = cookie.substring(cookie.indexOf("{")+1,cookie.lastIndexOf("}"))
    }catch {
      case e:Exception=>
        println("get cookie exception!")
    }
    // get document
    var doc :Document = null
    try {
      con = Jsoup.connect(SPARK_UI_URL + app_id + "/jobs/?proxyapproved=true").header("Cookie",cookie)
      doc = con.get()
    }catch {
      case e:Exception=>
        println("get Job document exception!")
    }
    doc
  }

这只是一种场景需要,实际上spark ui上的所有指标都可以通过jsoup解析html监控的.

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_21277411/article/details/102955107

智能推荐

使用nginx解决浏览器跨域问题_nginx不停的xhr-程序员宅基地

文章浏览阅读1k次。通过使用ajax方法跨域请求是浏览器所不允许的,浏览器出于安全考虑是禁止的。警告信息如下:不过jQuery对跨域问题也有解决方案,使用jsonp的方式解决,方法如下:$.ajax({ async:false, url: 'http://www.mysite.com/demo.do', // 跨域URL ty..._nginx不停的xhr

在 Oracle 中配置 extproc 以访问 ST_Geometry-程序员宅基地

文章浏览阅读2k次。关于在 Oracle 中配置 extproc 以访问 ST_Geometry,也就是我们所说的 使用空间SQL 的方法,官方文档链接如下。http://desktop.arcgis.com/zh-cn/arcmap/latest/manage-data/gdbs-in-oracle/configure-oracle-extproc.htm其实简单总结一下,主要就分为以下几个步骤。..._extproc

Linux C++ gbk转为utf-8_linux c++ gbk->utf8-程序员宅基地

文章浏览阅读1.5w次。linux下没有上面的两个函数,需要使用函数 mbstowcs和wcstombsmbstowcs将多字节编码转换为宽字节编码wcstombs将宽字节编码转换为多字节编码这两个函数,转换过程中受到系统编码类型的影响,需要通过设置来设定转换前和转换后的编码类型。通过函数setlocale进行系统编码的设置。linux下输入命名locale -a查看系统支持的编码_linux c++ gbk->utf8

IMP-00009: 导出文件异常结束-程序员宅基地

文章浏览阅读750次。今天准备从生产库向测试库进行数据导入,结果在imp导入的时候遇到“ IMP-00009:导出文件异常结束” 错误,google一下,发现可能有如下原因导致imp的数据太大,没有写buffer和commit两个数据库字符集不同从低版本exp的dmp文件,向高版本imp导出的dmp文件出错传输dmp文件时,文件损坏解决办法:imp时指定..._imp-00009导出文件异常结束

python程序员需要深入掌握的技能_Python用数据说明程序员需要掌握的技能-程序员宅基地

文章浏览阅读143次。当下是一个大数据的时代,各个行业都离不开数据的支持。因此,网络爬虫就应运而生。网络爬虫当下最为火热的是Python,Python开发爬虫相对简单,而且功能库相当完善,力压众多开发语言。本次教程我们爬取前程无忧的招聘信息来分析Python程序员需要掌握那些编程技术。首先在谷歌浏览器打开前程无忧的首页,按F12打开浏览器的开发者工具。浏览器开发者工具是用于捕捉网站的请求信息,通过分析请求信息可以了解请..._初级python程序员能力要求

Spring @Service生成bean名称的规则(当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致)_@service beanname-程序员宅基地

文章浏览阅读7.6k次,点赞2次,收藏6次。@Service标注的bean,类名:ABDemoService查看源码后发现,原来是经过一个特殊处理:当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致public class AnnotationBeanNameGenerator implements BeanNameGenerator { private static final String C..._@service beanname

随便推点

二叉树的各种创建方法_二叉树的建立-程序员宅基地

文章浏览阅读6.9w次,点赞73次,收藏463次。1.前序创建#include&lt;stdio.h&gt;#include&lt;string.h&gt;#include&lt;stdlib.h&gt;#include&lt;malloc.h&gt;#include&lt;iostream&gt;#include&lt;stack&gt;#include&lt;queue&gt;using namespace std;typed_二叉树的建立

解决asp.net导出excel时中文文件名乱码_asp.net utf8 导出中文字符乱码-程序员宅基地

文章浏览阅读7.1k次。在Asp.net上使用Excel导出功能,如果文件名出现中文,便会以乱码视之。 解决方法: fileName = HttpUtility.UrlEncode(fileName, System.Text.Encoding.UTF8);_asp.net utf8 导出中文字符乱码

笔记-编译原理-实验一-词法分析器设计_对pl/0作以下修改扩充。增加单词-程序员宅基地

文章浏览阅读2.1k次,点赞4次,收藏23次。第一次实验 词法分析实验报告设计思想词法分析的主要任务是根据文法的词汇表以及对应约定的编码进行一定的识别,找出文件中所有的合法的单词,并给出一定的信息作为最后的结果,用于后续语法分析程序的使用;本实验针对 PL/0 语言 的文法、词汇表编写一个词法分析程序,对于每个单词根据词汇表输出: (单词种类, 单词的值) 二元对。词汇表:种别编码单词符号助记符0beginb..._对pl/0作以下修改扩充。增加单词

android adb shell 权限,android adb shell权限被拒绝-程序员宅基地

文章浏览阅读773次。我在使用adb.exe时遇到了麻烦.我想使用与bash相同的adb.exe shell提示符,所以我决定更改默认的bash二进制文件(当然二进制文件是交叉编译的,一切都很完美)更改bash二进制文件遵循以下顺序> adb remount> adb push bash / system / bin /> adb shell> cd / system / bin> chm..._adb shell mv 权限

投影仪-相机标定_相机-投影仪标定-程序员宅基地

文章浏览阅读6.8k次,点赞12次,收藏125次。1. 单目相机标定引言相机标定已经研究多年,标定的算法可以分为基于摄影测量的标定和自标定。其中,应用最为广泛的还是张正友标定法。这是一种简单灵活、高鲁棒性、低成本的相机标定算法。仅需要一台相机和一块平面标定板构建相机标定系统,在标定过程中,相机拍摄多个角度下(至少两个角度,推荐10~20个角度)的标定板图像(相机和标定板都可以移动),即可对相机的内外参数进行标定。下面介绍张氏标定法(以下也这么称呼)的原理。原理相机模型和单应矩阵相机标定,就是对相机的内外参数进行计算的过程,从而得到物体到图像的投影_相机-投影仪标定

Wayland架构、渲染、硬件支持-程序员宅基地

文章浏览阅读2.2k次。文章目录Wayland 架构Wayland 渲染Wayland的 硬件支持简 述: 翻译一篇关于和 wayland 有关的技术文章, 其英文标题为Wayland Architecture .Wayland 架构若是想要更好的理解 Wayland 架构及其与 X (X11 or X Window System) 结构;一种很好的方法是将事件从输入设备就开始跟踪, 查看期间所有的屏幕上出现的变化。这就是我们现在对 X 的理解。 内核是从一个输入设备中获取一个事件,并通过 evdev 输入_wayland

推荐文章

热门文章

相关标签