首页 > 云计算 > 云资讯

工作流调度器azkaban安装

发表文章

来源:网络
上传者:用户

关键词: 安装 Azkaban 工作流调度器

概述

2.1.1为什么需要工作流调度系统

一个完整的数据分析系统通常都是由大量任务单元组成:

shell脚本程序,java程序,mapreduce程序、hive脚本等

各任务单元之间存在时间先后及前后依赖关系

为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行;

例如,我们可能有这样一个需求,某个业务系统每天产生20G原始数据,我们每天都要对其进行处理,处理步骤如下所示:

1、 通过Hadoop先将原始数据同步到HDFS上;

2、 借助MapReduce计算框架对原始数据进行转换,生成的数据以分区表的形式存储到多张Hive表中;

3、 需要对Hive中多个表的数据进行JOIN处理,得到一个明细数据Hive大表;

4、 将明细数据进行复杂的统计分析,得到结果报表信息;

5、 需要将统计分析得到的结果数据同步到业务系统中,供业务调用使用。

2.1.2 工作流调度实现方式

简单的任务调度:直接使用linux的crontab来定义;

复杂的任务调度:开发调度平台

或使用现成的开源调度系统,比如ooize、azkaban等

2.1.3 常见工作流调度系统

市面上目前有许多工作流调度器

在hadoop领域,常见的工作流调度器有Oozie, Azkaban,Cascading,Hamake等

?

2.1.4 各种调度工具特性对比

下面的表格对上述四种hadoop工作流调度器的关键特性进行了比较,尽管这些工作流调度器能够解决的需求场景基本一致,但在设计理念,目标用户,应用场景等方面还是存在显著的区别,在做技术选型的时候,可以提供参考

特性 Hamake Oozie Azkaban Cascading

工作流描述语言 XML XML (xPDL based) text file with key/value pairs Java API

依赖机制 data-driven explicit explicit explicit

是否要web容器 No Yes Yes No

进度跟踪 console/log messages web page web page Java API

Hadoop job调度支持 no yes yes yes

运行模式 command line utility daemon daemon API

Pig支持 yes yes yes yes

事件通知 no no no yes

需要安装 no yes yes no

支持的hadoop版本 0.18+ 0.20+ currently unknown 0.18+

重试支持 no workflownode evel yes yes

运行任意命令 yes yes yes yes

Amazon EMR支持 yes no currently unknown yes

2.1.5 Azkaban与Oozie对比

对市面上最流行的两种调度器,给出以下详细对比,以供技术选型参考。总体来说,ooize相比azkaban是一个重量级的任务调度系统,功能全面,但配置使用也更复杂。如果可以不在意某些功能的缺失,轻量级调度器azkaban是很不错的候选对象。

详情如下:

功能

两者均可以调度mapreduce,pig,java,脚本工作流任务

两者均可以定时执行工作流任务

工作流定义

Azkaban使用Properties文件定义工作流

Oozie使用XML文件定义工作流

工作流传参

Azkaban支持直接传参,例如[Math Processing Error]{fs:dirSize(myInputDir)}

定时执行

Azkaban的定时执行任务是基于时间的

Oozie的定时执行任务基于时间和输入数据

资源管理

Azkaban有较严格的权限控制,如用户对工作流进行读/写/执行等操作

Oozie暂无严格的权限控制

工作流执行

Azkaban有两种运行模式,分别是solo server mode(executor server和web server部署在同一台节点)和multi server mode(executor server和web server可以部署在不同节点)

Oozie作为工作流服务器运行,支持多用户和多工作流

工作流管理

Azkaban支持浏览器以及ajax方式操作工作流

Oozie支持命令行、HTTP REST、Java API、浏览器操作工作流

2.2 Azkaban介绍

Azkaban是由Linkedin开源的一个批量工作流任务调度器。用于在一个工作流内以一个特定的顺序运行一组工作和流程。Azkaban定义了一种KV文件格式来建立任务之间的依赖关系,并提供一个易于使用的web用户界面维护和跟踪你的工作流。

它有如下功能特点:

Web用户界面

方便上传工作流

方便设置任务之间的关系

调度工作流

认证/授权(权限的工作)

能够杀死并重新启动工作流

模块化和可插拔的插件机制

项目工作区

工作流和任务的日志记录和审计

Azkaban官网

它有三个重要组件:

1. 关系数据库(目前仅支持mysql)

2. web管理服务器-AzkabanWebServer

3. 执行服务器-AzkabanExecutorServer

3 Azkaban安装部署

准备工作

Azkaban Web服务器

azkaban-web-server-2.5.0.tar.gz

Azkaban执行服务器

azkaban-executor-server-2.5.0.tar.gz

MySQL

目前azkaban只支持 mysql,需安装mysql服务器,本文档中默认已安装好mysql服务器,并建立了 root用户,密码 root.

下载地址:http://azkaban.github.io/downloads.html

azkaban-executor-server-2.5.0.tar.gz(执行服务器)

azkaban-web-server-2.5.0.tar.gz(管理服务器)

azkaban-sql-script-2.5.0.tar.gz(mysql脚本)

Azkaban有三种运行模式:

solo server mode:最简单的模式,数据库内置的H2数据库,管理服务器和执行服务器都在一个进程中运行,任务量不大项目可以采用此模式。

two server mode:数据库为mysql,管理服务器和执行服务器在不同进程,这种模式下,管理服务器和执行服务器互不影响

multiple executor mode:该模式下,执行服务器和管理服务器在不同主机上,且执行服务器可以有多个。

我们项目要求不是太高,我这次采用第二种模式,管理服务器、执行服务器分进程,但在同一台主机上。

安装

将安装文件上传到集群,最好上传到安装 hive、sqoop的机器上,方便命令的执行

在当前用户目录下新建 azkabantools目录,用于存放源安装文件.新建azkaban目录,用于存放azkaban运行程序

azkaban web服务器安装

解压azkaban-web-server-2.5.0.tar.gz

命令: tar –zxvf azkaban-web-server-2.5.0.tar.gz

将解压后的azkaban-web-server-2.5.0 移动到 azkaban目录中,并重新命名 webserver

命令: mv azkaban-web-server-2.5.0 ../azkaban

cd ../azkaban

mv azkaban-web-server-2.5.0 server

azkaban 执行服器安装

解压azkaban-executor-server-2.5.0.tar.gz

命令:tar –zxvf azkaban-executor-server-2.5.0.tar.gz

将解压后的azkaban-executor-server-2.5.0 移动到 azkaban目录中,并重新命名 executor

命令:mv azkaban-executor-server-2.5.0 ../azkaban

cd ../azkaban

mv azkaban-executor-server-2.5.0 executor

azkaban脚本导入

解压: azkaban-sql-script-2.5.0.tar.gz

命令:tar –zxvf azkaban-sql-script-2.5.0.tar.gz

将解压后的mysql 脚本,导入到mysql中:

进入mysql

mysql> create database azkaban;

mysql> use azkaban;

Database changed

mysql> source /home/hadoop/azkaban-2.5.0/create-all-sql-2.5.0.sql;

创建SSL配置

参考地址: http://docs.codehaus.org/display/JETTY/How+to+configure+SSL

配置SSL的KeyStore

在需要输入密码的地方,输入上面配置文件中的password参数,我的密码是123456。

keytool -genkey -keystore keystore -alias jetty-azkaban -keyalg RSA -validity 3560

keytool -export -alias jetty-azkaban -keystore keystore -rfc -file selfsignedcert.cer

keytool -import -alias certificatekey -file selfsignedcert.cer -keystore truststore

将上面生成的keystore和truststore文件移动到$AK_HOME/web路径下。

如果需要删除,使用如下命令。

keytool -delete -alias jetty-azkaban -keystore keystore -storepass azkaban

命令: keytool -keystore keystore -alias jetty -genkey -keyalg RSA

运行此命令后,会提示输入当前生成 keystor的密码及相应信息,输入的密码请劳记,信息如下:

输入keystore密码:

再次输入新密码:

您的名字与姓氏是什么?

[Unknown]:

您的组织单位名称是什么?

[Unknown]:

您的组织名称是什么?

[Unknown]:

您所在的城市或区域名称是什么?

[Unknown]:

您所在的州或省份名称是什么?

[Unknown]:

该单位的两字母国家代码是什么

[Unknown]: CN

CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=CN 正确吗?

[否]: y

输入的主密码

(如果和 keystore 密码相同,按回车):

再次输入新密码:

完成上述工作后,将在当前目录生成 keystore 证书文件,将keystore 考贝到 azkaban web服务器根目录中.如:cp keystore /opt/apps/azkaban/azkaban-web-2.5.0/web

配置文件

注:先配置好服务器节点上的时区

1、先生成时区配置文件Asia/Shanghai,用交互式命令 tzselect 即可

2、拷贝该时区文件,覆盖系统本地时区配置

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

azkaban web服务器配置

进入azkaban web服务器安装目录 conf目录

修改azkaban.properties文件

命令vi azkaban.properties

内容说明如下:

Azkaban Personalization Settings

azkaban.name=TestAzkaban #服务器UI名称,用于服务器上方显示的名字

azkaban.label=My Local Azkaban #描述

azkaban.color=#FF3601 #UI颜色

azkaban.default.servlet.path=/index #

web.resource.dir=web/ #默认根web目录

default.timezone.id=Asia/Shanghai #默认时区,已改为亚洲/上海 默认为美国

Azkaban UserManager class

user.manager.class=azkaban.user.XmlUserManager #用户权限管理默认类

user.manager.xml.file=conf/azkaban-users.xml #用户配置,具体配置参加下文

Loader for projects

executor.global.properties=conf/global.properties # global配置文件所在位置

azkaban.project.dir=projects #

database.type=mysql #数据库类型

mysql.port=3306 #端口号

mysql.host= www.ljt.cos01 #数据库连接IP

mysql.database=azkaban #数据库实例名

mysql.user=root #数据库用户名

mysql.password=123456 #数据库密码

mysql.numconnections=100 #最大连接数

Velocity dev mode

velocity.dev.mode=false

Jetty服务器属性.

jetty.maxThreads=25 #最大线程数

jetty.ssl.port=8443 #Jetty SSL端口

jetty.port=8081 #Jetty端口

jetty.keystore=keystore #SSL文件名

jetty.password=123456 #SSL文件密码

jetty.keypassword=123456 #Jetty主密码 与 keystore文件相同

jetty.truststore=keystore #SSL文件名

jetty.trustpassword=123456 # SSL文件密码

执行服务器属性

executor.port=12321 #执行服务器端口

邮件设置

mail.sender=1329331182@qq.com #发送邮箱

mail.host=smtp.163.com #发送邮箱smtp地址

mail.user=xxxxxxxx #发送邮件时显示的名称

mail.password=**** #邮箱密码

job.failure.email=xxxxxxxx@163.com #任务失败时发送邮件的地址

job.success.email=xxxxxxxx@163.com #任务成功时发送邮件的地址

lockdown.create.projects=false #

cache.directory=cache #缓存目录

azkaban 执行服务器executor配置

进入执行服务器安装目录conf,修改azkaban.properties

vi azkaban.properties

Azkaban

default.timezone.id=Asia/Shanghai #时区

Azkaban JobTypes 插件配置

azkaban.jobtype.plugin.dir=plugins/jobtypes #jobtype 插件所在位置

Loader for projects

executor.global.properties=conf/global.properties

azkaban.project.dir=projects

数据库设置

database.type=mysql #数据库类型(目前只支持mysql)

mysql.port=3306 #数据库端口号

mysql.host=192.168.20.200 #数据库IP地址

mysql.database=azkaban #数据库实例名

mysql.user=root #数据库用户名

mysql.password=root #数据库密码

mysql.numconnections=100 #最大连接数

执行服务器配置

executor.maxThreads=50 #最大线程数

executor.port=12321 #端口号(如修改,请与web服务中一致)

executor.flow.threads=30 #线程数

用户配置

进入azkaban web服务器conf目录,修改azkaban-users.xml

vi azkaban-users.xml 增加 管理员用户

启动

web服务器

在azkaban web服务器目录下执行启动命令

bin/azkaban-web-start.sh

注:在web服务器根目录运行

或者启动到后台

nohup bin/azkaban-web-start.sh 1>/tmp/azstd.out 2>/tmp/azerr.out &

执行服务器

在执行服务器目录下执行启动命令

bin/azkaban-executor-start.sh

注:只能要执行服务器根目录运行

启动完成后,在浏览器(建议使用谷歌浏览器)中输入https://服务器IP地址:8443 ,即可访问azkaban服务了.在登录中输入刚才新的户用名及密码,点击 login.

https://www.ljt.cos01:8443

Azkaban Plugins安装

Azkaban在设计上把核心功能和扩展插件分开了,因此可以很方便的为Azkaban安装一些有用的插件。目前已有的插件主要有以下几类:

页面可视化插件。比如HDFS View和Reportal

Trigger插件

用户管理插件。可以自定义一些用户登录验证功能

报警插件

接下来对每一种插件的安装和配置进行分析,某些插件安装在Web端,某些插件需要安装在Executor端。

1、HDFS Viewer Plugins

这个插件安装在Web端。

(1)修改配置文件

在[Math Processing Error]AK_HOME/plugins/viewer/hdfs路径下去寻找新的插件。所以,我们需要在[Math Processing Error]AK_HOME/plugins/viewer/hdfs/extlib/hadoop-core-1.0.4.jar,不然会报ClassNotFound的错。删除后,该插件的extlib路径下已为空。

将hadoop中如下jar包复制到[Math Processing Error]HADOOP_HOME/etc/hadoop/core-site.xml文件复制到[Math Processing Error]Ak_HOME/extlib路径下使用jar -uf hadoop-common-2.6.0.jar core-site.xml命令将core-site.xml文件添加到jar包中

最终hadoop-common-2.6.0.jar的文件结构如下图:

启动Web Server,在页面中就可以看到HDFS文件目录了。

也可以直接打开hdfs上的可读文件。

上面的htrace-core-3.0.4.jar也是必须的jar包,没有这个的话,会报错java.lang.NoClassDefFoundError: org/htrace/Trace,如下图

2、Azkaban Jobtype

这个插件安装在Executor Server端。

Azkaban可以运行一些简单的Job比如Unix命令行操作以及简单的Java程序。如果需要运行HadoopJava,Pig,Hive等类型的Job时,就需要安装这个插件了。

安装Jobtype插件需要预先安装好Hadoop和hive。我的Hadoop版本为2.6.0,安装路径/usr/local/hadoop,Hive版本0.13.1,安装路径/usr/local/hive

(1)解压缩

将前面下载的azkaban-jobtype-2.5.0.tar.gz上传到m001的[Math Processing Error]AK_HOME/conf/azkaban.properties,在最后新增一行

azkaban.jobtype.plugin.dir=plugins/jobtypes

这个参数告诉Azkaban到[Math Processing Error]AK_HOME/plugins/jobtypes/common.properties文件,设置以下三个参数:

hadoop.home=/usr/local/hadoop

hive.home=/usr/local/hive

pig.home=

azkaban.should.proxy=

jobtype.global.classpath=[Math Processing Error]{hadoop.home}/share/hadoop/common/,[Math Processing Error]{hadoop.home}/share/hadoop/hdfs/,[Math Processing Error]{hadoop.home}/share/hadoop/yarn/,[Math Processing Error]{hadoop.home}/share/hadoop/mapreduce/,[Math Processing Error]AK_HOME/plugins/jobtypes/commonprivate.properties文件中的hadoop.home和hive.home

(c)修改[Math Processing Error]{hive.home}/conf,${hive.home}/lib/*

最后重新重启Azkaban Executor Server,使新的插件生效。

本文内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至:zixun-group@service.aliyun.com 进行举报,并提供相关证据,工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。

相关资讯

Azkaban实战

关键词: java Azkaban job描述文件

Azkaba内置的任务类型支持command、java Command类型单一job示例 1、创建job描述文件 vi command.job command.job type=command command=echo ‘hello’ 2、将job资源文件打包成zip文件 zip command.job 3、通过azkaban的web管理平台创建project并上传job压缩包 首先创建pr...

HadoopArchives指南

关键词: 文件系统目录 归档文件 HadoopArchives

Hadoop Archives指南 概述 Hadoop archives是一种归档文件。按照官网的说法,一个Hadoop archive对应一个文件系统目录。 那么为什么需要Hadoop Archives呢?因为hdfs并不擅长存储小文件,文件在hdfs上以block的形式存储,而这些block会在namenode中保存其索引等元数据,这些元数据在namenode启动后被加载至内存。如果存在...

spark的应用场景和基本原理

关键词: Spark spark特点

摘要: spark的优势:(1)图计算,迭代计算(训练机器学习算法模型做广告推荐,点击预测,同时基于spark的预测模型能做到分钟级)(2)交互式查询计算(实时) spark的主要应用场景:(1)推荐系统,实时推荐 (2)交互式实时查询 spark特点:(1)分布式并行计算框架(2)内存计算,不仅数据加载到内存,中间结果也存储内存(中间结果不需要落地到hdfs) 还有一个特点:Spark在做...

libvmi编译问题

关键词: 执行 编译 libvmi

fatal error: json-c/json.h: No such file or directory ---解决方法: sudo apt-get install libjson-c-dev 然后重新执行./autoconf ./configure make 即可

Sparkstreaming作业需要注意的问题

关键词: 进程服务 SparkStreaming

1、java.lang.OutOfMemoryError: GC overhead limit exceeded 分析:因为streaming是长进程服务,如果当初分配堆太小,运行很长时间后会出现GC overhead limit exceeded问题,查看driver进程gc信息发现老年代使用率达到99.6%,故处理方法是提高driver堆大小,同时提高老年代大小。 处理:设置spark....

联系我们

    若您要投稿、删除文章请联系邮箱:zixun-group@service.aliyun.com,工作人员会在5个工作日内回复。

最新热词

热门词条