转载

使用Gradle构建scala多模块工程

前段时间终于无法忍受sbt慢如龟速的编译打包速度了。稍稍调研了一下,就果断切换到了gradle。由于调研得比较匆忙,在使用过程中遇到了各种问题。好在最后都能解决了。

我这里使用scala主要是用来编写spark job。由于我自己的一些需要,这些job中有几个是多模块的。在这里简单解释一下如何使用gradle构建scala多模块项目。

这里用我最近开发的项目来做说明。项目名称是consumer-portrait-job,有两个子模块:common和compute。

首先在项目根目录下创建一个settings.gradle文件,这个文件主要用来描述项目名称及子模块信息:

rootProject.name = 'consumer-portrait-job'
include 'common', 'compute'

然后再创建一个build.gradle文件。这个文件描述了主项目及子项目的一些通用配置。配置如下:

allprojects {
    apply plugin: 'idea'

    group = 'com.zhyea.portrait'
    version = '0.1-SNAPSHOT'
}


subprojects {
    apply plugin: 'scala'

    sourceCompatibility = 1.7
    targetCompatibility = 1.7


    ext {
        scalaVersion = '2.10.5'
        sparkVersion = '1.4.1'
    }


    repositories {
        mavenLocal()
        maven { url 'http://maven.aliyun.com/nexus/content/groups/public/' }
        mavenCentral()
    }


    dependencies {
        testCompile group: 'junit', name: 'junit', version: '4.12'
        compileOnly group: 'org.apache.spark', name: 'spark-core_2.10', version: sparkVersion
        compileOnly group: 'org.scala-lang', name: 'scala-compiler', version: scalaVersion
    }


    task mkdirs() {
        sourceSets*.scala.srcDirs*.each { it.mkdirs() }
        sourceSets*.resources.srcDirs*.each { it.mkdirs() }
    }

}

在这个配置文件中包含两个大的模块:allprojects和subprojects。

allprojects中的配置是所有项目共享的(包含根项目)。在这里,我定义了项目的groupId和version等信息,并应用了gradle的idea插件。

subprojects的配置是所有子项目通用的。

在subprojects中的第一行声明了使用gradle的scala插件。

接下来的配置项“sourceCompatibility”声明了编译时使用的jdk版本;“targetCompatibility”确保了编译生成的class与指定版本的jdk兼容。

在ext中声明了子项目中可以使用的一些变量。我这里是声明了scala和spark的版本。

repositories项配置了当前项目可以使用的仓库。这里使用的第一个仓库是本机的maven库,第二库是ali提供的repository服务,第三个库是maven中央库。(曾经研究过如何让gradle和maven公用同一个本地仓库,不过最后也是不了了之)。

dependencies中声明了所有子模块都需要使用的依赖项。这里用到了scala库和spark库,这两个库只会在编译期用到,所以声明使用的依赖类型是compileOnly(这种依赖类型是gradle Java插件独有的,gradle scala插件继承自java插件,所以也可以使用)。

task mkdirs是一个自定义任务。在根项目配置完settings.gradle和build.gradle后,执行“gradle mkdirs”命令完成子模块目录的创建工作。

在两个子模块common和compute下创建build.gradle文件并做配置。

common模块的build.gradle配置详情:

project(':common') {
    dependencies {
        compile group: 'com.typesafe', name: 'config', version: '1.3.2'
    }
}

这里只是声明了一下commons模块独有的依赖项。

compute模块是启动模块,在该模块中有spark任务的驱动类。该模块的build.gradle配置详情:

project(':compute') {

    dependencies {
        compile project(":common")
        compileOnly group: 'org.apache.spark', name: 'spark-sql_2.10', version: sparkVersion
        compile group: 'net.liftweb', name: 'lift-json_2.10', version: '2.6.3'
    }

    jar {
        archiveName = 'consumer-portrait.jar'
    }

    task zip(type: Zip) {
        into('lib') {
            from(configurations.runtime) {
                include '*typesafe*', '*common*', '*bitmap-core*', '*RoaringBitmap*'
            }
        }
        into('') {
            from jar
            from 'doc'
        }
    }
}

配置中的第一行dependencies仍然是配置compute模块的依赖项。其中略需注意的是对common模块的依赖。

接下来的jar声明指明了将该模块打成的jar包的名称。脚本中需要根据包名来调用模块生成的包,默认生成的包名会带上版本信息,不太合适。

最后是一个自定义任务。该任务的目标是将一些必要的jar和其他文件打成一个zip包,以便于上传任务到执行服务器。任务中的第一个部分是将一些运行时依赖打入zip包中的lib目录,使用include关键字提示包含运行时依赖中指定名称的包,也可以使用exclude关键字排除一些包。第二部分是将生成的jar和本地doc目录中的文件打入zip包的根目录。

就这样。有空再写个示例项目留着参考。

——————–END———————-

原文  http://www.zhyea.com/2018/04/21/using-gradle-build-muilti-module-spark-project.html
正文到此结束
Loading...