SpringBoot对接Spark过程详解

 更新时间:2023年02月15日 10:52:06   作者:我有一只肥螳螂  
这篇文章主要介绍SpringBoot接入Spark的方法的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望能帮助大家解决问题

本文主要介绍 SpringBoot 与 Spark 如何对接,具体使用可以参考文章 SpringBoot 使用 Spark

pom 文件添加 maven 依赖

  • spark-core:spark 的核心库,如:SparkConf
  • spark-sql:spark 的 sql 库,如:sparkSession
  • janino: Janino 是一个极小、极快的 开源Java 编译器,若不添加,spark 获取 MySQL 或 JSON 数据时会报错

org.springframework.web.util.NestedServletException: Handler dispatch failed; nested exception is java.lang.NoClassDefFoundError: org/codehaus/janino/InternalCompilerExceptio

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.13</artifactId>
    <version>3.2.1</version>
</dependency>
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.13</artifactId>
    <version>3.2.1</version>
</dependency>
<dependency>
    <groupId>org.codehaus.janino</groupId>
    <artifactId>janino</artifactId>
    <version>3.0.8</version>
</dependency>

application.yml 添加 spack 配置,master 使用 local 不需要搭建 spark,方便学习与测试

spark:
  app:
    name: fat
  master:
    uri: local[*]

配置 SparkConfig

  • sparkConf:Spark 基础信息配置
  • JavaSparkContext:基于 sparkConf 生成,用于
  • SparkSession:基于 SparkContext 生成
@Configuration
public class SparkConfig {
    @Value("${spark.app.name}")
    private String appName;
    @Value("${spark.master.uri}")
    private String sparkMasterUri;
    @Bean
    public SparkConf sparkConf() {
        SparkConf sparkConf = new SparkConf()
                .setAppName(appName)
                .setMaster(sparkMasterUri);
        return sparkConf;
    }
    @Bean
    @ConditionalOnMissingBean(JavaSparkContext.class)
    public JavaSparkContext javaSparkContext() {
        return new JavaSparkContext(sparkConf());
    }
    @Bean
    public SparkSession sparkSession() {
        return SparkSession
                .builder()
                .sparkContext(javaSparkContext().sc())
                .getOrCreate();
    }
}

SparkContext:从Spark1.x开始,Spark SparkContext是Spark的入口点,用于在集群上以编程方式创建Spark RDD、累加器和广播变量。是spark执行环境的客户端,是spark执行作业的入口点,是spark应用程序的主控。

SparkSession:从Spark2.0开始,SparkSession已经成为Spark处理RDD、DataFrame 和 Dataset 的入口点。SparkSessio n封装了SparkConf、SparkContext和SQLContext。为了向后兼容,SQLContext和HiveContext也被保存下来。它实质上是SQLContext和HiveContext的组合(未来可能还会加上StreamingContext),所以在SQLContext和HiveContext上可用的API在 SparkSession 上同样是可以使用的。SparkSession 内部封装了sparkContext,所以计算实际上是由 sparkContext 完成的。

SQLContext:在Spark version1.0中,为了处理结构化数据(行和列),SQLContext (org.apache.spark.sql.SQLContext )是一个入口点,但是在2.0版本中,SQLContext已经被SparkSession所取代。Apache Spark SQLContext是SparkSQL的入口点,Spark是Spark1.x中用于结构化数据(行和列)的Spark模块。正在处理。Spark SQLContext已初始化。

JavaSparkContext 是 Java友好版本的[org.apache.spark.SparkContext]返回[org.apache.spark.api.java.JavaRDD],并使用Java集合,而不是Scala集合。

到此这篇关于SpringBoot对接Spark过程详解的文章就介绍到这了,更多相关SpringBoot Spark内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Java 使用 FFmpeg 处理视频文件示例代码详解

    Java 使用 FFmpeg 处理视频文件示例代码详解

    这篇文章主要介绍了Java 使用 FFmpeg 处理视频文件示例代码,代码简单易懂,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-02-02
  • Maven setting配置镜像仓库的方法步骤

    Maven setting配置镜像仓库的方法步骤

    这篇文章主要介绍了Maven setting配置镜像仓库的方法步骤,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-12-12
  • Java结束线程的三种方法及该如何选择

    Java结束线程的三种方法及该如何选择

    这篇文章主要介绍了Java结束线程的三种方法及该如何选择,帮助大家更好的理解和学习使用Java,感兴趣的朋友可以了解下
    2021-03-03
  • jmeter基础逻辑控制器之if控制器的使用

    jmeter基础逻辑控制器之if控制器的使用

    在实际工作中,当使用JMeter做性能脚本或者接口脚本时,当遇到需要对不同的条件做不同的操作时,我们可以使用JMeter中if控制器来实现,本文就详细的介绍一下如何使用
    2021-11-11
  • Java实现二分查找树及其相关操作

    Java实现二分查找树及其相关操作

    二分查找树是一种有组织的二叉树。我们可以通过链接节点表示这样一棵树,二分查找树(Binary Search Tree)的基本操作有搜索、求最大值、求最小值、求前驱、求后继、插入及删除,对java二分查找树相关知识感兴趣的朋友一起看看吧
    2021-07-07
  • springboot+angular4前后端分离 跨域问题解决详解

    springboot+angular4前后端分离 跨域问题解决详解

    这篇文章主要介绍了springboot+angular4前后端分离 跨域问题解决详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-09-09
  • JVM完全解读之GC日志记录分析

    JVM完全解读之GC日志记录分析

    这篇文章主要介绍了JVM完全解读之GC日志记录分析,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步
    2022-01-01
  • 浅析Java内部类——成员内部类

    浅析Java内部类——成员内部类

    这篇文章主要介绍了Java 成员内部类的相关资料,帮助大家更好的理解和学习Java 内部类的相关知识,感兴趣的朋友可以了解下
    2020-08-08
  • 深入理解可视化JVM 故障处理工具

    深入理解可视化JVM 故障处理工具

    这篇文章主要介绍了深入理解可视化JVM 故障处理工具,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-10-10
  • Mybatis如何自动生成数据库表结构总结

    Mybatis如何自动生成数据库表结构总结

    这篇文章主要给大家介绍了关于Mybatis如何自动生成数据库表结构的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者使用Mybatis具有一定的参考学习价值,需要的朋友们下面来一起学习学习吧
    2019-11-11

最新评论