专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏

iomete/spark Docker 镜像 - 轩辕镜像

spark
iomete/spark
iomete公共Spark镜像,已预捆绑必要的库和优化配置,用于简化Spark应用的部署与运行。
0 次下载activeiomete镜像
🚀专业版镜像服务,面向生产环境设计
中文简介版本下载
🚀专业版镜像服务,面向生产环境设计

iomete 公共 Spark 镜像文档

镜像概述和主要用途

iomete公共Spark镜像是由iomete提供的Docker镜像,基于Apache Spark官方版本构建,旨在简化Spark应用程序的部署与运行流程。该镜像预先集成了常用依赖库(如Hadoop、AWS SDK、JDBC驱动等)和性能优化配置,使开发者无需手动配置环境即可快速启动Spark集群或提交Spark作业。

核心功能和特性

1. 预捆绑常用依赖库
  • 集成Hadoop生态组件(HDFS客户端、YARN相关工具)
  • 包含AWS SDK、GCP SDK等云服务对接依赖
  • 内置MySQL、PostgreSQL等主流数据库的JDBC驱动
  • 预装PySpark运行所需的Python环境及第三方库(NumPy、Pandas等)
2. 性能优化配置
  • 默认启用Spark内存管理优化(如spark.memory.offHeap.enabled=true)
  • 预配置合理的Executor/Driver资源分配参数(基于容器资源自动调整)
  • 集成Tungsten引擎加速和列式存储优化
3. 多版本与多场景支持
  • 提供多个Spark版本标签(如3.3.0、3.4.0、3.5.0),适配不同应用需求
  • 支持单机模式、伪分布式模式及Kubernetes集群部署
4. 轻量级与易用性
  • 基于Alpine Linux构建,镜像体积较官方镜像减少约30%
  • 内置spark-submit、spark-shell等工具的快捷启动脚本
  • 支持通过环境变量或配置文件灵活调整Spark参数

使用场景和适用范围

1. 开发与测试环境
  • 本地快速验证Spark作业逻辑(通过spark-shell或pyspark交互模式)
  • 简化CI/CD流程中Spark应用的自动化测试
2. 生产环境部署
  • 提交批处理作业(如ETL任务、数据清洗)
  • 运行实时流处理应用(如基于Spark Streaming或Structured Streaming的数据流处理)
  • 部署Spark SQL服务提供交互式查询能力
3. 云原生与容器化平台
  • 在Kubernetes集群中部署Spark集群(配合iomete提供的Operator更佳)
  • 集成Docker Compose快速搭建本地伪分布式集群用于演示或小型应用

使用方法和配置说明

1. 镜像拉取

通过Docker Hub拉取最新版本:

bash
docker pull iomete/spark:latest

拉取指定Spark版本(如3.4.0):

bash
docker pull iomete/spark:3.4.0
2. 基本使用示例
启动Spark Shell(交互式测试)
bash
# Scala Shell
docker run -it --rm iomete/spark:latest spark-shell

# Python Shell (PySpark)
docker run -it --rm iomete/spark:latest pyspark
提交Spark作业

本地有打包好的Spark应用JAR包(如my-spark-app.jar)时,通过spark-submit提交:

bash
docker run -v /local/path/to/my-spark-app.jar:/app.jar \
  iomete/spark:latest \
  spark-submit \
    --class com.example.MyApp \
    --master local[*] \  # 本地模式,使用所有CPU核心
    /app.jar
启动伪分布式集群(Docker Compose)

创建docker-compose.yml文件:

yaml
version: '3'
services:
  spark-master:
    image: iomete/spark:latest
    command: bin/spark-class org.apache.spark.deploy.master.Master
    ports:
      - "7077:7077"  # Master通信端口
      - "8080:8080"  # Web UI端口
    environment:
      - SPARK_MASTER_HOST=spark-master

  spark-worker:
    image: iomete/spark:latest
    command: bin/spark-class org.apache.spark.deploy.worker.Worker spark://spark-master:7077
    environment:
      - SPARK_WORKER_MEMORY=2g  # Worker内存分配
      - SPARK_WORKER_CORES=2    # Worker CPU核心数
    depends_on:
      - spark-master

启动集群:

bash
docker-compose up -d

访问 http://localhost:8080 可查看Spark Master Web UI。

3. 配置参数说明
环境变量配置

通过-e参数传递环境变量调整Spark配置:

环境变量说明默认值
SPARK_MASTERSpark Master地址(如spark://host:7077)local[*](本地模式)
SPARK_DRIVER_MEMORYDriver进程内存分配1g
SPARK_EXECUTOR_MEMORYExecutor进程内存分配1g
SPARK_EXECUTOR_CORES每个Executor的CPU核心数1
PYSPARK_PYTHONPySpark使用的Python解释器路径/usr/bin/python3

示例:调整Driver内存为4G并指定Master地址

bash
docker run -e SPARK_DRIVER_MEMORY=4g -e SPARK_MASTER=spark://master:7077 iomete/spark:latest spark-submit ...
自定义Spark配置文件

通过挂载本地spark-defaults.conf覆盖默认配置:

bash
docker run -v /local/path/to/spark-defaults.conf:/opt/spark/conf/spark-defaults.conf \
  iomete/spark:latest \
  spark-submit ...

注意事项

  • 生产环境中建议指定具体版本标签(如3.4.0)而非latest,避免版本变更导致兼容性问题
  • 提交大型作业时,需根据实际需求通过--executor-memory、--num-executors等参数调整资源分配
  • 如需对接外部存储(如S3、HDFS),需通过环境变量或配置文件传入访问凭证(如AWS_ACCESS_KEY_ID、AWS_SECRET_ACCESS_KEY)
查看更多 spark 相关镜像 →
spark logo
spark
by library
官方
Apache Spark 是一款专为大规模数据处理打造的统一分析引擎,它集成了批处理、流处理、机器学习、图计算等多种数据处理能力,通过基于内存的计算模型显著提升数据处理速度,具备高效、易用且可扩展的特性,能为企业和开发者提供一站式的大数据分析解决方案,支持从数据提取、清洗、转换到深度分析与应用部署的全流程,满足各类复杂数据场景下的处理需求,助力实现数据驱动的高效决策与业务创新。
1121M+ pulls
上次更新:1 个月前
bitnami/spark logo
bitnami/spark
by VMware
认证
比特纳米Spark安全镜像是一种为Apache Spark大数据处理框架提供的预配置、安全加固的软件镜像,它集成了必要的依赖组件,经过严格的安全审查与漏洞修复,支持快速部署和持续更新,确保用户能够便捷、安全地搭建和运行Spark集群,适用于企业级大数据分析、数据处理等场景,满足合规性要求并有效降低运维复杂度。
18510M+ pulls
上次更新:5 个月前
apache/spark logo
apache/spark
by The Apache Software Foundation
Apache Spark是由Apache软件基金会开发的开源分布式计算系统,专为大数据处理设计,支持批处理、流处理、机器学习和图计算等多种数据处理模式,通过基于内存的计算引擎显著提升处理速度,具备高效、易用且可扩展的特性,广泛应用于数据科学与大数据分析领域,为用户提供快速、灵活的大数据处理解决方案。
9710M+ pulls
上次更新:24 天前
bitnamicharts/spark logo
bitnamicharts/spark
by VMware
认证
Bitnami Apache Spark的Helm Chart,用于在Kubernetes集群上部署高性能大规模计算引擎,支持数据处理、机器学习和实时流处理,提供Java、Python、Scala和R的API。
100K+ pulls
上次更新:5 个月前
rancher/spark logo
rancher/spark
by Rancher by SUSE
认证
暂无描述
13.4K pulls
上次更新:10 年前
sparkfhir/spark logo
sparkfhir/spark
by sparkfhir
Spark FHIR Server是一个基于FHIR标准的开源医疗数据服务器,用于存储、查询、交换和管理医疗保健资源,支持医疗数据的标准化互操作。
110K+ pulls
上次更新:2 个月前

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

登录仓库拉取

通过 Docker 登录认证访问私有仓库

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

Docker Compose

Docker Compose 项目配置

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

宝塔面板

在宝塔面板一键配置镜像

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

极空间

极空间 NAS 系统配置服务

爱快路由

爱快 iKuai 路由系统配置

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

专属域名拉取

无需登录使用专属域名

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像支持哪些镜像仓库?

专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
iomete/spark
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
提交工单
免费获取在线技术支持请 提交工单,官方QQ群:13763429 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
免费获取在线技术支持请提交工单,官方QQ群: 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.
轩辕镜像 官方专业版 Logo
轩辕镜像轩辕镜像官方专业版
首页个人中心搜索镜像
交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 13763429