下载Apache Spark™

  1. 选择Spark版本:

  2. 选择包类型:

  3. 下载Spark:

  4. 使用项目发布KEYS通过遵循这些程序.

请注意,Spark 3通常是用Scala 2.12预先构建的,而Spark 3.2+提供了用Scala 2.1预先构建的其他发行版。

火花工件是在Maven Central举办。可以使用以下坐标添加Maven依赖项:

组ID:org.apache.sparkartifactId:spark-core_2.12版本:3.5.2

使用PyPi安装

PySpark公司现在可以在pypi中使用。要安装,请运行pip安装pyspark.

使用Docker安装

Spark docker图像可从Dockerhub的两个帐户中获得Apache软件基金会官方图片.

请注意,这些图像包含非ASF软件,可能受不同许可条款的约束。请检查他们的Dockerfiles文件以验证它们是否与您的部署兼容。

稳定版本的发行说明

    存档的版本

    随着每个开发流程的新Spark发布,以前的版本将被归档,但他们仍然可以在Spark发布档案.

    注释:Spark以前的版本可能会受到安全问题的影响。请咨询安全页面,查看可能影响您下载的版本的已知问题列表在决定使用它之前。

    最新消息

    档案文件