选择Spark版本:
选择包类型:
下载Spark:
使用和项目发布KEYS通过遵循这些程序.
请注意,Spark 3通常是用Scala 2.12预先构建的,而Spark 3.2+提供了用Scala 2.1预先构建的其他发行版。
火花工件是在Maven Central举办。可以使用以下坐标添加Maven依赖项:
组ID:org.apache.sparkartifactId:spark-core_2.12版本:3.5.2
PySpark公司现在可以在pypi中使用。要安装,请运行pip安装pyspark.
pip安装pyspark
Spark docker图像可从Dockerhub的两个帐户中获得Apache软件基金会和官方图片.
请注意,这些图像包含非ASF软件,可能受不同许可条款的约束。请检查他们的Dockerfiles文件以验证它们是否与您的部署兼容。
随着每个开发流程的新Spark发布,以前的版本将被归档,但他们仍然可以在Spark发布档案.
注释:Spark以前的版本可能会受到安全问题的影响。请咨询安全页面,查看可能影响您下载的版本的已知问题列表在决定使用它之前。
档案文件
内置库: