您的当前位置:首页正文

[译]Spark 2.1.0官方文档翻译

来源:要发发知识网

注:
1. 本文链接中,包含[]的为已翻译的文档链接,不包含的为官方文档链接。
2. 涉及到编程语言的部分,以翻译Scala的部分为主

Spark概述

下载

Spark可以在Windows和类UNIX系统(如Linux,Mac OS)上运行。Spark很容易在一台机器上本地运行——你需要做的就是在系统PATH上安装了Java,或者在JAVA_HOME环境变量中指定了Java的安装路径。

Spark可以运行在Java 7+,Python 2.6+/3.4+,R 3.1+环境上。对于Scala API,Spark 2.1.0使用的是Scala 2.11。你需要使用一个可兼容的Scala版本(2.11.x)。

请注意,从Spark 2.0.0开始,对Java 7和Python 2.6的支持已弃用,从Spark 2.1.0开始,对Scala 2.10和Hadoop 2.6之前版本的支持已弃用,在Spark 2.2.0时可能会被删除。

运行示例和Shell

Spark自带几个示例程序。Scala,Java,Python和R语言的示例在 examples/src/main 目录下。要运行Java或者Scala示例程序,在Spark的根目录中使用bin/run-example <class> [params](在后台,将调用更通用的spark-submit脚本来启动应用程序)。例如:

./bin/run-example SparkPi 10

也可以使用一个修改版的Scala Shell以交互方式运行Spark。这是一种学习框架非常好的方式。

./bin/spark-shell --master local[2]

Spark也提供了Python API。要在Python解释器中以交互方式运行Spark,使用bin/pyspark

./bin/pyspark --master local[2]

Spark也提供了Python的示例应用程序,例如,

./bin/spark-submit examples/src/main/python/pi.py 10

./bin/sparkR --master local[2]

Spark也提供了R语言的示例应用程序,例如,

./bin/spark-submit examples/src/main/r/dataframe.R

在集群上运行

  • :在私有集群上部署Spark最简单的方法

从这里开始

编程指南:

  • :Spark的快速介绍,从这开始吧!
  • :Spark在所有支持语言(Scala,Java,Python,R)中的详细概述。
  • 构建在Spark上的模块:
    • :处理实时数据流
    • :支持结构化数据和关系查询
    • :内置的机器学习库
    • :Spark用于图形处理的新API

API文档:

部署指南:

  • :在集群运行时的概念和组件概述
  • :打包和部署应用程序
  • 部署模式:
    • :让你在5分钟之内在EC2上启动集群的脚本
    • :不使用第三方集群管理器的情况下快速启动独立集群
    • :使用Apache Mesos部署一个私有集群
    • :在Hadoop NextGen (YARN)上部署Spark

其它文档

  • :通过配置系统定制Spark
  • :跟踪你的应用程序的行为
  • :优化性能和内存使用的最佳实践
  • :在应用程序内和跨应用程序调度资源
  • :Spark的安全性支持
  • :对集群硬件配置的建议
  • 与其它存储系统集成
  • :使用Maven系统来构建Spark
  • :相关的第三方Spark项目

外部资源

  • :资源,包括一些当地的聚会
  • :可以在这里问Spark的问题
  • :在加州大学伯克利分校的一系列训练营,关于Spark,Spark Streaming,Mesos以及更多内容的特色演讲和练习。,和可以在网上免费获取。
  • :可以在Spark(, , , )的examples子文件夹中获取更多示例。