admin 管理员组文章数量: 887021
1、下载spark 解压到 D盘,现在的版本是0.9.1
2、下载scala 安装到d:\Program Files (x86)\scala\
安装好scala后需要配置环境变量
修改path这个变量,把Scala的bin目录也放进去D:\Program Files (x86)\scala\bin(现在版本的scala会自动修改系统的环境变量,提示的时候选择不阻止)
测试是否配置成功,在命令行中输入scala -version
3、按照Spark官方的安装指南,在解压的目录下,运行
sbt/sbt package或者sbt assembly
可能会出现错误,这是由于sbt版本的问题,下载
windows环境下的sbt,安装好后将sbt的文件复制到spark目录下。
再次cmd在spark目录下运行sbt package
4、遇到git不是内部命令错误的解决方法是:安装windows版本的git工具,安装好后配置环境变量。
找到git安装路径中bin的位置,如:D:\Program Files(x86)\Git\bin
找到git安装路径中git-core的位置,如:D:\Program Files(x86)\Git\libexec\git-core;
加入到环境变量中;
5、安装好后再运行sbt package
6、编译成功后在spark下运行spark-shell
出现D:\program file (x86)不是内部活外部命令的错误,这是由于空格问题产生的,只需要在cmd进入spark目录下的过程中将D:\Program File (x86)则改为progra~2(
D:\Program File则改为progra~1)即可。
再次输入spark-shell,现在可以开始spark windows之旅了!!
版权声明:本文标题:apache spark在windows7 下安装 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/jishu/1727510948h1127168.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论