我的python not x怎么又not defined

当我打开pyspark时加载时显示zipimport导入错誤,网上搜了下大部分说缺少zib*依赖。博主按照网上的使用sudo apt-get install zlib*命令安装这个zlib*发现问题还是没有得到解决使用了其他方法也没用。

经过多番折腾终于知道了错误原因是spark环境配置中的python not x版本与我手动升级后的python not x不一致,所以只需要更新下spark /conf/spark-env.sh 这个环境配置文件就大功告成啦哈哈

 在这個文件加入以下代码,重新指定pyspark使用的python not x路径(如果没有这个PYSPARK_python not x变量可以直接添加之前设置过只需要更改这个变量后面的路径)。

然后重新啟动下hadoop以及spark即可正确运行pyspark如下:

  =>原创不易,请点个关注共同进步哦

笨办法学.python not x.(第三版)

您还没有浏覽的资料哦~

快去寻找自己想要的资料吧

您还没有收藏的资料哦~

收藏资料后可随时找到自己喜欢的内容

我要回帖

更多关于 python not x 的文章

 

随机推荐