ssh://user@ntp serverr_ip:29418/project_name/$REPO_PROJECT HEAD:master中的$REPO_PROJECT值是从哪

查找技巧:可以搜索某个关键字如"RHSA--中危: bash 安全更新",可以直接搜索"bash"这样定位更快。

一看又是ClassNotFoundException错误一般都是没有相對应的JAR包,或者有JAR包没有放到加载的路径上去上百度一搜这个类位于hadoop-yarn-ntp serverr-web-proxy这个JAR中,首先到机器中find查找确实没有,就要去下载下载很方便,现在一般都是Maven项目构建网上有一个超级大的Maven仓库,直接根据名字进行搜索下载实在是太方便,唯一有点遗憾是电脑不能直接上网囧哈。
最后一把执行命令如下:

可以将这两个依赖包放到任意一个路径,这样命令不会那么长难看,看屏幕输出计算PI的结果如下3.13858与想象中的3.1415926不一样呀,哈哈以后再解释。

 
利用spark-shell启动时出现如下不过首先得切换到hdfs用户,这个用户在安装过程己创建好


这个问题折腾我恏久,一直定位为yarn配置文件的配置问题但不知道哪个具体的yarn-site.xml改了生效,尝试了很多次/opt/cloudera/parcels/CDH-5.9.0-1.cdh5.9.0.p0.23/lib/spark/conf/yarn-conf/yarn-site.xml这个配置文件未果后来在WEB配置界面的YARN配置选项中,通过查找yarn.scheduler.maximum-allocation-mb项发生真有耶把报错的两项均修改为2G,保存配置重启过期配置,再次执行spark-shell命令成功原来人家早就考虑到基本的配置操作茬WEB上面,自己干嘛还去机器中改呀呵呵,还提供了你更改配置与原有配置的对比类似SVN提交记录一样。

我要回帖

更多关于 ssh基本命令 的文章

 

随机推荐