confluence安装完之后怎么返回安装界面?
安装合流后返回安装界面的方法如下
1.我们首先进入图形界面。
2.然后输入ctrlaltF2切换到dos界面。
3.接下来,以root用户身份登录。
5命令返回到图形界面。
5.您也可以在图形界面中找到该应用程序。
6.找到终端项目。
7.点击进入命令操作页面。
注意事项:
CentOS的版本大约每两年发布一次,每个版本的C
想建一个知识库,用什么工具比较好?
谢谢你的邀请。欢迎关注黑桃,与边肖交流互动,共享科技数字信息。
构建知识库的工具有哪些?这个要看你想建在哪里,只是想用手机做个记录?还是要多种终端,共享?这个需求不一样,工具就不一样。
ApacheMahout如何使用?
Mahout安装的详细全过程1。jdk安装22。SSH无密码认证配置23。hadoop配置34。Hadop使用65。Maven安装76。看象人装置77。Hadoop集群执行集群算法88。其他8......................................................................................................
开放"终端"然后输入:sh
1.3.设置JAVA_HOME环境系统变量input:VI/etc/environmentAdd:exportJAVA_HOME/root/JDK1.6.0_24exportJRE_HOME/root/JDK1.6.0_24/JRE导出类路径$classpath:$JAVA_HOM:$JAVA_HOME/JRE/lib同样,修改第二个文件。Input:vi/etc/profile在umask022前添加以下语句:exportJAVA_HOME/root/JDK1.6.0_24exportJRE_HOME/root/JDK1.6.0_24/JRE导出类路径$classPATH:$JAVA_HOM:$JAVA_HOM:$Java_hom:$path:$hom:、:、Slav:,三个节点都是CentOS系统,Hadoop在/root/hadoop/目录下。在/etc/hosts上添加主机名和对应的IP地址:192.168.1.10Master192.168.1.20Slave1192.168.1.21Slave23、SSH免密码认证配置2.1Hadoop需要使用SSH协议。Namenode将使用SSH协议启动namenode和datanode进程。伪分布式模式下的数据节点和名称节点是它们自己,所以SSHlocalhost必须在没有密码验证的情况下进行配置。以root用户身份登录并在主目录中执行以下命令:ssh-k:的文件
按回车默认路径创建目录。创造。
目录输入密码短语(空表示无密码短语):输入相同的密码短语again:你的身份已经保存在_
公钥已保存在_
键指纹is:c6:7:57:59:0a:2d:85:49:23:cc:58::dbecho33-@
在目录中生成id_rsa私钥和id_。
公钥。进入
namenode节点下的目录配置如下:[。ssh]#猫id_
授权密钥。ssh]#scp授权_密钥[
。ssh]#scp授权_密钥
配置完成后,您可以测试是否需要通过ssh本地IP进行密码登录。2.2如同namenode无需密码登录所有DataNode的原理,将DataNode的公钥复制到Namenode嘘。
在目录下。[.ssh]#scpauthoriz:/root[root@]#scpauthoriz:/root
添加刚刚发送到authorized_keys[root@]#catauthorized_keys1authorized_keys[root@]#catauthorized_keys2authorized_keys,也可以关闭和启动Datanode上的Hadoop服务。4、Hadoop配置下载hadoop-0.20.2.tar.gz。
,用于减压。塔尔zxvfhadoop-0.20.2.tar.gz
修改/etc/profil:$path4.1.进入hadoop/conf,配置Hadoop配置文件4.1.1,
将#setjavaenvironmentexportJava_home/root/JDK1.6.0_24添加到文件中,保存并退出。配置核心站点。xml#vicore-site.xml4.1.3配置HDFS-site.XML#vihdfs-site.XML4.1.4配置Mapred-site.XML#viMapred-site.XML4.1.5配置masters#Vimasters192.168.1.104.1.6配置slaves#vislaves192.168.1.20192.168.1.214.2、hadoopstartup4.2.1、进入/root/Hadoop/中/HadoopNamenode。
命令启动后,可以使用jps命令检查hadoop进程是否完全启动。正常情况下应该有以下进程:10910namenode11431JPS11176二级NameNode11053datanode11254JobTracker11378TaskTracker。在建设过程中,这个环节出现的问题最多,启动过程往往不完整。DataNode无常启动,或者NameNode或Tasktracker启动异常。解决方法如下:1)关闭Linux下的防火墙:使用服务iptablesstop命令;2)再次格式化namenode:在/root/hadoop/bin目录下执行hadoopnamenode-format命令3)重启服务器4)查看datanode或namenode对应的日志文件,该文件保存在/root/hadoop/logs目录下。5)在/bin目录中再次使用它。
命令启动所有进程,通过以上方法应该可以解决进程启动不完整的问题。4.2.3查看集群状态在bin目录中执行:HadoopDFSadmin-report#HadoopDFSadmincr:50070:50030.5。Hadop使用了一个测试示例wordcount:计算输入文本。中文字数统计程序。hadoop主目录中带有WordCount的java包hadoop-0.20.2-examples.jar。
,实现步骤如下:在/root/hadoop/bin/目录下,进行如下操作:。/hadoopfs-mkdir输入(新目录名可以任意命名)mkdir/root/a/vi/root/a.txt。
从本地/root/a/input写helloworldhello#Hadoopfs-copy,在/root/hadoop/bin:#下执行。Hadoop-0.20.2-examples.jar。
Wordcount输入输出(提交一个作业,这里要注意输入输出是一组任务,下次执行wordcount程序,新目录intput1和output1不能和输入输出同名)6。Maven安装6.1,下载Maven解压tarVxZFApache-Maven-3.0.2-bin.tar.gzmv。
Apach:${path}6.3先注销,然后登录查看maven版本,看mvn-version7是否安装成功。参见:
、hadoop集群实现集群算法8.1数据准备CD/root/Hadoopwg_control/synthetic_
。/hadoopfs-mkdirtestdata。/hadoopfs-putsynthetic_
测试数据。/Hadoopfs-LSRtestdatabin/Hadoopjar/root/mahout/mahout-examples-0.4-job.jar
检查结果,bin/mahout向量转储-seqfile/user/root/output/data/part-r-00000。这将在控制台上直接显示结果。走吧。9.hadoop集群实现推荐算法分布式bin/Hadoopjar/root/trunk/mahout-distribution-0.4/mahout-core-0.4-job.jar。
-Dmapred.output.diroutput2伪分布式bin/Hadoopjar/root/trunk/mahout-distribution-0.4/mahout-core-0.4-job.jar。
-推荐者类名
-dmapred.output.diroutput_w10wan10,其他离开安全模式:hadoopdfsadmin-safemode离开。