hadoop 單機(jī)安裝配置教程
更新時(shí)間:2012年11月26日 14:59:20 作者:
單機(jī)安裝主要用于程序邏輯調(diào)試。安裝步驟基本通分布式安裝,包括環(huán)境變量,主要Hadoop配置文件,SSH配置等,需要的朋友可以參考下
單機(jī)安裝主要用于程序邏輯調(diào)試。安裝步驟基本通分布式安裝,包括環(huán)境變量,主要Hadoop配置文件,SSH配置等。主要的區(qū)別在于配置文件:slaves配置需要修改,另外如果分布式安裝中dfs.replication大于1,需要修改為1,因?yàn)橹挥?個(gè)datanode.
分布式安裝請參考:
http://acooly.iteye.com/blog/1179828
單機(jī)安裝中,使用一臺(tái)機(jī)器,即做namenode和JobTracker也是datanode和TaskTracker,當(dāng)然也是SecondaryNameNode。
主要配置文件core-site.xml,hdfs-site.xml,mapred-site.xml,masters完全同分布樹安裝配置,如果分布式安裝配置方案中hdfs-site.xml的副本數(shù)量定義大于1,則修改為1.
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
主要不同在于slaves的配置,分布式安裝中是多個(gè)其他機(jī)器作為datanode,單機(jī)模式本機(jī)是datanode,所以修改slaves配置文件為本機(jī)的域名。如:本機(jī)機(jī)器名為hadoop11,則:
[hadoop@hadoop11 ~]$ cat hadoop/conf/slaves
hadoop11
完成配置后,啟動(dòng):
$ start-all.sh
$ jps
15556 Jps
15111 JobTracker
15258 TaskTracker
15014 SecondaryNameNode
14861 DataNode
14712 NameNode
運(yùn)行DEMO
$ echo word1 word2 word2 word3 word3 word3 > words
$ cat words
word1 word2 word2 word3 word3 word3
$ hadoop dfsadmin -safemode leave
$ hadoop fs -copyFromLocal words /single/input/words
$ hadoop fs -cat /single/input/words
12/02/17 19:47:44 INFO security.Groups: Group mapping impl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping; cacheTimeout=300000
word1 word2 word2 word3 word3 word3
$ hadoop jar hadoop-0.21.0/hadoop-mapred-examples-0.21.0.jar wordcount /single/input /single/output
......
$ hadoop fs -ls /single/output
......
-rw-r--r-- 1 hadoop supergroup 0 2012-02-17 19:50 /single/output/_SUCCESS
-rw-r--r-- 1 hadoop supergroup 24 2012-02-17 19:50 /single/output/part-r-00000
$ hadoop fs -cat /single/output/part-r-00000
......
word1 1
word2 2
word3 3
分布式安裝請參考:
http://acooly.iteye.com/blog/1179828
單機(jī)安裝中,使用一臺(tái)機(jī)器,即做namenode和JobTracker也是datanode和TaskTracker,當(dāng)然也是SecondaryNameNode。
主要配置文件core-site.xml,hdfs-site.xml,mapred-site.xml,masters完全同分布樹安裝配置,如果分布式安裝配置方案中hdfs-site.xml的副本數(shù)量定義大于1,則修改為1.
復(fù)制代碼 代碼如下:
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
主要不同在于slaves的配置,分布式安裝中是多個(gè)其他機(jī)器作為datanode,單機(jī)模式本機(jī)是datanode,所以修改slaves配置文件為本機(jī)的域名。如:本機(jī)機(jī)器名為hadoop11,則:
[hadoop@hadoop11 ~]$ cat hadoop/conf/slaves
hadoop11
完成配置后,啟動(dòng):
復(fù)制代碼 代碼如下:
$ start-all.sh
$ jps
15556 Jps
15111 JobTracker
15258 TaskTracker
15014 SecondaryNameNode
14861 DataNode
14712 NameNode
運(yùn)行DEMO
$ echo word1 word2 word2 word3 word3 word3 > words
$ cat words
word1 word2 word2 word3 word3 word3
$ hadoop dfsadmin -safemode leave
$ hadoop fs -copyFromLocal words /single/input/words
$ hadoop fs -cat /single/input/words
12/02/17 19:47:44 INFO security.Groups: Group mapping impl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping; cacheTimeout=300000
word1 word2 word2 word3 word3 word3
$ hadoop jar hadoop-0.21.0/hadoop-mapred-examples-0.21.0.jar wordcount /single/input /single/output
......
$ hadoop fs -ls /single/output
......
-rw-r--r-- 1 hadoop supergroup 0 2012-02-17 19:50 /single/output/_SUCCESS
-rw-r--r-- 1 hadoop supergroup 24 2012-02-17 19:50 /single/output/part-r-00000
$ hadoop fs -cat /single/output/part-r-00000
......
word1 1
word2 2
word3 3
您可能感興趣的文章:
- linux下搭建hadoop環(huán)境步驟分享
- hadoop的hdfs文件操作實(shí)現(xiàn)上傳文件到hdfs
- Hadoop中的Python框架的使用指南
- 用PHP和Shell寫Hadoop的MapReduce程序
- 用python + hadoop streaming 分布式編程(一) -- 原理介紹,樣例程序與本地調(diào)試
- hadoop map-reduce中的文件并發(fā)操作
- Hadoop單機(jī)版和全分布式(集群)安裝
- Hadoop2.X/YARN環(huán)境搭建--CentOS7.0系統(tǒng)配置
- hadoop client與datanode的通信協(xié)議分析
- Hadoop2.X/YARN環(huán)境搭建--CentOS7.0 JDK配置
- Hadoop SSH免密碼登錄以及失敗解決方案
相關(guān)文章
Mybatis動(dòng)態(tài)sql超詳細(xì)講解
動(dòng)態(tài)SQL是MyBatis的強(qiáng)大特性之一,顧名思義就是會(huì)動(dòng)的SQL,即是能夠靈活的根據(jù)某種條件拼接出完整的SQL語句,下面這篇文章主要給大家介紹了關(guān)于Mybatis動(dòng)態(tài)sql的相關(guān)資料,需要的朋友可以參考下2023-04-04MyBatis?Generator?ORM層面的代碼自動(dòng)生成器(推薦)
Mybatis?Generator是一個(gè)專門為?MyBatis和?ibatis框架使用者提供的代碼生成器,也可以快速的根據(jù)數(shù)據(jù)表生成對應(yīng)的pojo類、Mapper接口、Mapper文件,甚至生成QBC風(fēng)格的查詢對象,這篇文章主要介紹了MyBatis?Generator?ORM層面的代碼自動(dòng)生成器,需要的朋友可以參考下2023-01-01