SlideShare une entreprise Scribd logo
1  sur  12
Télécharger pour lire hors ligne
目录
1     Hadoop .............................................................................................................................. 2

    1.1      机器 ............................................................................................................................ 2

    1.2      安装 ............................................................................................................................ 2

    1.3      启动 ............................................................................................................................ 5

    1.4      管理页面 .................................................................................................................... 5

    1.5      FAQ............................................................................................................................ 5

2     Hive .................................................................................................................................... 6

    2.1      机器 ............................................................................................................................ 6

    2.2      安装 Mysql ................................................................................................................ 6

    2.3      安装 Hive ................................................................................................................... 7

    2.4      测试 ............................................................................................................................ 8

3     Sqoop ................................................................................................................................. 8

    3.1      机器 ............................................................................................................................ 8

    3.2      安装 ............................................................................................................................ 8

    3.3      测试 ............................................................................................................................ 8

4     Zookeeper.......................................................................................................................... 9

    4.1      机器 ............................................................................................................................ 9

    4.2      安装 ............................................................................................................................ 9

    4.3      启动 .......................................................................................................................... 10

    4.4      测试 .......................................................................................................................... 10

5     HBase ............................................................................................................................... 10

    5.1      机器 .......................................................................................................................... 10

    5.2      安装 .......................................................................................................................... 10

    5.3      启动 .......................................................................................................................... 12

    5.4      管理界面 .................................................................................................................. 12
1 Hadoop

    1.1 机器

    192.168.38.0(master)
    192.168.38.1(slave)
    192.168.38.2(slave)
    192.168.38.3(slave)
    (上述 ip 为例子,操作时以实际 ip 为准)

1   创建 hadoop 账号 (root 权限)
2   设置 Master 到 Slave 的 hadoop 账号 相互之间无密码登陆(包括自己到自己)
3   设置每台机器的 hostname
        192.168.38.0 hadoopcm0
        192.168.38.1 hadoopcm1
        192.168.38.2 hadoopcm2
        192.168.38.3 hadoopcm3

4   配置每台的/etc/hosts
       192.168.38.0 hadoopcm0
       192.168.38.1 hadoopcm1
       192.168.38.2 hadoopcm2
       192.168.38.3 hadoopcm3




    1.2 安装

1   JDK
    1.1 安装 JDK, 1.6 以上
    1.2 设置环境变量 JAVA_HOME, /usr/jdk/jdk1.6.0_13/
    1.3 将 $JAVA_HOME/bin 添加到 Path 目录

以下操作使用 master 机器 hadoopcm0

2   下载 Hadoop 1.0.1 的发布
wget http://labs.renren.com/apache-mirror//hadoop/common/hadoop-1.0.1/hadoop-1.0.1.tar.gz



3   解压发布包到一个目录下, 在/home/ hadoop 下
    tar xzf hadoop-1.0.1.tar.gz


4    配置 hadoop 的环境变量,将以下两行添加进 ~/.bashrc 中:
export HADOOP_HOME=/home/hadoop/hadoop-1.0.1
    export PATH=$PATH:$HADOOP_HOME/bin
    source ~/.bashrc


5   检查 Hadoop 环境变量设置
    hadoop version


6    配置 hadoop
    6.1 进入 conf 目录,conf 位于 hadoop-1.0.1 目录下
    6.2 core-site.xml

<configuration>
    <property>
          <name>fs.default.name</name>
          <value>hdfs://hadoopcm0:9000</value>
    </property>
    <property>
          <name>hadoop.tmp.dir</name>
          <value>/home/hadoop/tmp</value>
    </property>
</configuration>


    6.3     mapred-site.xml

<configuration>
    <property>
          <name>mapred.job.tracker</name>
          <value>hadoopcm0:9001</value>
    </property>
    <property>
          <name>mapred.child.java.opts</name>
          <value>-Xmx2048m</value>
    </property>
</configuration>


    6.4     hdfs-site.xml

<configuration>
    <property>
          <name>dfs.replication</name>
          <value>2</value>
    </property>
</configuration>
6.5     hadoop-env.sh

# The java implementation to use. Required.
export JAVA_HOME=/usr/jdk/jdk1.6.0_13/



    6.6     masters
hadoopcm0



    6.7     slaves
hadoopcm1
hadoopcm2
hadoopcm3




7  将/home/hadoop 从 Master 复制到其他 Slave 机器
scp –r /home/hadoop hadoopcm1:/home/hadoop
scp –r /home/hadoop hadoopcm2:/home/hadoop
scp –r /home/hadoop hadoopcm3:/home/hadoop



8   Master 上 初始化
hadoop namenode –format


9 每台机器上设置环境变量
export JAVA_HOME=/usr/jdk/jdk1.6.0_13
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/home/hadoop/hadoop-1.0.1
export PATH=$HADOOP_HOME/bin:$PATH
export HIVE_HOME=/home/hadoop/hive-0.9.0
export PATH=$HIVE_HOME/bin:$PATH
export SQOOP_HOME=/home/hadoop/sqoop-1.4.1
export PATH=$SQOOP_HOME/bin:$PATH
export HBASE_HOME=/home/hadoop/hbase-0.94.0
export PATH=$HBASE_HOME/bin:$PATH
export ZOOKEEPER_HOME=/home/hadoop/zookeeper-3.4.3
export PATH=$ZOOKEEPER_HOME/bin:$PATH
export HADOOP_HOME_WARN_SUPPRESS=1
1.3 启动

登陆 Master hadoopcm0

1.    启动
start-all.sh


2.    测试,进入 hadoop 安装目录
hadoop                jar              hadoop-1.0.1-examples.jar              wordcount
file:///home/hadoop/hadoop-1.0.1/README.txt output
hadoop fs -cat output/part-r-00000


3.    关闭
stop-all.sh




      1.4 管理页面

Jobtracker:http://hadoopcm0:50030/
Namenode:http://hadoopcm0:50070/




      1.5 FAQ

1     Hadoop tasks: “execvp: permission denied”
      运行 hadoop 程序时,报错
java.lang.Throwable: Child Error

     at org.apache.hardoop.mapred.TaskRunner.run(TaskRunner.java:271)

Caused by: java.io.IOException: Task process exit with nonzero status of 1.

     at org.apache.hardoop.mapred.TaskRunner.run(TaskRunner.java:258)



    在 task 节点,%hadoop_home%/logs/userlogs/job*/*/stderr 报错”execvp: permission
denied”

      解决:增加文件 %JAVA_HOME%/jre/bin/java 的执行权限



2     TODO
2 Hive

     2.1 机器

单机安装 hadoopcm0




     2.2 安装 Mysql

如果已经安装 mysql,则跳到第 5 步增加数据库


下面为 rpm 安装 Mysql5.5
1. 增加用户 mysql
     groupadd mysql
     useradd -g mysql mysql


2.   下载 mysql rpm 包
     wget
     http://cdn.mysql.com/Downloads/MySQL-5.5/MySQL-server-5.5.25a-1.linux2.6.x86_64.rpm
     wget
     http://cdn.mysql.com/Downloads/MySQL-5.5/MySQL-client-5.5.25a-1.linux2.6.x86_64.rpm


3.   安装 mysql
          rpm -ivh MySQL-server-5.5.25a-1.linux2.6.x86_64.rpm
          rpm -ivh MySQL-client-5.5.25a-1.linux2.6.x86_64.rpm


4.   启动 mysql
     添加系统启动项
/sbin/chkconfig --add mysql

     启动
/etc/init.d/mysql start


5.   增加数据库


          create database hive;
          grant all on hive.* to hive@'%' identified by 'hive';
          flush privileges;
2.3 安装 Hive

1   下载 hive
    wget http://labs.renren.com/apache-mirror/hive/hive-0.9.0/hive-0.9.0.tar.gz

2   解压 hive
    tar –xzf hive-0.9.0.tar.gz

3   增加 mysql 的连接 jar 包
    3.1 下载 mysql 的 jar 包
    wget http://cdn.mysql.com/Downloads/Connector-J/mysql-connector-java-5.1.21.tar.gz
    3.2 放到 hive-0.9.0/lib 目录下

4   配置 hive
    4.1 进入 conf 目录,conf 位于 hive-0.9.0 目录下
    4.2 hive-site.xml

<configuration>
          <property>
             <name>javax.jdo.option.ConnectionURL</name>
             <value>jdbc:mysql://hadoopcm0:3306/hive?createDatabaseIfNotExist=true
</value>
          </property>


           <property>
              <name>javax.jdo.option.ConnectionDriverName </name>
              <value>com.mysql.jdbc.Driver</value>
           </property>


           <property>
                <name>hive.stats.dbconnectionstring</name>
           <value>jdbc:mysql://hadoopcm0:3306/HiveStats?createDatabaseIfNotExis
t=true&amp;user=hive&amp;password=hive</value>
           </property>
</configuration>


    4.3     hive-config.sh

export JAVA_HOME=/usr/jdk/jdk1.6.0_13/
export HIVE_HOME=/home/hadoop/hive-0.9.0/
export HADOOP_HOME=/home/hadoop/hadoop-1.0.1


    4.4     hive-log4j.properties
cp hive-log4j.properties.template hive-log4j.properties
增加下面一行到 hive-log4j.properties
log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter




     2.4 测试

进入 hive 安装目录
bin/hive
show tables;

能正常显示




3 Sqoop

     3.1 机器

    单机安装 192.168.38.0 hadoopcm0


     3.2 安装

1、下载 sqoop
wget http://labs.renren.com/apache-mirror/sqoop/1.4.1-incubating/sqoop-1.4.1-incubating__ha
doop-1.0.0.tar.gz


2、解压
tar -xf sqoop-1.4.1-incubating__hadoop-1.0.0.tar.gz
mv sqoop-1.4.1-incubating__hadoop-1.0.0 sqoop-1.4.1

将解压后的 sqoop-1.4.1 文件放在系统的/home/hadoop/中。




     3.3 测试

输入 sqoop version
出现 sqoop-1.4.1-incubating,测试通过
4 Zookeeper

     4.1 机器

     使用其中的三台 Slave
     192.168.38.1 hadoopcm1
     192.168.38.2 hadoopcm2
     192.168.38.3 hadoopcm3


     4.2 安装

1    下载 zookeeper
wget http://labs.renren.com/apache-mirror/zookeeper/zookeeper-3.4.3/zookeeper-3.4.3.tar.gz


2    解压
tar -xf zookeeper-3.4.3.tar.gz
将解压后的 zookeeper-3.4.3 文件放在系统的/home/hadoop/中


3    配置
     3.1    将 zookeeper-3.4.3/conf 目录下的 zoo_sample.cfg 文件拷贝一份,命名为为“zoo.cfg”
     3.2    修改 zoo.cfg


tickTime=2000
dataDir=/home/hadoop/zookeeper-3.4.3/zookeeper-data
dataLogDir=/home/hadooptest/zookeeper-3.4.3/logs
clientPort=2181
initLimit=5
syncLimit=2
server.1=hadoopcm1:2888:3888
server.2=hadoopcm2:2888:3888
server.3=hadoopcm3:2888:3888

     3.3    创建 zookpper-data 目录
mkdir /home/hadoop/zookeeper3.4.3/zookeeper-data


    3.4 生成 myid 文件
touch myid


4    将/home/hadoop/ zookeeper-3.4.3 复制到其他 Slave 机器
scp –r /home/hadoop/zookeeper-3.4.3 hadoopcm1:/home/hadoop
scp –r /home/hadoop/zookeeper-3.4.3 hadoopcm2:/home/hadoop




5    修改 myid 文件
     hadoopcm1 机器中 myid 写入 1
     hadoopcm2 机器中 myid 写入 2
     hadoopcm3 机器中 myid 写入 3


     4.3 启动

每台机器中执行
1.   启动
bin/zkServer.sh start


2.   关闭
bin/zkServer.sh stop


     4.4 测试

bin/zkCli.sh -server 127.0.0.1:2181




5 HBase

     5.1 机器

     同上,使用其中的三台 slaves
     192.168.38.1 hadoopcm1
     192.168.38.2 hadoopcm2
     192.168.38.3 hadoopcm3


     5.2 安装

1    下载 HBase 0.94 的发布
      wget http://labs.renren.com/apache-mirror/hbase/hbase-0.94.0/hbase-0.94.0.tar.gz

2    解压发布包到一个目录 /home/hadoop
     tar xzf hbase-0.94.0.tar.gz
3   配置 hbase
    3.1 进入 conf 目录,conf 位于 hbase-0.94.0 目录下
    3.2 hbase-site.xml

<configuration>
          <property>
             <name>hbase.master</name>
             <value>hadoopcm1:60000</value>
          </property>


          <property>
             <name>hbase.rootdir</name>
             <value>hdfs://hadoopcm0:9000/hbase</value>
          </property>


          <property>
             <name>hbase.cluster.distributed</name>
             <value>true</value>
          </property>


           <property>
              <name>hbase.zookeeper.quorum</name>
              <value>hadoopcm1, hadoopcm2, hadoopcm3</value>
           </property>
           <property>
                <name>hbase.zookeeper.property.dataDir</name>
                <value>/home/hadoop/zookeeper</value>
           </property>
</configuration>




    3.3      regionservers
hadoopcm1
hadoopcm2
hadoopcm3




4  将/home/hadoop/hbase-0.94.0 复制到其他机器
scp –r /home/hadoop/hbase-0.94.0 hadoopcm2:/home/hadoop
scp –r /home/hadoop/hbase-0.94.0 hadoopcm3:/home/hadoop
5.3 启动

在 Hbase 安装目录下
1. 启动
$./bin/start-hbase.sh




2.   关闭
$ ./bin/stop-hbase.sh




     5.4 管理界面

HBase Master:http://192.168.38.2:60010/

Contenu connexe

Tendances

Puppet安装总结
Puppet安装总结Puppet安装总结
Puppet安装总结Yiwei Ma
 
康盛创想项目部Linux 服务器部署标准(最新版)
康盛创想项目部Linux 服务器部署标准(最新版)康盛创想项目部Linux 服务器部署标准(最新版)
康盛创想项目部Linux 服务器部署标准(最新版)Yiwei Ma
 
【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410
【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410
【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410maclean liu
 
Automate with Ansible basic (2/e)
Automate with Ansible basic (2/e)Automate with Ansible basic (2/e)
Automate with Ansible basic (2/e)Chu-Siang Lai
 
Mysql展示功能与源码对应
Mysql展示功能与源码对应Mysql展示功能与源码对应
Mysql展示功能与源码对应zhaolinjnu
 
真正读懂oracle sql执行计划execution plan v20131025
真正读懂oracle sql执行计划execution plan v20131025真正读懂oracle sql执行计划execution plan v20131025
真正读懂oracle sql执行计划execution plan v20131025maclean liu
 
Mysql proxy cluster
Mysql proxy clusterMysql proxy cluster
Mysql proxy clusterYiwei Ma
 
基于linux-HA 的PG高可用性
基于linux-HA 的PG高可用性基于linux-HA 的PG高可用性
基于linux-HA 的PG高可用性babyyellow li
 
Apache服务器配置全攻略
Apache服务器配置全攻略Apache服务器配置全攻略
Apache服务器配置全攻略Yiwei Ma
 
Hadoop平台搭建
Hadoop平台搭建Hadoop平台搭建
Hadoop平台搭建Liyang Tang
 
COSCUP 2016 Laravel 部署工作坊 - 部署指南
COSCUP 2016 Laravel 部署工作坊 - 部署指南COSCUP 2016 Laravel 部署工作坊 - 部署指南
COSCUP 2016 Laravel 部署工作坊 - 部署指南Shengyou Fan
 
Hadoop+spark實作
Hadoop+spark實作Hadoop+spark實作
Hadoop+spark實作FEG
 
Hadoop开发者入门专刊
Hadoop开发者入门专刊Hadoop开发者入门专刊
Hadoop开发者入门专刊liangxiao0315
 
A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩
A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩
A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩Wen-Tien Chang
 
Oracle10g Rac Configuration For Linux X86
Oracle10g Rac Configuration For Linux X86Oracle10g Rac Configuration For Linux X86
Oracle10g Rac Configuration For Linux X86dbabc
 
MySQL Audit 機制應用技術
MySQL Audit 機制應用技術MySQL Audit 機制應用技術
MySQL Audit 機制應用技術Jamie Lee
 
2, OCP - installing and creating a database
2, OCP - installing and creating a database2, OCP - installing and creating a database
2, OCP - installing and creating a databaseted-xu
 
中纺科技安装实施文档
中纺科技安装实施文档中纺科技安装实施文档
中纺科技安装实施文档liangsuilong
 

Tendances (18)

Puppet安装总结
Puppet安装总结Puppet安装总结
Puppet安装总结
 
康盛创想项目部Linux 服务器部署标准(最新版)
康盛创想项目部Linux 服务器部署标准(最新版)康盛创想项目部Linux 服务器部署标准(最新版)
康盛创想项目部Linux 服务器部署标准(最新版)
 
【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410
【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410
【Maclean liu技术分享】开oracle调优鹰眼,深入理解awr性能报告 第二讲 正式版 20130410
 
Automate with Ansible basic (2/e)
Automate with Ansible basic (2/e)Automate with Ansible basic (2/e)
Automate with Ansible basic (2/e)
 
Mysql展示功能与源码对应
Mysql展示功能与源码对应Mysql展示功能与源码对应
Mysql展示功能与源码对应
 
真正读懂oracle sql执行计划execution plan v20131025
真正读懂oracle sql执行计划execution plan v20131025真正读懂oracle sql执行计划execution plan v20131025
真正读懂oracle sql执行计划execution plan v20131025
 
Mysql proxy cluster
Mysql proxy clusterMysql proxy cluster
Mysql proxy cluster
 
基于linux-HA 的PG高可用性
基于linux-HA 的PG高可用性基于linux-HA 的PG高可用性
基于linux-HA 的PG高可用性
 
Apache服务器配置全攻略
Apache服务器配置全攻略Apache服务器配置全攻略
Apache服务器配置全攻略
 
Hadoop平台搭建
Hadoop平台搭建Hadoop平台搭建
Hadoop平台搭建
 
COSCUP 2016 Laravel 部署工作坊 - 部署指南
COSCUP 2016 Laravel 部署工作坊 - 部署指南COSCUP 2016 Laravel 部署工作坊 - 部署指南
COSCUP 2016 Laravel 部署工作坊 - 部署指南
 
Hadoop+spark實作
Hadoop+spark實作Hadoop+spark實作
Hadoop+spark實作
 
Hadoop开发者入门专刊
Hadoop开发者入门专刊Hadoop开发者入门专刊
Hadoop开发者入门专刊
 
A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩
A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩
A brief introduction to Vagrant – 原來 VirtualBox 可以這樣玩
 
Oracle10g Rac Configuration For Linux X86
Oracle10g Rac Configuration For Linux X86Oracle10g Rac Configuration For Linux X86
Oracle10g Rac Configuration For Linux X86
 
MySQL Audit 機制應用技術
MySQL Audit 機制應用技術MySQL Audit 機制應用技術
MySQL Audit 機制應用技術
 
2, OCP - installing and creating a database
2, OCP - installing and creating a database2, OCP - installing and creating a database
2, OCP - installing and creating a database
 
中纺科技安装实施文档
中纺科技安装实施文档中纺科技安装实施文档
中纺科技安装实施文档
 

En vedette

Planning and Research Presentation
Planning and Research PresentationPlanning and Research Presentation
Planning and Research PresentationPNakan
 
Planning and Research presentation
Planning and Research presentationPlanning and Research presentation
Planning and Research presentationPNakan
 
Moodboard
MoodboardMoodboard
MoodboardPNakan
 
Media evaluation
Media evaluationMedia evaluation
Media evaluationPNakan
 
Sleepingbeauty
SleepingbeautySleepingbeauty
SleepingbeautyPNakan
 
Penny Nakan
Penny NakanPenny Nakan
Penny NakanPNakan
 
Womaninblack 1
Womaninblack 1Womaninblack 1
Womaninblack 1PNakan
 
DPS Inspiration
DPS InspirationDPS Inspiration
DPS InspirationPNakan
 
Tinkertailorsoldierspy 1
Tinkertailorsoldierspy 1Tinkertailorsoldierspy 1
Tinkertailorsoldierspy 1PNakan
 
Mysql story in poi dedup
Mysql story in poi dedupMysql story in poi dedup
Mysql story in poi dedupfeng lee
 
Guice in athena
Guice in athenaGuice in athena
Guice in athenafeng lee
 
Axis2 client memory leak
Axis2 client memory leakAxis2 client memory leak
Axis2 client memory leakfeng lee
 
Bloom filter
Bloom filterBloom filter
Bloom filterfeng lee
 
Effective java - concurrency
Effective java - concurrencyEffective java - concurrency
Effective java - concurrencyfeng lee
 

En vedette (16)

Planning and Research Presentation
Planning and Research PresentationPlanning and Research Presentation
Planning and Research Presentation
 
Planning and Research presentation
Planning and Research presentationPlanning and Research presentation
Planning and Research presentation
 
Moodboard
MoodboardMoodboard
Moodboard
 
Media evaluation
Media evaluationMedia evaluation
Media evaluation
 
Sleepingbeauty
SleepingbeautySleepingbeauty
Sleepingbeauty
 
Penny Nakan
Penny NakanPenny Nakan
Penny Nakan
 
Womaninblack 1
Womaninblack 1Womaninblack 1
Womaninblack 1
 
DPS Inspiration
DPS InspirationDPS Inspiration
DPS Inspiration
 
Tinkertailorsoldierspy 1
Tinkertailorsoldierspy 1Tinkertailorsoldierspy 1
Tinkertailorsoldierspy 1
 
Papio ON la frumusete
Papio ON la frumusetePapio ON la frumusete
Papio ON la frumusete
 
Mysql story in poi dedup
Mysql story in poi dedupMysql story in poi dedup
Mysql story in poi dedup
 
Guice in athena
Guice in athenaGuice in athena
Guice in athena
 
Axis2 client memory leak
Axis2 client memory leakAxis2 client memory leak
Axis2 client memory leak
 
Maven
MavenMaven
Maven
 
Bloom filter
Bloom filterBloom filter
Bloom filter
 
Effective java - concurrency
Effective java - concurrencyEffective java - concurrency
Effective java - concurrency
 

Similaire à Hadoop 安装

linux安装以及LAMP 环境安装详细
linux安装以及LAMP 环境安装详细linux安装以及LAMP 环境安装详细
linux安装以及LAMP 环境安装详细colderboy17
 
8, lamp
8, lamp8, lamp
8, lampted-xu
 
Ruby on Rails 開發環境建置 for Ubuntu
Ruby on Rails 開發環境建置 for UbuntuRuby on Rails 開發環境建置 for Ubuntu
Ruby on Rails 開發環境建置 for UbuntuMarsZ Chen
 
CloudStack Installation on Ubuntu
CloudStack Installation on UbuntuCloudStack Installation on Ubuntu
CloudStack Installation on Ubuntu康志強 大人
 
[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來
[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來
[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來Shengyou Fan
 
Centos下安装apache + subversion
Centos下安装apache + subversionCentos下安装apache + subversion
Centos下安装apache + subversionYiwei Ma
 
CentOS5 apache2 mysql5 php5 Zend
CentOS5 apache2 mysql5 php5 ZendCentOS5 apache2 mysql5 php5 Zend
CentOS5 apache2 mysql5 php5 Zendwensheng wei
 
如何使用 Xhprof 分析網站效能 (真實案例2)
如何使用 Xhprof 分析網站效能 (真實案例2)如何使用 Xhprof 分析網站效能 (真實案例2)
如何使用 Xhprof 分析網站效能 (真實案例2)Cyril Wang
 
Lamp安全全攻略
Lamp安全全攻略Lamp安全全攻略
Lamp安全全攻略Da Zhao
 
Wamp环境下安装 wordpress
Wamp环境下安装 wordpressWamp环境下安装 wordpress
Wamp环境下安装 wordpressstrugglesmen
 
Linux 期末報告
Linux 期末報告Linux 期末報告
Linux 期末報告米米 林
 
Apache安装配置mod security
Apache安装配置mod securityApache安装配置mod security
Apache安装配置mod securityHuang Toby
 
自动化运维管理
自动化运维管理自动化运维管理
自动化运维管理frankwsj
 
使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...
使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...
使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...Laird Cheng
 
Php可调试团队开发环境配置
Php可调试团队开发环境配置Php可调试团队开发环境配置
Php可调试团队开发环境配置wangkangluo1
 
Php可调试团队开发环境配置
Php可调试团队开发环境配置Php可调试团队开发环境配置
Php可调试团队开发环境配置xinqi yang
 
Spring4.x + hibernate4.x_配置详解
Spring4.x + hibernate4.x_配置详解Spring4.x + hibernate4.x_配置详解
Spring4.x + hibernate4.x_配置详解zany_hui
 

Similaire à Hadoop 安装 (20)

linux安装以及LAMP 环境安装详细
linux安装以及LAMP 环境安装详细linux安装以及LAMP 环境安装详细
linux安装以及LAMP 环境安装详细
 
8, lamp
8, lamp8, lamp
8, lamp
 
Ruby on Rails 開發環境建置 for Ubuntu
Ruby on Rails 開發環境建置 for UbuntuRuby on Rails 開發環境建置 for Ubuntu
Ruby on Rails 開發環境建置 for Ubuntu
 
CloudStack Installation on Ubuntu
CloudStack Installation on UbuntuCloudStack Installation on Ubuntu
CloudStack Installation on Ubuntu
 
[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來
[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來
[Modern Web 2016] 讓你的 PHP 開發流程再次潮起來
 
OSGi Small Lab
OSGi Small LabOSGi Small Lab
OSGi Small Lab
 
Centos下安装apache + subversion
Centos下安装apache + subversionCentos下安装apache + subversion
Centos下安装apache + subversion
 
Asm+aix
Asm+aixAsm+aix
Asm+aix
 
CentOS5 apache2 mysql5 php5 Zend
CentOS5 apache2 mysql5 php5 ZendCentOS5 apache2 mysql5 php5 Zend
CentOS5 apache2 mysql5 php5 Zend
 
如何使用 Xhprof 分析網站效能 (真實案例2)
如何使用 Xhprof 分析網站效能 (真實案例2)如何使用 Xhprof 分析網站效能 (真實案例2)
如何使用 Xhprof 分析網站效能 (真實案例2)
 
Lamp安全全攻略
Lamp安全全攻略Lamp安全全攻略
Lamp安全全攻略
 
Wamp环境下安装 wordpress
Wamp环境下安装 wordpressWamp环境下安装 wordpress
Wamp环境下安装 wordpress
 
Docker
DockerDocker
Docker
 
Linux 期末報告
Linux 期末報告Linux 期末報告
Linux 期末報告
 
Apache安装配置mod security
Apache安装配置mod securityApache安装配置mod security
Apache安装配置mod security
 
自动化运维管理
自动化运维管理自动化运维管理
自动化运维管理
 
使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...
使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...
使用 Load Balancer 與 Redis 部署 LAMP Server 高併發架構 - Global Azure Taiwan 20200425 ...
 
Php可调试团队开发环境配置
Php可调试团队开发环境配置Php可调试团队开发环境配置
Php可调试团队开发环境配置
 
Php可调试团队开发环境配置
Php可调试团队开发环境配置Php可调试团队开发环境配置
Php可调试团队开发环境配置
 
Spring4.x + hibernate4.x_配置详解
Spring4.x + hibernate4.x_配置详解Spring4.x + hibernate4.x_配置详解
Spring4.x + hibernate4.x_配置详解
 

Hadoop 安装

  • 1. 目录 1 Hadoop .............................................................................................................................. 2 1.1 机器 ............................................................................................................................ 2 1.2 安装 ............................................................................................................................ 2 1.3 启动 ............................................................................................................................ 5 1.4 管理页面 .................................................................................................................... 5 1.5 FAQ............................................................................................................................ 5 2 Hive .................................................................................................................................... 6 2.1 机器 ............................................................................................................................ 6 2.2 安装 Mysql ................................................................................................................ 6 2.3 安装 Hive ................................................................................................................... 7 2.4 测试 ............................................................................................................................ 8 3 Sqoop ................................................................................................................................. 8 3.1 机器 ............................................................................................................................ 8 3.2 安装 ............................................................................................................................ 8 3.3 测试 ............................................................................................................................ 8 4 Zookeeper.......................................................................................................................... 9 4.1 机器 ............................................................................................................................ 9 4.2 安装 ............................................................................................................................ 9 4.3 启动 .......................................................................................................................... 10 4.4 测试 .......................................................................................................................... 10 5 HBase ............................................................................................................................... 10 5.1 机器 .......................................................................................................................... 10 5.2 安装 .......................................................................................................................... 10 5.3 启动 .......................................................................................................................... 12 5.4 管理界面 .................................................................................................................. 12
  • 2. 1 Hadoop 1.1 机器 192.168.38.0(master) 192.168.38.1(slave) 192.168.38.2(slave) 192.168.38.3(slave) (上述 ip 为例子,操作时以实际 ip 为准) 1 创建 hadoop 账号 (root 权限) 2 设置 Master 到 Slave 的 hadoop 账号 相互之间无密码登陆(包括自己到自己) 3 设置每台机器的 hostname 192.168.38.0 hadoopcm0 192.168.38.1 hadoopcm1 192.168.38.2 hadoopcm2 192.168.38.3 hadoopcm3 4 配置每台的/etc/hosts 192.168.38.0 hadoopcm0 192.168.38.1 hadoopcm1 192.168.38.2 hadoopcm2 192.168.38.3 hadoopcm3 1.2 安装 1 JDK 1.1 安装 JDK, 1.6 以上 1.2 设置环境变量 JAVA_HOME, /usr/jdk/jdk1.6.0_13/ 1.3 将 $JAVA_HOME/bin 添加到 Path 目录 以下操作使用 master 机器 hadoopcm0 2 下载 Hadoop 1.0.1 的发布 wget http://labs.renren.com/apache-mirror//hadoop/common/hadoop-1.0.1/hadoop-1.0.1.tar.gz 3 解压发布包到一个目录下, 在/home/ hadoop 下 tar xzf hadoop-1.0.1.tar.gz 4 配置 hadoop 的环境变量,将以下两行添加进 ~/.bashrc 中:
  • 3. export HADOOP_HOME=/home/hadoop/hadoop-1.0.1 export PATH=$PATH:$HADOOP_HOME/bin source ~/.bashrc 5 检查 Hadoop 环境变量设置 hadoop version 6 配置 hadoop 6.1 进入 conf 目录,conf 位于 hadoop-1.0.1 目录下 6.2 core-site.xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://hadoopcm0:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> </property> </configuration> 6.3 mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>hadoopcm0:9001</value> </property> <property> <name>mapred.child.java.opts</name> <value>-Xmx2048m</value> </property> </configuration> 6.4 hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>2</value> </property> </configuration>
  • 4. 6.5 hadoop-env.sh # The java implementation to use. Required. export JAVA_HOME=/usr/jdk/jdk1.6.0_13/ 6.6 masters hadoopcm0 6.7 slaves hadoopcm1 hadoopcm2 hadoopcm3 7 将/home/hadoop 从 Master 复制到其他 Slave 机器 scp –r /home/hadoop hadoopcm1:/home/hadoop scp –r /home/hadoop hadoopcm2:/home/hadoop scp –r /home/hadoop hadoopcm3:/home/hadoop 8 Master 上 初始化 hadoop namenode –format 9 每台机器上设置环境变量 export JAVA_HOME=/usr/jdk/jdk1.6.0_13 export PATH=$JAVA_HOME/bin:$PATH export HADOOP_HOME=/home/hadoop/hadoop-1.0.1 export PATH=$HADOOP_HOME/bin:$PATH export HIVE_HOME=/home/hadoop/hive-0.9.0 export PATH=$HIVE_HOME/bin:$PATH export SQOOP_HOME=/home/hadoop/sqoop-1.4.1 export PATH=$SQOOP_HOME/bin:$PATH export HBASE_HOME=/home/hadoop/hbase-0.94.0 export PATH=$HBASE_HOME/bin:$PATH export ZOOKEEPER_HOME=/home/hadoop/zookeeper-3.4.3 export PATH=$ZOOKEEPER_HOME/bin:$PATH export HADOOP_HOME_WARN_SUPPRESS=1
  • 5. 1.3 启动 登陆 Master hadoopcm0 1. 启动 start-all.sh 2. 测试,进入 hadoop 安装目录 hadoop jar hadoop-1.0.1-examples.jar wordcount file:///home/hadoop/hadoop-1.0.1/README.txt output hadoop fs -cat output/part-r-00000 3. 关闭 stop-all.sh 1.4 管理页面 Jobtracker:http://hadoopcm0:50030/ Namenode:http://hadoopcm0:50070/ 1.5 FAQ 1 Hadoop tasks: “execvp: permission denied” 运行 hadoop 程序时,报错 java.lang.Throwable: Child Error at org.apache.hardoop.mapred.TaskRunner.run(TaskRunner.java:271) Caused by: java.io.IOException: Task process exit with nonzero status of 1. at org.apache.hardoop.mapred.TaskRunner.run(TaskRunner.java:258) 在 task 节点,%hadoop_home%/logs/userlogs/job*/*/stderr 报错”execvp: permission denied” 解决:增加文件 %JAVA_HOME%/jre/bin/java 的执行权限 2 TODO
  • 6. 2 Hive 2.1 机器 单机安装 hadoopcm0 2.2 安装 Mysql 如果已经安装 mysql,则跳到第 5 步增加数据库 下面为 rpm 安装 Mysql5.5 1. 增加用户 mysql groupadd mysql useradd -g mysql mysql 2. 下载 mysql rpm 包 wget http://cdn.mysql.com/Downloads/MySQL-5.5/MySQL-server-5.5.25a-1.linux2.6.x86_64.rpm wget http://cdn.mysql.com/Downloads/MySQL-5.5/MySQL-client-5.5.25a-1.linux2.6.x86_64.rpm 3. 安装 mysql rpm -ivh MySQL-server-5.5.25a-1.linux2.6.x86_64.rpm rpm -ivh MySQL-client-5.5.25a-1.linux2.6.x86_64.rpm 4. 启动 mysql 添加系统启动项 /sbin/chkconfig --add mysql 启动 /etc/init.d/mysql start 5. 增加数据库 create database hive; grant all on hive.* to hive@'%' identified by 'hive'; flush privileges;
  • 7. 2.3 安装 Hive 1 下载 hive wget http://labs.renren.com/apache-mirror/hive/hive-0.9.0/hive-0.9.0.tar.gz 2 解压 hive tar –xzf hive-0.9.0.tar.gz 3 增加 mysql 的连接 jar 包 3.1 下载 mysql 的 jar 包 wget http://cdn.mysql.com/Downloads/Connector-J/mysql-connector-java-5.1.21.tar.gz 3.2 放到 hive-0.9.0/lib 目录下 4 配置 hive 4.1 进入 conf 目录,conf 位于 hive-0.9.0 目录下 4.2 hive-site.xml <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://hadoopcm0:3306/hive?createDatabaseIfNotExist=true </value> </property> <property> <name>javax.jdo.option.ConnectionDriverName </name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>hive.stats.dbconnectionstring</name> <value>jdbc:mysql://hadoopcm0:3306/HiveStats?createDatabaseIfNotExis t=true&amp;user=hive&amp;password=hive</value> </property> </configuration> 4.3 hive-config.sh export JAVA_HOME=/usr/jdk/jdk1.6.0_13/ export HIVE_HOME=/home/hadoop/hive-0.9.0/ export HADOOP_HOME=/home/hadoop/hadoop-1.0.1 4.4 hive-log4j.properties cp hive-log4j.properties.template hive-log4j.properties
  • 8. 增加下面一行到 hive-log4j.properties log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter 2.4 测试 进入 hive 安装目录 bin/hive show tables; 能正常显示 3 Sqoop 3.1 机器 单机安装 192.168.38.0 hadoopcm0 3.2 安装 1、下载 sqoop wget http://labs.renren.com/apache-mirror/sqoop/1.4.1-incubating/sqoop-1.4.1-incubating__ha doop-1.0.0.tar.gz 2、解压 tar -xf sqoop-1.4.1-incubating__hadoop-1.0.0.tar.gz mv sqoop-1.4.1-incubating__hadoop-1.0.0 sqoop-1.4.1 将解压后的 sqoop-1.4.1 文件放在系统的/home/hadoop/中。 3.3 测试 输入 sqoop version 出现 sqoop-1.4.1-incubating,测试通过
  • 9. 4 Zookeeper 4.1 机器 使用其中的三台 Slave 192.168.38.1 hadoopcm1 192.168.38.2 hadoopcm2 192.168.38.3 hadoopcm3 4.2 安装 1 下载 zookeeper wget http://labs.renren.com/apache-mirror/zookeeper/zookeeper-3.4.3/zookeeper-3.4.3.tar.gz 2 解压 tar -xf zookeeper-3.4.3.tar.gz 将解压后的 zookeeper-3.4.3 文件放在系统的/home/hadoop/中 3 配置 3.1 将 zookeeper-3.4.3/conf 目录下的 zoo_sample.cfg 文件拷贝一份,命名为为“zoo.cfg” 3.2 修改 zoo.cfg tickTime=2000 dataDir=/home/hadoop/zookeeper-3.4.3/zookeeper-data dataLogDir=/home/hadooptest/zookeeper-3.4.3/logs clientPort=2181 initLimit=5 syncLimit=2 server.1=hadoopcm1:2888:3888 server.2=hadoopcm2:2888:3888 server.3=hadoopcm3:2888:3888 3.3 创建 zookpper-data 目录 mkdir /home/hadoop/zookeeper3.4.3/zookeeper-data 3.4 生成 myid 文件 touch myid 4 将/home/hadoop/ zookeeper-3.4.3 复制到其他 Slave 机器 scp –r /home/hadoop/zookeeper-3.4.3 hadoopcm1:/home/hadoop
  • 10. scp –r /home/hadoop/zookeeper-3.4.3 hadoopcm2:/home/hadoop 5 修改 myid 文件 hadoopcm1 机器中 myid 写入 1 hadoopcm2 机器中 myid 写入 2 hadoopcm3 机器中 myid 写入 3 4.3 启动 每台机器中执行 1. 启动 bin/zkServer.sh start 2. 关闭 bin/zkServer.sh stop 4.4 测试 bin/zkCli.sh -server 127.0.0.1:2181 5 HBase 5.1 机器 同上,使用其中的三台 slaves 192.168.38.1 hadoopcm1 192.168.38.2 hadoopcm2 192.168.38.3 hadoopcm3 5.2 安装 1 下载 HBase 0.94 的发布 wget http://labs.renren.com/apache-mirror/hbase/hbase-0.94.0/hbase-0.94.0.tar.gz 2 解压发布包到一个目录 /home/hadoop tar xzf hbase-0.94.0.tar.gz
  • 11. 3 配置 hbase 3.1 进入 conf 目录,conf 位于 hbase-0.94.0 目录下 3.2 hbase-site.xml <configuration> <property> <name>hbase.master</name> <value>hadoopcm1:60000</value> </property> <property> <name>hbase.rootdir</name> <value>hdfs://hadoopcm0:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>hadoopcm1, hadoopcm2, hadoopcm3</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/home/hadoop/zookeeper</value> </property> </configuration> 3.3 regionservers hadoopcm1 hadoopcm2 hadoopcm3 4 将/home/hadoop/hbase-0.94.0 复制到其他机器 scp –r /home/hadoop/hbase-0.94.0 hadoopcm2:/home/hadoop scp –r /home/hadoop/hbase-0.94.0 hadoopcm3:/home/hadoop
  • 12. 5.3 启动 在 Hbase 安装目录下 1. 启动 $./bin/start-hbase.sh 2. 关闭 $ ./bin/stop-hbase.sh 5.4 管理界面 HBase Master:http://192.168.38.2:60010/