欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

HDFS高可用環(huán)境搭建

                             HA(high availability)

    HA 使用的是分布式日志管理方式

    1.  問題
    Namenode出現(xiàn)問題,整個集群將不能使用。
    配置兩個namenode:Active namenode,standby namenode

    2.  實現(xiàn)方式
    1.  兩個namenode內(nèi)存中存儲的元數(shù)據(jù)同步,namenode啟動時,會讀鏡像文件。
    2.  編輯日志的安全
    分布式的存儲日志文件,存儲于2n+1奇數(shù)個節(jié)點。(n個節(jié)點寫入成功,日志寫入成功。)
    Zookeeper監(jiān)控
    監(jiān)控兩個namenode,一個namenode出現(xiàn)問題,實現(xiàn)故障轉(zhuǎn)移。
    Zookeeper對時間同步要求較高(ntp時間同步)
    3.  客戶端如何知道訪問哪一個namenode

    使用proxy代理
    隔離機制
    使用sshfence
    兩個namenode之間無密碼登陸

    安裝配置
    1.  基礎環(huán)境配置
node1node2node3node1node2
192.168.103.26 192.168.103.27 192.168.103.28 192.168.103.29 192.168.103.30
namenode namenode datanode datanode datanode
DFSZKFailoverController DFSZKFailoverController journalnode journalnode journalnode
QuorumPeerMain QuorumPeerMain QuorumPeerMain
    配置主機名與IP之間的映射
    vim /etc/hosts
    192.168.103.26 node1
    192.168.103.27 node2
    192.168.103.28 node3
    192.168.103.29 node4
    192.168.103.30 node5

    配置各個節(jié)點之間的免密登陸
    Node1
    ssh-kengen –t rsa –P ‘’ 在~/.ssh/目錄下生成id_rsa, id_rsa.put密鑰
    ssh-copy-id –I ~/.ssh/id._rsa.pub (node1,node2,node3,node4.node5)
    Node2操作同node1

    配置時間同步,node1作為ntp服務器
    1.  yum install ntp –y (所有節(jié)點)

    2.  node1
            vim /etc/ntp.conf
    server 210.72.145.44    # 中國國家受時中心
    server    127.127.1.0     #為局域網(wǎng)用戶提供服務
    fudge     127.127.1.0     stratum 10
    systemctl start ntpd
    3.node2,node3,node4,node5
    ntpdate node1

    2.  安裝hadoop

    1.  tar –zxvf jdk-8u171-linux-x64.tar.gz –C /
    mv jdk1.8.0_171/ jdk
    tar –zxvf hadoop-2.7.7.tar.gz –C /
    mv hadoop-2.7.7/ Hadoop
    tar –zxvf zookeeper-3.4.10.tar.gz –C /
    mv zookeeper-3.4.10 zookeeper

    3.  vim /etc/profile
    export JAVA_HOME=/jdk
    export HADOOP_HOME=/Hadoop
    export ZOOKEEPER_HOME=/zookeeper
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin
    source /etc/profile
    scp /etc/profile node2:/etc/
             node3,node4,node5
    scp –r /jdk node2:/etc
         node3,node4,node5  

    4.  配置zookeeper
    進入zookeeper目錄,創(chuàng)建zkdata目錄
    創(chuàng)建myid文件,node3,node4,node5文件中的值為1,2,3
    scp –r /zookeeper node2:/etc
         node3,node4,node5
分別修改zookeeper節(jié)點的myid文件

    5.  安裝hadoop(重點!!!)
    1.  hadoop-env.sh
    export JAVA_HOME = /jdk

    2.  core-site.xml
    <configuration>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://ns1</value>
    </property>
    <property>
    <name>ha.zookeeper.quorum</name>
    <value>node3:2181,node4:2181,node5:2181</value>
</property>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/hadoop/tmp</value>
</property>
    </configuration>

    3.  hdfs.site.xml
    <configuration>
    <property>
            <name>dfs.nameservices</name>
            <value>ns1</value>
    </property>
    <property>
            <name>dfs.ha.namenodes.ns1</name>
            <value>nn1,nn2</value>
    </property>
    <property>
            <name>dfs.namenode.rpc-address.ns1.nn1</name>
            <value>node1:8020</value>
    </property>
    <property>
            <name>dfs.namenode.rpc-address.ns1.nn2</name>
            <value>node2:8020</value>
            </property>
    <property>
            <name>dfs.ha.namenode.http-address.ns1.nn1</name>
            <value>node1:50070</value>
    </property>
    <property>
            <name>dfs.ha.namenode.http-address.ns1.nn2</name>
            <value>node2:50070</value>
    </property>
    <property>
            <name>dfs.namenode.shared.edits.dir</name>
            <value>qjournal://node3:8485;node4:8485;node5:8485/ns1</value>
    </property>
    <property>
            <name>dfs.journalnode.edits.dir</name>
            <value>/journalnode</value>
    </property>
    <property>
            <name>dfs.client.failover.proxy.provider.ns1</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
    </property>
    <property>
            <name>dfs.ha.fencing.methods</name>
            <value>sshfence</value>
    </property>
    <property>
            <name>dfs.ha.fencing.ssh.private-key-files</name>
            <value>/home/root/.ssh/id_rsa</value>
        </property>
<property>
            <name>dfs.ha.automatic-failover.enabled</name>
            <value>true</value>
</property>

    vim slaves
    node3
    node4
    node5

    4.  啟動
    node3,node4,node5
    hadoop-daemon.sh start journalnode
    zkServer.sh start
  node1
    hdfs namenode -format
        scp –r /Hadoop/tmp node2:/Hadoop/
  hdfs zkfc –formatZK
  start-dfs.sh

    5.  驗證HDFS HA
    通過瀏覽器查看node1與node2 namenode狀態(tài)
    ![](/upload/otherpic55/146158.jpg)
    ![](/upload/otherpic55/146160.jpg)

    hadoop-daemon.sh stop namenode

    ![](/upload/otherpic55/146161.jpg)

當前題目:HDFS高可用環(huán)境搭建
文章位置:http://www.aaarwkj.com/article48/gjighp.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站導航、網(wǎng)站設計網(wǎng)頁設計公司、小程序開發(fā)、企業(yè)網(wǎng)站制作、自適應網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

微信小程序開發(fā)
91日韩人妻一区二区三区| 亚洲成av人片青草影院| 中文字幕乱码一区二区欧美| 亚洲国际精品女人乱码| 乱色熟女一区二区三区| 亚洲一区二区三区日韩精品| 精品丝袜熟女一区二区三区| 日韩免费视频一区二区三区免费| 青青草原在线影视一区| 亚洲一区二区三区熟妇| 免费在线观看av日韩| 天堂网一区二区三区四区| 久久久国产精品免费看| 国产亚洲一区二区三区午夜| 久久国产亚洲欧美一区| 日本韩国亚洲欧美一区二区| 伊人久久综在合线亚洲| 久久久国产精品9999综合| 99久久中文字幕伊人| 99在线视频午夜福利| 亚洲国产香蕉视频在线播放| 日本精品动漫一区二区三区| 国产欧美日韩一区二区三区四区| 欧美黄片视频免费观看| 日本美女激情在线观看| 美女被强到爽高潮不断在线| 亚洲一区二区天堂av| 欧美熟女av在线观看| 亚洲欧美日韩在线第三页| 人人妻人人澡人人爽的视频 | 欧美国产精品中文字幕| 91中文在线观看一区| 日韩欧美亚洲一区二区三区| 国产美女被狂操到高潮| 人妻一区二区三区中文字幕| 四虎精品视频在线播放| 农村精品少妇久久久久久| 91亚洲国产成人久久| 国产传媒视频在线观看| 中文字幕一区二区三区不卡日日| 亚洲国产成人精品av在线|