• <noscript id="e0iig"><kbd id="e0iig"></kbd></noscript>
  • <td id="e0iig"></td>
  • <option id="e0iig"></option>
  • <noscript id="e0iig"><source id="e0iig"></source></noscript>
  • 大數據學習之--hadoop2.7.3環境搭建

    前言

    最近在搞一些大數據方面產品的開發工作,運用的都是公司已經搭建好的大數據計算相關環境:比如 hive、hbase、storm等。要想更深入的了解這些計算框架,準備自己搭建一套大數據計算開發環境。

     

    目前的大數據計算相關體系,基本都是建立在hadoop基礎上,比如hive、hbase、spark、flume等。所以準備先自己搭建一套hadoop環境。以下是我的搭建流程,以及遇到的問題等。

     

    前期準備

    1、hadoop2.7.3 下載地址 http://hadoop.apache.org/releases.html


     

    2.jdk 1.8 linux 版 下載地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

     

    3、VMware 虛擬機下載、以及centos 7鏡像下載

     

    安裝步驟

    我是一臺筆記本,win7操作系統,內存是8G。準備安裝好vmware中虛擬出三臺機器,部署1個master、2個slaves的hadoop環境:

    1、首先安裝好vmware虛擬機,并在虛擬機中安裝好centos。注意虛擬機內存一定要設置為2G以上,否則執行MapReduce任務會卡住。

    2、在centos中進行jdk1.8安裝,參考http://www.cnblogs.com/shihaiming/p/5809553.html

    3、通過vmware的clone功能,克隆出另外兩臺虛擬機

         參考:http://jingyan.baidu.com/article/6b97984d9798f11ca2b0bfcd.html

         我的創建結果如下:

          

     準備用 CentOS1 作為master,這三臺機器的ip分別為:192.168.26.129、192.168.26.130、192.168.26.131

     

    4、安裝 hadoop,參考http://www.cnblogs.com/lavezhang/p/5237042.html

    特別說明下,他這里安裝配置文件(hdfs-site.xml、slaves等幾個配置文件)里都是用的ip,需要在三臺機器上配置host(ip換成自己的):

    192.168.26.129 hadoop1

    192.168.26.130 hadoop2

     

    192.168.26.131 hadoop3

    否則會出現異常:

     

    2017-01-24 04:25:33,929 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool BP-7673552-127.0.0.1-1485202915222 (Datanode Uuid null) service to /192.168.26.128:9000 Datanode denied communication with namenode because hostname cannot be resolved (ip=192.168.26.129, hostname=192.168.26.129): DatanodeRegistration(0.0.0.0:50010, datanodeUuid=170341fa-ef80-4279-a4a3-dca3663b89b7, infoPort=50075, infoSecurePort=0, ipcPort=50020, storageInfo=lv=-56;cid=CID-9bcf1a8a-449a-4238-9c5c-b2bb0eadd947;nsid=506479924;c=0)
            at org.apache.hadoop.hdfs.server.blockmanagement.DatanodeManager.registerDatanode(DatanodeManager.java:873)
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:4529)
            at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.registerDatanode(NameNodeRpcServer.java:1286)
            at org.apache.hadoop.hdfs.protocolPB.DatanodeProtocolServerSideTranslatorPB.registerDatanode(DatanodeProtocolServerSideTranslatorPB.java:96)
            at org.apache.hadoop.hdfs.protocol.proto.DatanodeProtocolProtos$DatanodeProtocolService$2.callBlockingMethod(DatanodeProtocolProtos.java:28752)
            at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)
            at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:982)
            at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2049)
            at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2045)
            at java.security.AccessController.doPrivileged(Native Method)
            at javax.security.auth.Subject.doAs(Subject.java:422)
            at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1698)
            at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2043)
    

     最好 把配置文件(hdfs-site.xml、slaves等幾個配置文件)中ip全部替換成 hostname(我的是hadoop1、hadoop2、hadoop3)。

     

     

    啟動hadoop:

    bin/hadoop namenode -format
    sbin/start-hdfs.sh
    sbin/start-yarn.sh 

    執行jps查看是否啟動成功

     

     

    5.傳入一個本地文件,測試下

    bin/hadoop fs -mkdir /test
    bin/hadoop fs -copyFormLocal README.txt /test
    bin/hadoop fs -cat /test/README.txt
    

     如果線上出 README.txt中的文件內容,說明成功了。

     

    如果執行:bin/hadoop fs -copyFormLocal README.txt /test,報如下錯誤:

    2017-01-24 01:48:58,282 INFO org.apache.hadoop.ipc.Server: IPC Server handler 5 on 9000, call org.apache.hadoop.hdfs.protocol.ClientProtocol.addBlock from 192.168.26.128:32964 Call#5 Retry#0
    java.io.IOException: File /test/README.txt._COPYING_ could only be replicated to 0 nodes instead of minReplication (=1).  There are 0 datanode(s) running and no node(s) are excluded in this operation.
            at org.apache.hadoop.hdfs.server.blockmanagement.BlockManager.chooseTarget4NewBlock(BlockManager.java:1571)
            at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getNewBlockTargets(FSNamesystem.java:3107)
            at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:3031)
            at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.addBlock(NameNodeRpcServer.java:725)
            at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.addBlock(ClientNamenodeProtocolServerSideTranslatorPB.java:492)
            at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
            at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)
            at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:982)
            at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2049)
            at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2045)
            at java.security.AccessController.doPrivileged(Native Method)
            at javax.security.auth.Subject.doAs(Subject.java:422)
            at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1698)
            at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2043)
    

     

    說明啟動失敗了,檢查下hadoop的日志,根據日志分析下是哪個配置錯了。主要檢查幾個配置文件,已經host設置。

     

    ok,本機hadoop已經跑起來啦,接下來準備用idea搭建一個win的開發環境,運行mapreduc程序。

     

    <!--[if !supportLists]-->

     

    版權聲明:本文為iteye_6222原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接和本聲明。
    本文鏈接:https://blog.csdn.net/iteye_6222/article/details/82678565

    智能推薦

    hadoop2.7.3分布式集群搭建

    本文介紹搭建hadoop分布式集群環境,機器:master(centos7.2 64 1臺),slave1(centos7.2 64 1臺) 先在master上面配置。 (1)修改hosts文件 把host原來的內容改成(見文章結尾的說明): master寫入: slave1寫入: (2)安裝SSH,并讓master無密登錄服務器和slave1服務器,2臺機器的管理員密碼最好一樣,避免麻煩。 ma...

    CentOS7.0下Hadoop2.7.3的集群搭建

    CentOS7.0下Hadoop2.7.3的集群搭建 1.基本環境 1.1.操作系統 CentOS7.0 1.2.四臺虛擬機 192.168.56.216 apollo.hadoop.com 192.168.56.217 artemis.hadoop.com 192.168.56.218 uranus.hadoop.com 192.168.56.219 ares.hadoop.com 1.3.軟件...

    Hadoop2.6.1環境搭建

    Hadoop2.6.1環境搭建 環境及版本 刪除機器自帶的JAVA環境 三臺機器均需關閉防火墻 獲取hadoop、JAVA 設置環境變量 配置ssh免密登入 hadoop配置文件修改 將hadoop分發給slave1,slave2 啟動集群 環境及版本 CentOS7 JAVA8 Hadoop2.6.1 集群環境 master: 192.168.27.130 slave1: 192.168.27....

    HTML中常用操作關于:頁面跳轉,空格

    1.頁面跳轉 2.空格的代替符...

    freemarker + ItextRender 根據模板生成PDF文件

    1. 制作模板 2. 獲取模板,并將所獲取的數據加載生成html文件 2. 生成PDF文件 其中由兩個地方需要注意,都是關于獲取文件路徑的問題,由于項目部署的時候是打包成jar包形式,所以在開發過程中時直接安照傳統的獲取方法沒有一點文件,但是當打包后部署,總是出錯。于是參考網上文章,先將文件讀出來到項目的臨時目錄下,然后再按正常方式加載該臨時文件; 還有一個問題至今沒有解決,就是關于生成PDF文件...

    猜你喜歡

    電腦空間不夠了?教你一個小秒招快速清理 Docker 占用的磁盤空間!

    Docker 很占用空間,每當我們運行容器、拉取鏡像、部署應用、構建自己的鏡像時,我們的磁盤空間會被大量占用。 如果你也被這個問題所困擾,咱們就一起看一下 Docker 是如何使用磁盤空間的,以及如何回收。 docker 占用的空間可以通過下面的命令查看: TYPE 列出了docker 使用磁盤的 4 種類型: Images:所有鏡像占用的空間,包括拉取下來的鏡像,和本地構建的。 Con...

    requests實現全自動PPT模板

    http://www.1ppt.com/moban/ 可以免費的下載PPT模板,當然如果要人工一個個下,還是挺麻煩的,我們可以利用requests輕松下載 訪問這個主頁,我們可以看到下面的樣式 點每一個PPT模板的圖片,我們可以進入到詳細的信息頁面,翻到下面,我們可以看到對應的下載地址 點擊這個下載的按鈕,我們便可以下載對應的PPT壓縮包 那我們就開始做吧 首先,查看網頁的源代碼,我們可以看到每一...

    Linux C系統編程-線程互斥鎖(四)

    互斥鎖 互斥鎖也是屬于線程之間處理同步互斥方式,有上鎖/解鎖兩種狀態。 互斥鎖函數接口 1)初始化互斥鎖 pthread_mutex_init() man 3 pthread_mutex_init (找不到的情況下首先 sudo apt-get install glibc-doc sudo apt-get install manpages-posix-dev) 動態初始化 int pthread_...

    統計學習方法 - 樸素貝葉斯

    引入問題:一機器在良好狀態生產合格產品幾率是 90%,在故障狀態生產合格產品幾率是 30%,機器良好的概率是 75%。若一日第一件產品是合格品,那么此日機器良好的概率是多少。 貝葉斯模型 生成模型與判別模型 判別模型,即要判斷這個東西到底是哪一類,也就是要求y,那就用給定的x去預測。 生成模型,是要生成一個模型,那就是誰根據什么生成了模型,誰就是類別y,根據的內容就是x 以上述例子,判斷一個生產出...

    精品国产乱码久久久久久蜜桃不卡