本文及以后的文章将介绍记录hadoop和hive在大日志分析中的应用,文章只介绍重点和容易搞错的细节,其他细节可以到官网或google查询。
hadoop安装:
1,配置/etc/hosts中ip和nodename的对应关系
ssh无密码连接,ssh-keygen -t rsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
在master和salve上都生产authorized_keys合并成一个authorized_keys后分发到各个服务器的.ssh下,设置为当前用户可读执 行权限(755)
ssh nodename1各各服务器间测试通过,需要手动ssh一遍,第一次回提示(y/N),通过即可。
2,安装jdk1.6
下载hadoop-0.20.203.0,解压修改配置conf/core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoopdata/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://tmg200:9102</value>
</property>
配置hdfs-site.xml
<property>
<name>dfs.name.dir</name>
<value>/home/hadoopdata/hdfs</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoopdata/hdfsdata</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
配置mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>tmg200:9101</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>excludes</value>
</property>
配置masters,slaves加入namenode和datanode的nodename
配置hadoop-env.sh中添加
export HADOOP_HOME=/usr/local/hadoop-0.20.203.0
export PATH=$PATH:$HADOOP_HOME/bin
export JAVA_HOME=/usr/local/jdk1.6.0_25
export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}"
配置好后将其分发到各节点相同路径的目录下
3,启动停止hadoop及hdfs文件管理的命令
启动 bin/start-all.sh
停止bin/stop-all.sh
启动后可以通过以下两个页面查看节点状况和job状况
http://219.**.**.200:50070/dfshealth.jsp
http://219.**.**.200:50030/jobtracker.jsp
已可以通过在namenode上执行jps查看启动的进程
可以通过bin/hadoop dfs -lsr / 查看hdfs下所有文件和目录
bin/hadoop dfs -put conf/core-site.xml test.xml把core-site.xml放到hdfs上去
可以通过bin/hadoop dfs -mkdir testdir 可以创建文件夹等等和linux文件管理命令基本一致
hadoop安装中常见问题处理:
1, 启动hadoop
The processing instruction target matching "[xX][mM][lL]" is not allowed
处理
题主要是因为xml文件不能解析,.XML文件不正确,检查core-site.xml 中多出一空行, 把该行删除,保证<?xml version="1.0" encoding="UTF-8"?> 前无空格即可
2, bin/hadoop dfs -ls /
INFO ipc.Client: Retrying connect to server: /219.239.88.200:9000. Already tried 0 time(s).
处理:
找到core-site.xml中hadoop.tmp.dir 配置文件夹hadoopdata,执行chown -R tmg:tmg hadoopdata
重新bin/hadoop namenode -format,重启服务,不行在节点执行bin/hadoop datanode -format
3, bin/hadoop dfs -mkdir testdir
mkdir: org.apache.hadoop.security.AccessControlException: Permission denied: user=tmg, access=WRITE, inode="user":root:supergroup:rwxr-xr-x
处理:
root用户下执行 bin/hadoop dfs -chown -R tmg:tmg /
4, bin/hadoop dfs -put conf/core-site.xml testdir
WARN hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/tmg/testdir/core-site.xml could only be replicated to 0 nodes, instead of 1
处理:
把safemode置于off状态:hadoop dfsadmin -safemode leave
关闭防火墙包括datanode : /etc/init.d/iptables stop
删除tmp中有关hadoop以及jetty文件,重新格式化hadoop dfs
5 ,namenode ,datanode不能启动处理,data等配置中配置的文件存储位置保证目录下用户有写权限
bin/hadoop namenode -format
data节点上执行: bin/hadoop datanode -format,重启服务
分享到:
相关推荐
《Hadoop系统搭建及项目实践》课件08分布式数据仓库技术 Hive.pdf《Hadoop系统搭建及项目实践》课件08分布式数据仓库技术 Hive.pdf《Hadoop系统搭建及项目实践》课件08分布式数据仓库技术 Hive.pdf《Hadoop系统搭建...
Hadoop 分布式集群搭建 Hadoop由Apache基金会开发的分布式系统基础架构,是利用集群对大量数据进行分布式处理和存储的软件框架。用户可以轻松地在Hadoop集群上开发和运行处理海量数据的应用程序。Hadoop有高可靠,...
hadoop+hive+hbase在线装,超级简单
包括《Hadoop集群监控与Hive高可用-向磊》,hadoop的三本圣经《Hadoop权威指南(第2版)》,《Hadoop实战》和《Hadoop源码分析完整版》。
#资源达人分享计划#
本系统主要设计完成两件工作,一是搭建分布式的hadoop的集群环境,二是基于分布式的集群环境做日志分析。详细介绍参考:https://blog.csdn.net/newlw/article/details/127332767
hadoop;hive;json数据分析;网页日志处理;阿里云上搭建hadoop分布式平台
2.Zookeeper——Zookeeper单机和分布式安装 3.Zookeeper——Zookeeper客户端命令 4.Zookeeper——Zookeeper内部原理 5.Zookeeper——Zookeeper实战 三、Hive 1.Hive——Hive概述 2.Hive——Hive...
伪分布式的Hadoop+Hive+HBase搭建记录[收集].pdf
工作中搭建的hadoop分布式文件系统和hive ,mysql等的搭建的具体步骤
在LINUX虚拟机中搭建 HADOOP+HIVE大数据平台,完善伪分布搭建手册 。Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速...
Hive笔记以及大数据hadoop配置环境
Hadoop集群搭建及Hive的安装与使用
Hadoop+HBase+Hive+lucene分布式搜索引擎分析系统
Hadoop由Apache基金会开发的分布式系统基础架构,是利用集群对大量数据进行分布式处理和存储的软件框架。用户可以轻松地在Hadoop集群上开发和运行处理海量数据的应用程序。Hadoop有高可靠,高扩展,高效性,高容错等...
集群搭建:里面包括hadoop hive hbase spark mongo 等组建
自己整理的Hadoop环境的一些安装,和一些简单的使用,其中包括Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume。都是一些简单的安装步骤和使用,只在自己的虚拟机(Linux centOS7)上使用测试过。按照步骤一步...
包括Hadoop、Hive、Spark、Storm、Flink、HBase、Kafka、Zookeeper、Flume、Sqoop等技术的学习 Hadoop 分布式文件存储系统 —— HDFS 分布式计算框架 —— MapReduce 集群资源管理器 —— YARN Hadoop 单机伪集群...
hive=3.1.2 scala=2.11.12 spark=2.4.0 sbt=1.3.8 flink=1.9.1 maven=3.6.3 建议配合主机的IntelliJ-IDEA的Bigdata拓展工具以及SSH服务进行远程操控使用。 3.本机密码都是“hadoop”。 4.mysql5.7用户名为"root",...
Hadoop简单应用案例,包括MapReduce、单词统计、HDFS基本操作、web日志分析、Zookeeper基本使用、Hive简单操作等