大数据之hadoop深入学习

sujins 2020-05-03

一、简介

Hadoop是使用Java编写,允许分布在集群,使用简单的编程模型的计算机大型数据集处理的Apache的开源框架。

解决的问题:

(1)海量数据的存储 [HDFS]

(2)海量数据的分析 [MapReduce]

(3)资源管理调度 [YARN]

二、hadoop架构

在其核心,Hadoop主要有两个层次,即:

  • 加工/计算层(MapReduce)
  • 存储层(Hadoop分布式文件系统,HDFS)
大数据之hadoop深入学习
  MapReduce是一种并行编程模型,用于编写普通硬件的设计,谷歌对大量数据的高效处理(多TB数据集)的分布式应用在大型集群(数千个节点)以及可靠的容错方式。 MapReduce程序可在Apache的开源框架Hadoop上运行。
  Hadoop分布式文件系统(HDFS)是基于谷歌文件系统(GFS),并提供了一个设计在普通硬件上运行的分布式文件系统。

除了上面提到的两个核心组件,Hadoop的框架还包括以下两个模块:

  • Hadoop通用:这是Java库和其他Hadoop组件所需的实用工具。

  • Hadoop YARN :这是作业调度和集群资源管理的框架。

Hadoop运行整个计算机集群代码。这个过程包括以下核心任务由 Hadoop 执行:

  • 数据最初分为目录和文件。文件分为128M和64M(128M最好)统一大小块。
  • 然后这些文件被分布在不同的群集节点,以便进一步处理。
  • HDFS,本地文件系统的顶端﹑监管处理。
  • 块复制处理硬件故障。
  • 检查代码已成功执行。
  • 执行发生映射之间,减少阶段的排序。
  • 发送排序的数据到某一计算机。
  • 为每个作业编写的调试日志。
三、HDFS架构
大数据之hadoop深入学习

————————————————————————————————————————————

大数据之hadoop深入学习

 (1)名称节点 - Namenode

    它执行以下任务:

  • 管理文件系统命名空间。
  • 规范客户端对文件的访问。
  • 它也执行文件系统操作,如重命名,关闭和打开的文件和目录。
(2)数据节点 - Datanode
  它执行以下任务:
  • 根据客户的请求,使数据节点上的文件系统执行读写操作。
  • 还根据名称节点的指令执行操作,如块的创建,删除和复制。
(3)块
  在一个文件系统中的文件将被划分为一个或多个段和/或存储在个人数据的节点。这些文件段被称为块。换句话说,数据的HDFS可以读取或写入的最小量被称为一个块。缺省的块大小为64MB,但它可以增加按需要在HDFS配置来改变。
 大数据之hadoop深入学习
四、hadoop中hdfs操作常用命令

-ls

使用方法:hadoop  fs -ls [-h]  [-R]  <args>

功能:显示文件、目录信息。

-h优化文件大小显示

-R查出文件夹及其子文件的所有信息

-mkdir

使用方法:hadoop  fs -mkdir  [-p]  <paths>
功能:在 hdfs 上创建目录,-p 表示会创建路径中的各级父目录。

-put
使用方法:hadoop  fs -put  [-f] [-p]  [ -|<localsrc1>  .. ]. <dst>
功能:将单个 src 或多个 srcs 从本地文件系统复制到目标文件系统。
-p:保留访问和修改时间,所有权和权限。
-f:覆盖目的地(如果已经存在)
示例:hadoop fs -put  -f localfile1  localfile2  /user/hadoop/hadoopdir

-get
使用方法:hadoop fs -get [-ignorecrc] [-crc] [-p] [-f] <src> <localdst>
-ignorecrc:跳过对下载文件的 CRC 检查。
-crc:为下载的文件写 CRC 校验和。 功能:将文件复制到本地文件系统。
示例:hadoop fs -get  hdfs://host:port/user/hadoop/file localfile

-appendToFile
使用方法:hadoop  fs -appendToFile  <localsrc> ... <dst>
功能:追加一个文件到已经存在的文件末尾

注:hdfs不能进行修改,但是可以进行追加
示例:hadoop fs -appendToFile  localfile     /hadoop/hadoopfile

-cat
使用方法:hadoop  fs -cat  [-ignoreCrc]  URI [URI ...]
功能:显示文件内容到 stdout
示例:hadoop fs -cat    /hadoop/hadoopfile

-tail
使用方法:hadoop  fs -tail [-f] URI
功能:将文件的最后一千字节内容显示到 stdout。
-f 选项将在文件增长时输出附加数据。 示例:hadoop    fs    -tail     /hadoop/hadoopfile

-chgrp
使用方法:hadoop  fs -chgrp  [-R]  GROUP  URI [URI ...]
功能:更改文件组的关联。用户必须是文件的所有者,否则是超级用户。
-R 将使改变在目录结构下递归进行。
示例:hadoop fs -chgrp  othergroup  /hadoop/hadoopfile

-chmod
功能:改变文件的权限。使用-R 将使改变在目录结构下递归进行。 示例:hadoop    fs    -chmod    666    /hadoop/hadoopfile

-chown
功能:改变文件的拥有者。使用-R 将使改变在目录结构下递归进行。 示例:hadoop    fs    -chown    someuser:somegrp    /hadoop/hadoopfile

-copyFromLocal
使用方法:hadoop  fs -copyFromLocal  <localsrc> URI

功能:从本地文件系统中拷贝文件到 hdfs 路径去

示例:hadoop    fs    -copyFromLocal    /root/1.txt    /

-copyToLocal
功能:从 hdfs 拷贝到本地
示例:hadoop fs -copyToLocal  /aaa/jdk.tar.gz

-cp
功能:从 hdfs 的一个路径拷贝 hdfs 的另一个路径
示例:  hadoop    fs    -cp    /aaa/jdk.tar.gz    /bbb/jdk.tar.gz.2

-mv
功能:在 hdfs 目录中移动文件
示例:  hadoop    fs    -mv    /aaa/jdk.tar.gz    /

-getmerge
功能:合并下载多个文件
示例:比如 hdfs 的目录  /aaa/下有多个文件:log.1, log.2,log.3,... hadoop  fs -getmerge  /aaa/log.*     ./log.sum

-rm
功能:删除指定的文件。只删除非空目录和文件。-r  递归删除。 示例:hadoop fs -rm  -r /aaa/bbb/

-df
功能:统计文件系统的可用空间信息

示例:hadoop    fs     -df     -h    /

-du
功能:显示目录中所有文件大小,当只指定一个文件时,显示此文件的大小。

示例:hadoop fs -du  /user/hadoop/dir1

-setrep
功能:改变一个文件的副本系数。-R  选项用于递归改变目录下所有文件的副本 系数。

注:实际中这个功能不常用,副本大小会预先定义好。
示例:hadoop fs -setrep  -w  3 -R  /user/hadoop/dir1

 
 
 
 
 
 
 

相关推荐