您好,欢迎访问三七文档
当前位置:首页 > 临时分类 > Hadoop大数据平台运维工程师须掌握的基本命令
Hadoop大数据平台运维工程师须掌握的基本命令1、列出所有HadoopShell支持的命令$bin/hadoopfs-help2、显示关于某个命令的详细信息$bin/hadoopfs-helpcommand-name3、用户可使用以下命令在指定路径下查看历史日志汇总$bin/hadoopjob-historyoutput-dir#这条命令会显示作业的细节信息,失败和终止的任务细节。4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看$bin/hadoopjob-historyalloutput-dir5、格式化一个新的分布式文件系统:$bin/hadoopnamenode-format6、在分配的NameNode上,运行下面的命令启动HDFS:$bin/start-dfs.sh#脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。7、在分配的JobTracker上,运行下面的命令启动Map/Reduce:$bin/start-mapred.sh#脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。8、在分配的NameNode上,执行下面的命令停止HDFS:$bin/stop-dfs.sh#脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。9、在分配的JobTracker上,运行下面的命令停止Map/Reduce:$bin/stop-mapred.sh#脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。10、创建一个名为/foodir的目录$bin/hadoopdfs-mkdir/foodir11、创建一个名为/foodir的目录$bin/hadoopdfs-mkdir/foodir12、查看名为/foodir/myfile.txt的文件内容$bin/hadoopdfs-cat/foodir/myfile.txt13、将集群置于安全模式$bin/hadoopdfsadmin-safemodeenter14、显示Datanode列表$bin/hadoopdfsadmin-report15、使Datanode节点datanodename退役$bin/hadoopdfsadmin-decommissiondatanodename16、bin/hadoopdfsadmin-help命令能列出所有当前支持的命令。比如:*-report:报告HDFS的基本统计信息。有些信息也可以在NameNodeWeb服务首页看到。*-safemode:虽然通常并不需要,但是管理员的确可以手动让NameNode进入或离开安全模式。*-finalizeUpgrade:删除上一次升级时制作的集群备份。17、显式地将HDFS置于安全模式$bin/hadoopdfsadmin-safemode18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件$bin/hadoopdfsadmin-finalizeUpgrade19、能够知道是否需要对一个集群执行升级终结操作。$dfsadmin-upgradeProgressstatus20、使用-upgrade选项运行新的版本$bin/start-dfs.sh-upgrade21、如果需要退回到老版本,就必须停止集群并且部署老版本的Hadoop,用回滚选项启动集群$bin/start-dfs.h-rollback22、下面的新命令或新选项是用于支持配额,前两个是管理员命令。*dfsadmin-setquota...把每个目录配额设为N。这个命令会在每个目录上尝试,如果N不是一个正的长整型数,目录不存在或是文件名或者目录超过配额则会产生错误报告。*dfsadmin-clrquota...为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。*fs-count-q...使用-q选项,会报告每个目录设置的配额以及剩余配额。如果目录没有设置配额,会报告none和inf。23、创建一个hadoop档案文件$hadooparchive-archiveNameNAME*#-archiveNameNAME要创建的档案的名字。#src文件系统的路径名,和通常含正则表达的一样。#dest保存档案文件的目标目录。24、递归地拷贝文件或目录$hadoopdistcpsrcurl源uridesturl目标uri25、运行HDFS文件系统检查工具(fscktools)用法:hadoopfsck[GENERIC_OPTIONS][-move|-delete|-openforwrite][-files[-blocks[-locations|-racks]]]命令选项描述----------------------检查的起始目录。-move移动受损文件到/lost+found-delete删除受损文件。-openforwrite打印出写打开的文件。-files打印出正被检查的文件。-blocks打印出块信息报告。-locations打印出每个块的位置信息。-racks打印出data-node的网络拓扑结构。26、用于和MapReduce作业交互和命令(jar)用法:hadoopjob[GENERIC_OPTIONS][-submit]|[-status]|[-counter]|[-kill]|[-events#-of-events]|[-history[all]]|[-list[all]]|[-kill-task]|[-fail-task]命令选项描述-------------------submit提交作业-status打印map和reduce完成百分比和所有计数器-counter打印计数器的值-kill杀死指定作业-events#-of-events打印给定范围内jobtracker接收到的事件细节-history[all]-history打印作业的细节、失败及被杀死原因的细节-list[all]-listall显示所有作业-list只显示将要完成的作业-kill-task杀死任务被杀死的任务不会不利于失败尝试-fail-task使任务失败被失败的任务会对失败尝试不利27、运行pipes作业用法:hadooppipes[-conf][-jobconf,,...][-input][-output][-jar][-inputformat][-map][-partitioner][-reduce][-writer][-program][-reduces]命令选项描述-------------------conf作业的配置-jobconf,,...增加/覆盖作业的配置项-input输入目录-output输出目录-jarJar文件名-inputformatInputFormat类-mapJavaMap类-partitionerJavaPartitioner-reduceJavaReduce类-writerJavaRecordWriter-program可执行程序的URI-reducesreduce个数28、打印版本信息。用法:hadoopversion29、hadoop脚本可用于调调用任何类。用法:hadoopCLASSNAME#运行名字为CLASSNAME的类。30、运行集群平衡工具管理员可以简单的按Ctrl-C来停止平衡过程(balancer)用法:hadoopbalancer[-threshold]命令选项描述-------------------threshold磁盘容量的百分比。这会覆盖缺省的阀值。31、获取或设置每个守护进程的日志级别(daemonlog)。用法:hadoopdaemonlog-getlevel用法:hadoopdaemonlog-setlevel命令选项描述-------------------getlevel打印运行在的守护进程的日志级别-setlevel设置运行在的守护进程的日志级别32、运行一个HDFS的datanode。用法:hadoopdatanode[-rollback]命令选项描述-------------------rollback将datanode回滚到前一个版本。这需要在停止datanode,分发老的hadoop版本之后使用。33、运行一个HDFS的dfsadmin客户端用法:hadoopdfsadmin[GENERIC_OPTIONS][-report][-safemodeenter|leave|get|wait][-refreshNodes][-finalizeUpgrade][-upgradeProgressstatus|details|force][-metasavefilename][-setQuota...][-clrQuota...][-help[cmd]]34、运行MapReducejobTracker节点(jobtracker)。用法:hadoopjobtracker35、运行namenode。有关升级,回滚,升级终结的更多信息请参考官方升级和回滚的文档信息用法:hadoopnamenode[-format]|[-upgrade]|[-rollback]|[-finalize]|[-importCheckpoint]命令选项描述------------------------------------------------------------------------------------------------------------------------------format格式化namenode。它启动namenode,格式化namenode,之后关闭namenode-upgrade分发新版本的hadoop后,namenode应以upgrade选项启动-rollback将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版本后使用-finalizefinalize会删除文件系统的前一状态。最近的升级会被持久化,rollback选项将再不可用,升级终结操作之后会停掉namenode-importCheckpoint从检查点目录装载镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定36、运行HDFS的secondarynamenode。用法:hadoopsecondarynamenode[-checkpoint[force]]|[-geteditsize]-----------------命令选项描述-checkpoint[force]如果EditLog的大小=fs.checkpoint.size启动Secondarynamenode的检查点过程。若使用了-force将不考虑EditLog的大小-geteditsize打印EditLog大小。37、运行MapReduce的taskTracker节点。用法:hadooptasktracker38、显式地将HDFS置于安全模式$bin/hadoopdfsadmin-safemode39、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件$bin/hadoopdfsadmin-finalizeUpgrade40、能够知道是否需要对一个集群执行升级终结操作。$dfsadmin-upgradeProgressstatus41、使用-upgrade选项运行新的版本$bin/start-dfs.sh-upgrade42、如果需要退回到老版本,就必须停止
本文标题:Hadoop大数据平台运维工程师须掌握的基本命令
链接地址:https://www.777doc.com/doc-6244094 .html