京公网安备 11010802034615号
经营许可证编号:京B2-20210330
上篇文章中我们通过克隆已有虚拟机并修改相应的参数配置将hadoop分布式集群搭建完成,接下来我们启动Hadoop分布式集群。
1、ssh免密登录
首先打开虚拟机软件VMware然后开启master、slave1、slave2三个虚拟机。
一般搭建hadoop分布式集群时需要配置集群中各个节点间的ssh免密登录,然后才可以启动hadoop分布式集群。我们在master虚拟机终端中输入命令ssh slave1 , 此时出现如下提示,然后输入yes
注意输入exit命令退出slave2的登录。接下来我们就可以远程登录到slave2了。在登录的过程中我们也无需输入密码。小伙伴们会不会有疑问,我们什么时候配置过ssh免密登录?
其实我们还真的配置了,由于现在集群中的三个虚拟机最终的源头都是由伪分布集群的虚拟机复制过来的,在这过程中也把.ssh目录下的authorized_keys这个文件复制过来了。
这个文件的作用之前提前过,简单来说就是认证登录ssh服务器的客户机,只要客户机的公钥在这里面就可以不用密码登录ssh服务器了。下图为slave1节点hduser用户主目录下的.ssh目录大家可以看到authorized_keys目录已经存在了。
2、格式化HDFS
由于我们集群中的虚拟机都是由伪分布集群虚拟机克隆出来的所以会有HDFS相关的目录,而且目录中还有数据,为了不影响格式化操作我们需要将这些目录中的数据都删除,然后再执行格式化。
输入命令rm -rf tmp/dfs/ 删除dfs目录
首先通过ssh slave1登录slave1然后执行rm -rf tmp/dfs/删除slave1 中的dfs目录。记得exit退出slave1的登录。
删除方式与删除slave1虚拟机HDFS目录的方式一致,这里不再赘述,具体操作可参照下图。一定记得最后执行exit退出slave2的登录,否则极易造成误操作。
2.4格式化HDFS
在删除各个节点HDFS文件后我们开始格式化HDFS。在master终端输入命令 hadoop namenode –format然后回车执行。执行完成后会看到下图标注的那句话,表明格式化成功。
3、启动hadoop
格式化HDFS结束之后我们就可以启动hadoop分布式集群了。启动可以可以分步执行当然hadoop也给我们提供了更简单的脚本通过一个命令自动启动所有模块。这里需要指出的是不管分步执行启动过程还是通过脚本自动启动,模块的启动顺序都是一致的即先启动HDFS模块然后再启动YARN模块,停止的过程则是先停止YARN模块再停HDFS模块。下面我们来分别操作演示一下。
3.1启动HDFS进程
启动HDFS模块使用命令start-dfs.sh,启动过程如下图所示。需要注意的是我们启动或者停止的命令都是只需在master节点终端中操作即可,底层hadoop会自动启动其他节点的相关进程。启动完成后可以通过jps命令查看启动了哪些进程,这在下图也有展示。我们可以看到HDFS模块在master上有NameNode与
SecondaryNameNode进程。
HDFS模块在slave1节点启动进程DataNode
HDFS模块在slave2节点启动进程也是DataNode。
3.2启动YARN进程
启动YARN模块的命令为start-yarn.sh,启动过程如下图所示
master节点启动的进程如下图所示,比启动HDFS时多了ResourceManager进程。
在slave1与slave2节点上多了NodeManager进程
3.2全部启动(包括YARN、HDFS)
hadoop还提供了一个可以自动启动HDFS与YARN的脚本命令start-all.sh和停止HDFS与YARN的命令stop-all.sh。在使用start-all.sh命令前我们需要先停止所有进程否则会报错。在终端输入命令stop-all.sh停止所有进程过程如下图所示。此时通过jps命令查看master所有hadoop相关进程已经关闭
查看slave1 slave2节点同样的是hadoop进程消失,说明命令执行成功。
下面演示同时启动HDFS 、YARN,命令行执行命令start-all.sh,并使用jps查看进程,如下面三张图所示,启动成功。
小伙伴们今天的内容到这里就结束了,你Get到了没。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在机器学习实践中,“超小数据集”(通常指样本量从几十到几百,远小于模型参数规模)是绕不开的场景——医疗领域的罕见病数据、 ...
2025-12-17数据仓库作为企业决策分析的“数据中枢”,其价值完全依赖于数据质量——若输入的是缺失、重复、不一致的“脏数据”,后续的建模 ...
2025-12-17在CDA(Certified Data Analyst)数据分析师的日常工作中,“随时间变化的数据”无处不在——零售企业的每日销售额、互联网平台 ...
2025-12-17在休闲游戏的运营体系中,次日留存率是当之无愧的“生死线”——它不仅是衡量产品核心吸引力的首个关键指标,更直接决定了后续LT ...
2025-12-16在数字化转型浪潮中,“以用户为中心”已成为企业的核心经营理念,而用户画像则是企业洞察用户、精准决策的“核心工具”。然而, ...
2025-12-16在零售行业从“流量争夺”转向“价值深耕”的演进中,塔吉特百货(Target)以两场标志性实践树立了行业标杆——2000年后的孕妇精 ...
2025-12-15在统计学领域,二项分布与卡方检验是两个高频出现的概念,二者都常用于处理离散数据,因此常被初学者混淆。但本质上,二项分布是 ...
2025-12-15在CDA(Certified Data Analyst)数据分析师的工作链路中,“标签加工”是连接原始数据与业务应用的关键环节。企业积累的用户行 ...
2025-12-15在Python开发中,HTTP请求是与外部服务交互的核心场景——调用第三方API、对接微服务、爬取数据等都离不开它。虽然requests库已 ...
2025-12-12在数据驱动决策中,“数据波动大不大”是高频问题——零售店长关心日销售额是否稳定,工厂管理者关注产品尺寸偏差是否可控,基金 ...
2025-12-12在CDA(Certified Data Analyst)数据分析师的能力矩阵中,数据查询语言(SQL)是贯穿工作全流程的“核心工具”。无论是从数据库 ...
2025-12-12很多小伙伴都在问CDA考试的问题,以下是结合 2025 年最新政策与行业动态更新的 CDA 数据分析师认证考试 Q&A,覆盖考试内容、报考 ...
2025-12-11在Excel数据可视化中,柱形图因直观展示数据差异的优势被广泛使用,而背景色设置绝非简单的“换颜色”——合理的背景色能突出核 ...
2025-12-11在科研实验、商业分析或医学研究中,我们常需要判断“两组数据的差异是真实存在,还是偶然波动”——比如“新降压药的效果是否优 ...
2025-12-11在CDA(Certified Data Analyst)数据分析师的工作体系中,数据库就像“数据仓库的核心骨架”——所有业务数据的存储、组织与提 ...
2025-12-11在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04