当前位置: 首页 > news >正文

哪个网站可以做室内设计百度快照投诉中心人工电话

哪个网站可以做室内设计,百度快照投诉中心人工电话,怎么建立一个博客网站,成立公司的条件目录 1 SSH免密登录 1.1 修改主机名称 1.2 修改hosts文件 1.3 创建hadoop用户 1.4 生成密钥对免密登录 2 搭建hadoop环境与jdk环境 2.1 将下载好的压缩包进行解压 2.2 编写hadoop环境变量脚本文件 2.3 修改hadoop配置文件#xff0c;指定jdk路径 2.4 查看环境是否搭建完成 3 …目录 1 SSH免密登录 1.1 修改主机名称 1.2 修改hosts文件 1.3 创建hadoop用户 1.4 生成密钥对免密登录 2 搭建hadoop环境与jdk环境 2.1 将下载好的压缩包进行解压 2.2 编写hadoop环境变量脚本文件 2.3 修改hadoop配置文件指定jdk路径 2.4 查看环境是否搭建完成 3 hadoop的启动 3.1 Hadoop 启动需要修改的配置文件 3.2 配置文件的修改 1、core-site.xml 2、hdfs-site.xml 3、mapred-site.xml 4、yarn-site.xml 3.3 启动hadoop与权限修改 3.4 再次启动hadoop Rocky Linux 9.4 CentOS同样适用 hadoop版本 3.3.6 java jdk1.8 1 SSH免密登录 1.1 修改主机名称 [rootlocalhost ~]# hostnamectl set-hostname hadoop 退出重新登录 [rootlocalhost ~]# exit 1.2 修改hosts文件 [roothadoop ~]# vim /etc/hosts 1.3 创建hadoop用户 [roothadoop ~] useradd -m hadoop -s /bin/bash [roothadoop ~] ls /home/ hadoop rocky # 设置用户密码 [roothadoop ~] passwd hadoop 更改用户 hadoop 的密码 。 新的密码 重新输入新的密码 passwd所有的身份验证令牌已经成功更新。 [roothadoop ~] ssh hadoophadoop hadoophadoops password: Last failed login: Sat Jun 29 15:08:33 CST 2024 from 192.168.239.131 on ssh:notty There were 2 failed login attempts since the last successful login. [hadoophadoop ~]$ exit 注销1.4 生成密钥对免密登录 使用su - hadoop 登录hadoop 账户 [roothadoop /]# su - hadoop# 创建秘钥对为免密登录做准备 [hadoophadoop ~]$ ssh-keygen -t rsa -b 4096 Generating public/private rsa key pair. Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/hadoop/.ssh/id_rsa Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub The key fingerprint is: SHA256:NVZ2Ur09zHUadG9KMNkwOnh1wodT3SUpR9ae6xMwo hadoophadoop1 The keys randomart image is: ---[RSA 4096]---- | ..o o.oX| | * ooO| | o X * B| | * B *oB| | S o .o.| | . o o.| | E | | . . | | ...| ----[SHA256]-----[hadoophadoop ~]$ ssh-copy-id roothadoop /usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: /home/hadoop/.ssh/id_rsa.pub /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys roothadoop1s password: Number of key(s) added: 1Now try logging into the machine, with: ssh roothadoop1 and check to make sure that only the key(s) you wanted were added.# 给本机免密登录 [hadoophadoop1 ~]$ ssh-copy-id hadoop /usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: /home/hadoop/.ssh/id_rsa.pub /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys hadoophadoop1s password: Number of key(s) added: 1Now try logging into the machine, with: ssh hadoop1 and check to make sure that only the key(s) you wanted were added.# 测试免密登录是否成功 [hadoophadoop1 ~]$ ssh hadoop1 Last login: Sat Jun 29 15:32:19 2024 from fe80::20c:29ff:fe33:d160%ens160 [hadoophadoop1 ~]$ exit 注销命令行输入 ssh hadoop 不需要密码即成功 2 搭建hadoop环境与jdk环境 2.1 将下载好的压缩包进行解压 解压路径为 hadoop  :  /opt/hadoop jdk        :  /opt/jdk  [roothadoop ~] ls hadoop-3.3.6.tar.gz jdk-8u162-linux-x64.tar.gz 公共 模板 视频 图片 文档 下载 音乐 桌面 anaconda-ks.cfg test[roothadoop ~] mkdir -p /opt/jdk [roothadoop ~] mkdir -p /opt/hadoop [roothadoop ~] tar -xzf jdk-8u162-linux-x64.tar.gz -C /opt/jdk [roothadoop ~] tar -xzf hadoop-3.3.6.tar.gz -C /opt/hadoop [roothadoop ~] cd /opt [roothadoop opt] ls hadoop jdk rh soft2.2 编写hadoop环境变量脚本文件 添加路径到path环境变量中 [hadoophadoop ~]$ exit [roothadoop ~] # vim /etc/profile.d/hadoop-eco.sh 创建脚本文件加入以下环境变量路径 JAVA_HOME/opt/jdk PATH$JAVA_HOME/bin:$PATHHADOOP_HOME/opt/hadoop PATH$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH# HADOOP_USER export HDFS_NAMENODE_USERhadoop export HDFS_DATANODE_USERhadoop export HDFS_SECONDARYNAMENODE_USERhadoop export YARN_RESOURCEMANAGER_USERhadoop export YARN_NODEMANAGER_USERhadoop export HDFS_JOURNALNODE_USERhadoop export HDFS_ZKFC_USERhadoopHDFS_NAMENODE_USERhadoop指定HDFS NameNode服务的运行用户。NameNode负责管理文件系统的命名空间包括文件和目录的元数据。 HDFS_DATANODE_USERhadoop指定HDFS DataNode服务的运行用户。DataNodes存储实际的数据块是HDFS数据存储的主要组成部分。 HDFS_SECONDARYNAMENODE_USERhadoop指定HDFS Secondary NameNode服务的运行用户。Secondary NameNode并不存储集群的实时状态但它定期合并NameNode的fsimage和editlogs文件减少NameNode的启动时间。 YARN_RESOURCEMANAGER_USERhadoop指定YARN ResourceManager服务的运行用户。ResourceManager是YARN中的主控服务负责集群资源的分配和管理工作。 YARN_NODEMANAGER_USERhadoop指定YARN NodeManager服务的运行用户。NodeManagers运行在每个集群节点上负责容器的生命周期管理。 HDFS_JOURNALNODE_USERhadoop指定HDFS JournalNode服务的运行用户。JournalNodes用于在HAHigh Availability配置中存储NameNode状态的编辑日志以保证数据的一致性。 HDFS_ZKFC_USERhadoop指定ZooKeeper Failover ControllerZKFC的运行用户。ZKFC用于监控NameNode的状态并在检测到故障时触发failover切换到备用NameNode。 通过设置这些环境变量你确保了Hadoop的各个服务将以hadoop用户的身份运行而不是以root或其他用户运行。这不仅增强了系统的安全性还便于管理和审计。在Hadoop的启动脚本中这些变量会被读取并应用到相应的服务启动过程中 2.3 修改hadoop配置文件指定jdk路径 [roothadoop ~]# vim /opt/hadoop/etc/hadoop/hadoop-env.sh  这个变量指定了 Java 的安装位置。Hadoop 依赖于 Java 运行因此必须正确设置此变量指向你的 Java 安装目录。 增加以下行注意此路径为java环境变量的路径 运行修改后的脚本 [roothadoop ~] source /opt/hadoop/etc/hadoop/hadoop-env.sh 2.4 查看环境是否搭建完成 输入hadoop version 和 java -version 查询版本号检查环境是否配好 [roothadoop ~] hadoop version Hadoop 3.3.6 Source code repository https://github.com/apache/hadoop.git -r 1be78238728da9266a4f88195058f08fd012bf9c Compiled by ubuntu on 2023-06-18T08:22Z Compiled on platform linux-x86_64 Compiled with protoc 3.7.1 From source with checksum 5652179ad55f76cb287d9c633bb53bbd This command was run using /opt/hadoop/share/hadoop/common/hadoop-common-3.3.6.jar[roothadoop ~] java -version java version 1.8.0_162 Java(TM) SE Runtime Environment (build 1.8.0_162-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.162-b12, mixed mode)3 hadoop的启动 3.1 Hadoop 启动需要修改的配置文件 1、core-site.xml         fs.defaultFS         hadoop.tmp.dir 2、hdfs-site.xml         dfs.replication 1         dfs.namenode.name.dir         dfs.datanode.data.dir 3、mapred-site.xml         mapreduce.framework.name yarn 4、yarn-site.xml         yarn.resourcemanager.hostname localhost         yarn.nodemanager.aux-services mapreduce_shuffle 3.2 配置文件的修改 1、core-site.xml [roothadoop hadoop] vim /opt/hadoop/etc/hadoop/core-site.xml 在configuration块中添加以下信息 propertynamefs.defaultFS/namevaluehdfs://localhost:9000/value /property propertynamehadoop.tmp.dir/namevaluefile:///opt/hadoop-record/tep/value /propertyconfiguration 这是Hadoop配置文件的根标签用于包含所有的配置属性。 property 这个标签用于定义一个具体的配置项包括名称name和值value两部分。 namefs.defaultFS/name 这个配置项指定了Hadoop的默认文件系统。在你的例子中hdfs://localhost:9000表示Hadoop将使用运行在本地主机上的Hadoop分布式文件系统HDFS端口号为9000。 namehadoop.tmp.dir/name 这个配置项定义了Hadoop存放临时文件的目录。这里设置为file:///opt/hadoop-record/tep意味着所有Hadoop产生的临时文件将存储在本地文件系统的/opt/hadoop-record/tep目录下。 这些配置通常被写入到Hadoop的核心配置文件core-site.xml中该文件位于Hadoop的配置目录$HADOOP_HOME/etc/hadoop/内。通过修改这些配置可以指定Hadoop如何存储数据以及临时文件的存放位置这对于优化性能和管理数据至关重要。 2、hdfs-site.xml [roothadoop hadoop] vim /opt/hadoop/etc/hadoop/hdfs-site.xml 在configuration块中添加以下配置 propertynamedfs.replication/namevalue1/value/propertypropertynamedfs.namenode.name.dir/namevaluefile:///opt/hadoop-record/name/value/propertypropertynamedfs.datanode.data.dir/namevaluefile:///opt/hadoop-record/data/value/propertyproperty 每一个property标签都定义了一个具体的配置项包括配置项的名称和对应的值。 namedfs.replication/name 功能描述此配置项决定了HDFS中数据块的默认复制因子。复制因子是指一个数据块在HDFS集群中存储的副本数量。 你的设置你将其设置为1这意味着数据块只在一个节点上保存一份副本不进行冗余备份。在生产环境中这通常是不推荐的做法因为如果存储数据的节点出现故障数据可能会丢失。但在测试或开发环境中为了节省资源有时会采用这种方式。 namedfs.namenode.name.dir/name 功能描述此配置项指定了NameNode存储元数据信息的本地文件系统目录。 你的设置将其设置为file:///opt/hadoop-record/name这意味着NameNode的元数据将存储在本地文件系统的/opt/hadoop-record/name目录下。 namedfs.datanode.data.dir/name 功能描述此配置项指定了DataNode存储实际数据块的本地文件系统目录。 你的设置你将其设置为file:///opt/hadoop-record/data这意味着DataNode的数据块将存储在本地文件系统的/opt/hadoop-record/data目录下。 3、mapred-site.xml [roothadoop hadoop] vim /opt/hadoop/etc/hadoop/mapred-site.xml 在configuration块中添加以下配置 propertynamemapreduce.framework.name/namevalueyarn/value/propertyconfiguration 这是Hadoop配置文件中的根元素用于封装所有的配置项。 property 此标签定义了一个具体的配置属性包含了属性的名称和值。 namemapreduce.framework.name/name 功能描述此配置项指定了MapReduce作业执行时所依赖的资源管理和调度框架。在Hadoop生态系统中YARNYet Another Resource Negotiator是一个通用的资源管理系统它不仅可以管理MapReduce作业还可以支持其他类型的计算框架。 设置将其设置为yarn这意味着MapReduce作业将通过YARN来进行资源管理和调度。这是Hadoop 2.x版本及以后版本的默认设置YARN提供了一个更加灵活和强大的平台允许多种计算框架共存于同一集群中。 4、yarn-site.xml [roothadoop hadoop] vim /opt/hadoop/etc/hadoop/yarn-site.xml 在configuration块中添加以下配置 propertynameyarn.resourcemanager.hostname/namevaluelocalhost/value/propertypropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/property3.3 启动hadoop与权限修改 格式化namenode [roothadoop ~]# hdfs namenode -format  [roothadoop ~]# start-all.sh 接下来启动hadoop会有可能发现以下问题这是由于hadoop用户权限不足 修改权限 [roothadoop ~]# chown -R hadoop:hadoop /opt/hadoop 3.4 再次启动hadoop [roothadoop opt]# start-all.sh jsp 命令输出显示了当前运行在你的 hadoop 节点上的 Java 进程及其进程IDPID [roothadoop opt]# jps 9824 NameNode 10738 NodeManager 13539 Jps 10020 DataNode 10582 ResourceManager 10329 SecondaryNameNode 关闭防火墙 [roothadoop opt]# systemctl stop firewalld 浏览器打开虚拟机的ip端口号 http://192.168.239.132:9870/
http://www.hyszgw.com/news/83820.html

相关文章:

  • 山东网站备案注意事项欧美电商网站
  • 网站优化北京哪家强?网站维护常见问题
  • 自己用钢管做里闪弹枪视频和照网站湘潭找工作网站
  • 泰安服装网站建设辽宁省建设工程信息网入辽打印
  • 学校门户网站建设工作网站建设crm
  • 深圳设计网站公司哪家好深圳电商网站制作
  • 做网站域名公司网站建设需要哪些步骤 谢谢
  • 怎么做网站咨询上海外贸网站建设公司
  • 湖南湘潭网站建设华夏名网
  • 做网站服务器e3怎么搭建网站视频教程
  • 自贡网站优化做网站常见程序
  • 通辽建设工程网站景区网站建设案例
  • 快速建设网站一级a做爰片在线看免播放器网站
  • 网站架构的建设手机创建网站免费
  • 网站网站做代理违法吗类qq留言网站建设
  • 泰州网站建设公司哪家专业免费下载的网页模板
  • 网站建设备案 优帮云电子商务网站建设与完整实例
  • 移动端网站开发与网页开发区别做行业网站广告
  • 济南网站APP微信平板专用版ipad版
  • 建设一个旅游网站必备的潍坊作风建设年网站
  • 赣州网站建设专家专门做音箱的网站
  • 学校网站建设和维护情况e4a怎么做点击跳转网站
  • 广安住房和城乡建设厅网站建网站是自己做还是用CMS
  • 图片下载网站网站文章内容页keyword设置
  • 网站上如何做相关推荐校园网站建设情况汇报
  • 常州做网站哪家快哪个网站可以代做软件
  • 专门做任务的网站6个人域名
  • 有没有什么网站做卷子福建专业网站建设公司
  • 一个网站开发需要几人杭州知名网站制作公司
  • 网站做快照网站建设淘宝属于什么类目