[root@slave ~]# ldapsearch -x cn=ldaprptest -b dc=local,dc=cn
# extended LDIF
# LDAPv3
# base <dc=local,dc=cn> with scope subtree
# filter: cn=ldaprptest
# requesting: ALL
# ldaprptest, People, local.cn
dn: uid=ldaprptest,ou=People,dc=local,dc=cn
objectClass: top
objectClass: account
objectClass: posixAccount
objectClass: shadowAccount
cn: ldaprptest
uid: ldaprptest
uidNumber: 9988
gidNumber: 100
homeDirectory: /home/ldaprptest
loginShell: /bin/bash
gecos: LDAP Replication Test User
userPassword:: e2NyeXB0fXg=
shadowLastChange: 17058
shadowMin: 0
shadowMax: 99999
shadowWarning: 7
# search result
search: 2
result: 0 Success
# numResponses: 2
# numEntries: 1
slave上面测试成功!!!!
以上就是LDAP Master-Slave 搭建过程
参考:https://www.itzgeek.com/how-tos/linux/centos-how-tos/step-step-openldap-server-configuration-centos-7-rhel-7.html/2
Centos7 LDAP集群之 主从搭建1.主从同步用户配置OpenLDAP在服务安装成功后进行主从操作。配置主从用户。LDAP主从同步需要在master服务上面配置同步用户。管理员用户也可以,但不推荐编辑复制用户配置文件[root@master ~]# vim rpuser.ldif [root@master ~]# cat rpuser.ldif dn: uid=rpuser,d...
本文以两台机器实现双集热备高可用集群,主机名node1的IP为192.168.122.168 ,主机名node2的IP为192.168.122.169 。
一、安装集群软件
必须软件pcs,pacemaker,corosync,fence-agents-all,如果需要配置相关服务,也要安装对应的软件
二、配置防火墙
1、禁止防火墙和selinux
# systemctl disable firewalld
# systemctl stop firewalld
修改/etc/sysconfig/selinux确保SELINUX=disabled,然后执
##########
include /etc/openldap/schema/core.schema
include /etc/openldap/schema/cosine.schema
1. 首先,确保你的CentOS 7系统已经安装了JDK,并配置好了JAVA_HOME环境变量。
2. 下载Hadoop的压缩包,并解压到指定目录。例如,将压缩包解压到/usr/soft/hadoop-2.7.5目录下。
3. 进入Hadoop解压后的文件夹中的/etc/hadoop/目录,并修改以下四个配置文件:core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。
4. 在yarn-site.xml中,添加以下属性:
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
5. 在hdfs-site.xml中,添加以下属性:
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///usr/soft/hadoop-2.7.5/etc/hadoop/dfs/name</value>
<description>NameNode directory for namespace and transaction logs storage.</description>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///usr/soft/hadoop-2.7.5/etc/hadoop/dfs/data</value>
<description>DataNode directory</description>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
6. 创建必要的文件夹:
sudo mkdir -p /usr/soft/hadoop-2.7.5/etc/hadoop/dfs/name
sudo mkdir -p /usr/soft/hadoop-2.7.5/etc/hadoop/dfs/data
7. 配置集群的主机名和IP地址。确保所有的节点都能够相互访问。
8. 启动Hadoop集群:
sudo /usr/soft/hadoop-2.7.5/sbin/start-dfs.sh
sudo /usr/soft/hadoop-2.7.5/sbin/start-yarn.sh
9. 验证集群是否正常工作。可以通过访问Hadoop的Web界面来确认。