Важно: Данный раздел актуален для Платформы данных в Публичном облаке.
Для проверки статуса zookeeper на каждом хосте, на котором установлен сервис zookeeper server можно воспользоваться командой:
/usr/lib/zookeeper/bin/zkServer.sh status
При корректно работающем сервисе в выводе должен быть упомянут путь до файла конфигурации, используемый сетевой порт, сетевой адрес/имя, статус SSL и режим работы сервиса (Mode: leader или follower. На одном хосте должен быть режим – leader, на остальных – follower) :
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса namenode по протоколу http (или https в случае включенного режима SSL), порт 9870:
В случае выключенного режима "Высокая доступность" возможно проверить состояние вспомогательного сервиса secondarynamenode на хосте, где установлен одноимённый сервис, порт 9868.
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса resourcemanager по протоколу http (или https в случае включенного режима SSL), порт 8088:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса hiveserver2 по протоколу http (или https в случае включенного режима SSL), порт 10002:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса HBase master по протоколу http (или https в случае включенного режима SSL), порт 16010:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса Spark historyserver по протоколу http (или https в случае включенного режима SSL), порт 18082:
Графический интерфейс Spark livy, порт 8998:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса Spark historyserver по протоколу http (или https в случае включенного режима SSL), порт 18073.
Графический интерфейс Spark livy, порт 8997.
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса Sqoop metastore по протоколу http (или https в случае включенного режима SSL), порт 16100.
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса Zeppelin server по протоколу http (или https в случае включенного режима SSL), порт 8180:
Вкладка Zeppelin Notebook:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса Ranger admin по протоколу http (или https в случае включенного режима SSL), порт 6080 (6182 для https):
Учётные данные по умолчанию
логин: admin
пароль: admin
Домашняя страница сервиса:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса Hue server по протоколу http (или https в случае включенного режима SSL), порт 8888:
Домашняя страница сервиса:
Доступность сервиса можно проверить как посредством графического интерфейса admin-ui, так и на хосте с установленной компонентой с помощью команды:
По умолчанию сервис расположен на порту 8443
admin
admin-password
Логин и пароль рекомендуем изменить на свои, соответствующие используемой политике безопасности, во вкладке конфигурация компонента Knox
admin-ui:
Домашняя страница админ панели:
Доступы в сервисы кластера:
<host> – хост, на котором расположен сервис,
<port> – порт, на котором расположен сервис.
hdfsui:
http://<host>:<port>/gateway/default/hdfs/
hdfsui2:
http://<host>:<port>/gateway/default/hdfs2/
hdfsui3:
в сервисе hdfsui3 требуется дополнительно указывать параметры host=<имя хоста namenode> и port=<port namenode>
http://<host>:<port>/gateway/default/hdfs3/?host=<имя хоста namenode>&port=<port namenode>
Пример rest api запроса к webhdfs топологии:
curl -k https://vm-pikachu-m-3.ddp.ru:8443/gateway/default/webhdfs/v1/\?op\=LISTSTATUS
yarn v1:
http://<host>:<port>/gateway/default/yarn/cluster
yarn v2:
http://<host>:<port>/gateway/default/yarnuiv2
hiveserver2:
http://<host>:<port>/gateway/default/hiveserver2
tez:
https://<host>:<port>/gateway/default/tez/
spark3history:
http://<host>:<port>/gateway/default/spark3history
spark2history:
http://<host>:<port>/gateway/default/spark2history
spark2thrift:
http://<host>:<port>/gateway/default/thrift2
spark3thrift:
http://<host>:<port>/gateway/default/thrift3
livy:
http://<host>:<port>/gateway/default/livy
zeppelin:
http://<host>:<port>/gateway/default/zeppelin/
ranger:
http://<host>:<port>/gateway/default/ranger/
hbase:
в сервисе hbase требуется дополнительно указывать параметры host=<имя хоста hbase> и port=<port hbase>
- hbase master
http://<host>:<port>/gateway/default/hbase/webui/master/master-status?host=<имяхоста hbase master>&port=<port hbase master>
- hbase regionserver
https://<host>:<port>/gateway/default/hbase/webui/regionserver/rs-status?host=<имяхоста hbase regionserver>&port=<port hbase regionserver>
в случае некорректного запроса к несуществующему сервису будет выдаваться ошибка 500.
Проверить доступность данного компонента можно посредством графического интерфейса (UI) косвенно устанавливаемого сервиса (в процессе установки zookeeper) checkeragent по протоколу http (или https в случае включенного режима SSL), порт 8118:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) программы Prometheus, работающей в докер-контейнере, входящем в состав группы контейнеров "rtcm" на докер-хост машине, подготовленной для установки RT.ClusterManager (cm) по протоколу http, порт 9090:
Проверить доступность данного компонента можно посредством графического интерфейса (UI) управляющего сервиса haproxy по протоколу http (или https в случае включенного режима SSL), порт 8778:
Авторизованные пользователи Active Directory должны быть настроены для получения доступа к службам и ресурсам, предоставляемым в кластере служб больших данных. Для этого Apache Ranger должен быть настроен таким образом, чтобы пользователи Active Directory могли синхронизироваться с Apache Ranger в службе больших данных. Кроме того, пользователи могут захотеть войти в пользовательский интерфейс Apache Ranger как пользователи Active Directory.
"ranger_ugsync_site": {
...
"ranger.usersync.source.impl.class": "LDAP",
"ranger.usersync.ldap.binddn": "CN=admin,CN=Users,DC=dcp,DC=local", - УЗ администратора AD
"ranger.usersync.ldap.ldapbindpassword": "password", - пароль администратора AD
"ranger.usersync.ldap.url": "ldap://vm-dcp-dc-1.dcp.local:389",
"ranger.usersync.ldap.user.groupnameattribute": "memberOf",
"ranger.usersync.ldap.user.nameattribute": "sAMAccountName",
"ranger.usersync.ldap.user.objectclass": "person",
"ranger.usersync.ldap.user.searchbase": "CN=Users,DC=dcp,DC=local",
"ranger.usersync.ldap.user.searchfilter": "cn=*",
"ranger.usersync.ldap.user.searchscope": "sub",
"ranger.usersync.ldap.username.caseconversion": "lower",
"ranger.usersync.group.memberattributename": "member",
"ranger.usersync.group.nameattribute": "cn",
"ranger.usersync.group.objectclass": "group",
"ranger.usersync.group.search.first.enabled": false,
"ranger.usersync.group.searchbase": "CN=Groups,DC=dcp,DC=local",
"ranger.usersync.group.hierarchylevels": 2,
"ranger.usersync.group.searchenabled": true,
"ranger.usersync.group.searchfilter": "cn=*",
"ranger.usersync.group.searchscope": "sub",
"ranger.usersync.group.usermapsyncenabled": true
},
"ranger_admin_site": {
...
"ranger.authentication.method": "LDAP",
...
"ranger.ldap.base.dn": "DC=dcp,DC=local",
"ranger.ldap.bind.dn": "admin@ad.local",
"ranger.ldap.bind.password": "password",
"ranger.ldap.group.roleattribute": "cn",
"ranger.ldap.group.searchbase": "DC=dcp,DC=local",
"ranger.ldap.group.searchfilter": "(|(CN=production))",
"ranger.ldap.referral": "ignore",
"ranger.ldap.url": "ldap://vm-dcp-dc-1.dcp.local:389",
"ranger.ldap.user.dnpattern": "sAMAccountName={0}",
"ranger.ldap.user.searchfilter": "sAMAccountName={0}"
},
Настройки “ranger_ugsync_site” и “ranger_admin_site” из п. 4.1.1 и п. 4.1.2 должны быть проставлены в RT.ClusterManager в настройке конфигурации компонента Ranger (см. п. 8.4.3 документа “RT.ClusterManager. Руководство администратора”), во вкладках соответствующих названиям (см. Рисунок ниже).
Для вступление в действие настроек в RT.ClusterManager необходимо выполнить операцию “Переконфигурировать" (см. п. 8.4.5 документа “RT.ClusterManager. Руководство администратора”).