Я и твой кот
Я и твой кот
Maksimus Ulibikus
systemctl cat rabbitmq-server
[root@controller ~]# systemctl cat rabbitmq-server
# /usr/lib/systemd/system/rabbitmq-server.service
# systemd unit example
[Unit]
Description=RabbitMQ broker
After=network.target epmd@0.0.0.0.socket
Wants=network.target epmd@0.0.0.0.socket
[Service]
Type=notify
User=rabbitmq
Group=rabbitmq
NotifyAccess=all
TimeoutStartSec=3600
# Note:
# You *may* wish to add the following to automatically restart RabbitMQ
# in the event of a failure. systemd service restarts are not a
# replacement for service monitoring. Please see
# https://www.rabbitmq.com/monitoring.html
#
# Restart=on-failure
# RestartSec=10
WorkingDirectory=/var/lib/rabbitmq
ExecStart=/usr/lib/rabbitmq/bin/rabbitmq-server
ExecStop=/usr/lib/rabbitmq/bin/rabbitmqctl stop
ExecStop=/bin/sh -c "while ps -p $MAINPID >/dev/null 2>&1; do sleep 1; done"
[Install]
WantedBy=multi-user.target
Я и твой кот
Maksimus Ulibikus
А epmd сокет что там?
Всё плохо
[root@controller ~]# systemctl list-units --type=socket --all
UNIT LOAD ACTIVE SUB DESCRIPTION
dbus.socket loaded active running D-Bus System Message Bus Socket
dm-event.socket loaded active listening Device-mapper event daemon FIFOs
● epmd@0.0.0.0.socket bad-setting inactive dead Erlang Port Mapper Daemon Activation Socket
iscsid.socket loaded active listening Open-iSCSI iscsid Socket
iscsiuio.socket loaded active listening Open-iSCSI iscsiuio Socket
lvm2-lvmpolld.socket loaded active listening LVM2 poll daemon socket
multipathd.socket loaded active listening multipathd control socket
rpcbind.socket loaded active running RPCbind Server Activation Socket
sssd-kcm.socket loaded active listening SSSD Kerberos Cache Manager responder socket
syslog.socket loaded inactive dead Syslog Socket
systemd-coredump.socket loaded active listening Process Core Dump Socket
systemd-initctl.socket loaded active listening initctl Compatibility Named Pipe
systemd-journald-audit.socket loaded inactive dead Journal Audit Socket
systemd-journald-dev-log.socket loaded active running Journal Socket (/dev/log)
systemd-journald.socket loaded active running Journal Socket
systemd-udevd-control.socket loaded active running udev Control Socket
systemd-udevd-kernel.socket loaded active running udev Kernel Socket
Maksimus Ulibikus
epmd@0.0.0.0.socket bad-setting
Maksimus Ulibikus
А dmesg ругается:
3.698403] systemd[1]: /usr/lib/systemd/system/epmd@.socket:5: Failed to parse address value in '0.0.0.0', ignoring: Invalid argument
Maksimus Ulibikus
В итоге не отображается ни одной compute ноды
Maksimus Ulibikus
Maksimus Ulibikus
На compute ноде проделал всё остальное согласно документации
Maksimus Ulibikus
Вот такая ошибка сыпется в /var/log/neutron/linuxbridge-agent.log https://pastebin.com/89cfAasR
Shokhrukh
Shokhrukh
reboot
Denis
reboot
setenforce 0 без ребута
Shokhrukh
Maksimus Ulibikus
О май гад, появился. Спасибо )
Maksimus Ulibikus
Ну и на кой тогда в доке в самом начале предлагают установить selinux компоненты для OS?
greytiger
интрига
Pavel
Нужно проверять
Shokhrukh
после опр. действий восстанавливает начальный статус
Pavel
Я про такое: https://bugs.launchpad.net/juniperopenstack/+bug/1689900
Есть более современное, из 8-х версий.
Maksimus Ulibikus
Запустил виртуалку, но консоль не работает. Я так понимаю нужно произвести доп. настройки, чтобы VNC на виртуалке заработал?
Maksimus Ulibikus
Хм... На compute ноде включен VNC. В nova.conf в vnc
[vnc]
enabled = true
server_listen = 0.0.0.0
server_proxyclient_address = $my_ip
novncproxy_base_url = http://controller:6080/vnc_auto.html
В my_ip указал адрес compute ноды
Maksimus Ulibikus
Maksimus Ulibikus
Так. Починил.
В доке явно написано, что надо так novncproxy_base_url = http://controller:6080/vnc_auto.html, но работает только так
novncproxy_base_url = http://ip_address:6080/vnc_auto.html
NS 🇷🇺
Александр
Илья | 😶☮️🐸
или прописать в /etc/hosts и тогда будет работать :)
Aleksey
что раельно включать голову сейчас не модно?
Artemy
Stackoverflow-Driven-Development (*) complete
Stackoverflow-Driven-Deployment <- you are here
StackOverflow-Drive-Usage (???)
Aleksey
Ставлю на то что клиентская тачка ничего не знает про controller
NS 🇷🇺
NS 🇷🇺
По уровню кандилатов на собеседованиях хорошо заметно
Maksimus Ulibikus
Aleksey
Александр
Имелось ввиду что ранее у тебя было вот так
novncproxy_base_url = http://controller:6080/vnc_auto.html тут указано что имя controller. Это же имя будет отличаться и клиенту в вебинтерфейса. Вопрос смог бы клиент резолвить данное имя?
Когда ты изменил имя на адрес
novncproxy_base_url = http://ip_address:6080/vnc_auto.html
То клиенту уже отдается строка с ip адресом и уже ничего резолвить не нужно.
Второе адрес должен быть доступен для клиента.
Я и твой кот
Ваш комп с браузером не в курсе, какой ip у хоста с именем controller. По-этому такая фигня. В дебаг консоли браузера наверняка видно.
Я и твой кот
J
Нет, вы все токсичные и не разобравшись накинулись)
Aleksey
Maksimus Ulibikus
J
>Какое модное слово. А ведь по-русски звучит так: говно
Вы все говно!
fixed!
Aleksey
NS 🇷🇺
Maksimus Ulibikus
Это не тут, это везде...
Везде это где? Я же писал выше, что обе ноды резолвятся между собой по именам
Aleksey
Aleksey
кто у тебя имена сайтиков резолвит?
NS 🇷🇺
NS 🇷🇺
Я и твой кот
К слову, если работать в божественном Safari, то он hostname сайта покажет в тексте ошибки.
Я и твой кот
Я и твой кот
Aleksey
Timur
Приветствую.
Пытаюсь установить openstack через juju. Затык на настройке vault.
juju run-action vault/leader --wait authorize-charm token=s.2Lwgk3L2IUiiWA5vexDbFUGi
Выдает could not determine leader for "vault". Подскажите что он хочет. В sys/leader значение "leader_address" пустое
Timur
Но насколько я понимаю, leader назначается если собираю кластер
Timur
Пока до этого пункта не дошел
Timur
Прошу не ругаться, только учусь
Timur
Руководствуюсь этой статьей: https://jaas.ai/vault
Maksimus Ulibikus
Кто-нибудь может подсказать, почему при openstack volume service list сначала cinder-scheduler down и cinder-volume up, а потом наоборот?
Maksimus Ulibikus
Maksimus Ulibikus
NS 🇷🇺
NS 🇷🇺
у тебя и нова скорее всего скачет
Maksimus Ulibikus
Maksimus Ulibikus
Может из-за того, что я подключил NFS? На NFS какое время не смотрел
J
Дело в том, что Cinder там же где и Controller
Включи на время настройки хотя бы во всех сервисах debug = True и читай логи побольше.
Глядишь, часть вопросов сам сможешь решить. Щас вот надо логи посмотреть, мне кажется, а не пальцем в небо тыкать.
Maksimus Ulibikus
Да, там кстати показывает как controller@nfs. Похоже NFS нода