NS 🇷🇺
потому что варя кинула всех ?)
я не копаюсь в чужом грязном белье
NS 🇷🇺
я до сих пор не готов
ошибку делаешь и не берут? =)
Maksimus Ulibikus
Парни, помогите с этой метадатой. Не получается настроить. Инстанс добавил роут 169.254.169.254 [ 32.860500] cloud-init[995]: Cloud-init v. 22.3.4-0ubuntu1~18.04.1 running 'init' at Mon, 28 Nov 2022 12:08:14 +0000. Up 21.83 seconds. [ 32.864680] cloud-init[995]: ci-info: +++++++++++++++++++++++++++++++++++++++Net device info+++++++++++++++++++++++++++++++++++++++ [ 32.887280] cloud-init[995]: ci-info: ++++++++++++++++++++++++++++++++Route IPv4 info++++++++++++++++++++++++++++++++ [ 32.889265] cloud-init[995]: ci-info: +-------+-----------------+-------------+-----------------+-----------+-------+ [ 32.891243] cloud-init[995]: ci-info: | Route | Destination | Gateway | Genmask | Interface | Flags | [ 32.893210] cloud-init[995]: ci-info: +-------+-----------------+-------------+-----------------+-----------+-------+ [ 32.895126] cloud-init[995]: ci-info: | 0 | 0.0.0.0 | 10.10.85.1 | 0.0.0.0 | enp3s0 | UG | [ 32.897032] cloud-init[995]: ci-info: | 1 | 10.10.85.0 | 0.0.0.0 | 255.255.255.0 | enp3s0 | U | [ 32.898898] cloud-init[995]: ci-info: | 2 | 169.254.169.254 | 10.10.85.11 | 255.255.255.255 | enp3s0 | UGH | [ 32.900755] cloud-init[995]: ci-info: +-------+-----------------+-------------+-----------------+-----------+-------+ 10.10.85.11 - контроллер. Но почему контроллер не добавляет себе в роут 169.254.169.254? В логах dhcp-agent говорит - я типа слушаю вас: 2022-11-28 15:17:40.936 10132 DEBUG neutron.agent.metadata.driver [-] haproxy_cfg = global log /dev/log local0 debug log-tag haproxy-metadata-proxy-c2ac31ff-8d88-4e1b-bbb6-814a75311f46 user neutron group neutron maxconn 1024 pidfile /var/lib/neutron/external/pids/c2ac31ff-8d88-4e1b-bbb6-814a75311f46.pid.haproxy daemon defaults log global mode http option httplog option dontlognull option http-server-close option forwardfor retries 3 timeout http-request 30s timeout connect 30s timeout client 32s timeout server 32s timeout http-keep-alive 30s listen listener bind 169.254.169.254:80 server metadata /var/lib/neutron/metadata_proxy http-request del-header X-Neutron-Router-ID http-request set-header X-Neutron-Network-ID c2ac31ff-8d88-4e1b-bbb6-814a75311f46
NS 🇷🇺
Парни, помогите с этой метадатой. Не получается настроить. Инстанс добавил роут 169.254.169.254 [ 32.860500] cloud-init[995]: Cloud-init v. 22.3.4-0ubuntu1~18.04.1 running 'init' at Mon, 28 Nov 2022 12:08:14 +0000. Up 21.83 seconds. [ 32.864680] cloud-init[995]: ci-info: +++++++++++++++++++++++++++++++++++++++Net device info+++++++++++++++++++++++++++++++++++++++ [ 32.887280] cloud-init[995]: ci-info: ++++++++++++++++++++++++++++++++Route IPv4 info++++++++++++++++++++++++++++++++ [ 32.889265] cloud-init[995]: ci-info: +-------+-----------------+-------------+-----------------+-----------+-------+ [ 32.891243] cloud-init[995]: ci-info: | Route | Destination | Gateway | Genmask | Interface | Flags | [ 32.893210] cloud-init[995]: ci-info: +-------+-----------------+-------------+-----------------+-----------+-------+ [ 32.895126] cloud-init[995]: ci-info: | 0 | 0.0.0.0 | 10.10.85.1 | 0.0.0.0 | enp3s0 | UG | [ 32.897032] cloud-init[995]: ci-info: | 1 | 10.10.85.0 | 0.0.0.0 | 255.255.255.0 | enp3s0 | U | [ 32.898898] cloud-init[995]: ci-info: | 2 | 169.254.169.254 | 10.10.85.11 | 255.255.255.255 | enp3s0 | UGH | [ 32.900755] cloud-init[995]: ci-info: +-------+-----------------+-------------+-----------------+-----------+-------+ 10.10.85.11 - контроллер. Но почему контроллер не добавляет себе в роут 169.254.169.254? В логах dhcp-agent говорит - я типа слушаю вас: 2022-11-28 15:17:40.936 10132 DEBUG neutron.agent.metadata.driver [-] haproxy_cfg = global log /dev/log local0 debug log-tag haproxy-metadata-proxy-c2ac31ff-8d88-4e1b-bbb6-814a75311f46 user neutron group neutron maxconn 1024 pidfile /var/lib/neutron/external/pids/c2ac31ff-8d88-4e1b-bbb6-814a75311f46.pid.haproxy daemon defaults log global mode http option httplog option dontlognull option http-server-close option forwardfor retries 3 timeout http-request 30s timeout connect 30s timeout client 32s timeout server 32s timeout http-keep-alive 30s listen listener bind 169.254.169.254:80 server metadata /var/lib/neutron/metadata_proxy http-request del-header X-Neutron-Router-ID http-request set-header X-Neutron-Network-ID c2ac31ff-8d88-4e1b-bbb6-814a75311f46
ну ты из инстанса сделал хотя бы запрос по адресу? трафик подампил?
Maksimus Ulibikus
ну ты из инстанса сделал хотя бы запрос по адресу? трафик подампил?
Нет запроса и не пингуется. И, скажем, IP инстанса 10.10.85.15, у инстанса роут 169.254.169.254 | 10.10.85.11, но с 10.10.85.15 на 10.10.85.11 не идёт пинг, потому что контроллер 10.10.85.11 не знает сети 169.254.0.0
NS 🇷🇺
я в описании я запутался при чем тут вообще 11
Maksimus Ulibikus
на вм есть роут?
Да | 2 | 169.254.169.254 | 10.10.85.11 | 255.255.255.255 | enp3s0 | UGH |
NS 🇷🇺
11 это dhcp агент
покажи конфиг агента
Maksimus Ulibikus
покажи конфиг агента
# cat /etc/neutron/dhcp_agent.ini | egrep -v "(^#.*|^$)" [DEFAULT] interface_driver = linuxbridge dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq enable_isolated_metadata = true enable_metadata_network = true force_metadata = true debug = true
NS 🇷🇺
ну во первых enable_isolated_metadata = true и force_metadata = true взаимоисключающие
NS 🇷🇺
если force включен, изолейтед игнорится
NS 🇷🇺
ip a, ip r из dhcp немспейса еще покажи
NS 🇷🇺
ну и до кучи агент лист
NS 🇷🇺
ну и до кучи агент лист
а не надо, выше вижу
NS 🇷🇺
Aleksandr драствуйте. Вы там свою нашлепку что ли для терраформа написали? или просто обернули существующий опенстек провайдер?
Maksimus Ulibikus
ip a, ip r из dhcp немспейса еще покажи
# ip netns exec qdhcp-c2ac31ff-8d88-4e1b-bbb6-814a75311f46 ip r default via 10.10.85.1 dev ns-3efc729c-c0 proto static 10.10.85.0/24 dev ns-3efc729c-c0 proto kernel scope link src 10.10.85.11 [root@os-controller-01 ~(keystone)]# ip netns exec qdhcp-c2ac31ff-8d88-4e1b-bbb6-814a75311f46 ip a 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: ns-3efc729c-c0@if6: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:3e:cc:b7:46 brd ff:ff:ff:ff:ff:ff link-netnsid 0 inet 169.254.169.254/32 brd 169.254.169.254 scope global ns-3efc729c-c0 valid_lft forever preferred_lft forever inet 10.10.85.11/24 brd 10.10.85.255 scope global ns-3efc729c-c0 valid_lft forever preferred_lft forever inet6 fe80::a9fe:a9fe/64 scope link valid_lft forever preferred_lft forever inet6 fe80::f816:3eff:fecc:b746/64 scope link valid_lft forever preferred_lft forever
Maksimus Ulibikus
curl -v http://169.254.169.254 с инстанса и с агента
[root@os-controller-01 ~(keystone)]# curl -v http://169.254.169.254 * Rebuilt URL to: http://169.254.169.254/ * Trying 169.254.169.254... * TCP_NODELAY set * connect to 169.254.169.254 port 80 failed: Connection timed out * Failed to connect to 169.254.169.254 port 80: Connection timed out * Closing connection 0 curl: (7) Failed to connect to 169.254.169.254 port 80: Connection timed out
Maksimus Ulibikus
NS 🇷🇺
ну подампи трафик, посмотри где отваливается
Maksimus Ulibikus
да с контрола не надо =)
На компуте тоже самое.
NS 🇷🇺
На компуте тоже самое.
да это логично.
Maksimus Ulibikus
Будете усердно работать, будете так медитировать 🤣
Den
Будете усердно работать, будете так медитировать 🤣
Картинка мотиватор вкорячивать опенстак? 🤣
Oleksandr
Тоска - печаль
J
Как?
Будешь попивать кофеек во Владивостоке глядя на Русский мост.
Maksimus Ulibikus
Как?
Лопату в руки и вперед 😉
J
С водой!
Не осуждаем если там полная чашка эспрессо.
Василий
Не осуждаем если там полная чашка эспрессо.
Не, я правую кружку имею ввиду
J
Не, я правую кружку имею ввиду
И я. Без воды целую чашку (0.25-0.37) крепкого эспрессо тяжело пить.
Valeriy
Не осуждаем если там полная чашка эспрессо.
От такой медитации может и сердце остановится.
Valeriy
NS 🇷🇺
это уже 5+ лет опыта
NS 🇷🇺
а это начало пути
Denis
у опенстека нет цели, есть только путь
Dmitry
это точно чат высокоплачивыемых/квалифицированных инженеров? =)
Dmitry
настоящих профессионалов с широчайшим IT кругозором? =)
Dmitry
те самые, которые настолько преисполнились, что могут вимом читать логи?
Василий
...за двацать баксов в час (
Dmitry
я вот знаю много людей из этого чата, у которых ставка сильно больше 20 баксов в час =) даже на фриланс
J
Кстати, одно с другим не особо коррелирует.
Dmitry
А что тебя сомневаться заставило?)
ну с радужными какашками и картинками с трипами - это ок. но наливать шампанское в бокал для игристого - это кажется подозрительным
Pavel
С кофе?)
Вприкуску
Maksimus Ulibikus
С кофе?)
Запивал 🤣
J
Запивал 🤣
Не, мы по-старинке, водку с редбуллом будем мешать.
Alexey
Alexey
как отключить это )
Alexey
при переходе без /horizon
Alexey
в апаче рут каталог надо указать кто то знает как это сделать через juju
Dmitry
Код ответит на вопрос
Yuriy
juju config openstack-dashboard webroot=/
Alexey
когда нибудь я научусь читать документацию (((
Alexey
спасибо все получилось
Alexey
Коллеги всем привет, кто то настраивал прометеюс експортер ?
Alexey
что то не хочет подключаться прометеюс к опенстеку похоже
Alexey
Alexey
есть подозрение на https что в keystone
Alexey
может кто сталкивался
Alexey
# my global config global: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). # Alertmanager configuration alerting: alertmanagers: - static_configs: - targets: # - alertmanager:9093 # Load rules once and periodically evaluate them according to the global 'evaluation_interval'. rule_files: # - "first_rules.yml" # - "second_rules.yml" # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: # The job name is added as a label `job=` to any timeseries scraped from this config. - job_name: 'prometheus' static_configs: - targets: ['10.20.11.15:9090'] - job_name: 'openstack-sd' openstack_sd_configs: - identity_endpoint: https://keystone.domain.ru:5000/v3 username: admin project_id: b26a2f710e4747bb842ea026b5fbac9d password: eewii2ahMo7ahmah role: instance region: RegionOne domain_name: admin_domain # port: 9100 tls_config: insecure_skip_verify: true
Alexey
конфиг
Pavel
серт валидны или нет?
Alexey
неа
Alexey
не как не подключится ?
Pavel
вижу что insecure_skip_verify: true
Pavel
ща у себй гляну
Alexey
это я уже отсибятину дописал но не взлетело