Anonymous
failed
Anonymous
пытаюсь через консоль
Anonymous
Port ea4c1125-95d0-4030-b54d-476c93101804 cannot be deleted directly via the port API: has device owner network:router_interface. Neutron server returns request_ids: ['req-046a9a2f-570c-462f-bcb8-e76e599d5875'] (admin)root@controller1:~# neutron port-delete 2fb4768f-4b06-47d4-a8e3-54803b4bca4c Port 2fb4768f-4b06-47d4-a8e3-54803b4bca4c cannot be deleted directly via the port API: has device owner network:router_gateway. Neutron server returns request_ids: ['req-d6ebdf6a-be3b-4bd1-b251-3998fddef9d1']
Anonymous
почистить gateway тоже не удается
Anonymous
neutron router-gateway-clear 8508eee5-6b54-4e84-aebf-edf33002a05d Gateway cannot be updated for router 8508eee5-6b54-4e84-aebf-edf33002a05d, since a gateway to external network 5c616f07-0f7f-4d87-b874-0a0285150d37 is required by one or more floating IPs. Neutron server returns request_ids: ['req-c1c74c44-4c30-490f-b5e9-3af05686d23e']
Aleksandr
ну тут же по русски написано что некоторые порты используются и т.д.
Anonymous
порты не могу так же удалить где с floatingip
Anonymous
neutron router-port-list 8508eee5-6b54-4e84-aebf-edf33002a05d +--------------------------------------+------+-------------------+-------------------------------------------------------------------------------------+ | id | name | mac_address | fixed_ips | +--------------------------------------+------+-------------------+-------------------------------------------------------------------------------------+ | 2fb4768f-4b06-47d4-a8e3-54803b4bca4c | | fa:16:3e:d1:1c:07 | {"subnet_id": "abf50d4a-f2a4-4e53-b67e-4aaf356e30fe", "ip_address": "10.200.56.57"} | | ea4c1125-95d0-4030-b54d-476c93101804 | | fa:16:3e:9b:a3:94 | {"subnet_id": "6222ed24-a63a-43b9-9437-5ff13b4cc1c7", "ip_address": "10.10.10.1"} | +--------------------------------------+------+-------------------+-------------------------------------------------------------------------------------+
Aleksandr
надо с начала удалить то что их блокирует
✠ FLASh ✠
С начала удаляешь роутер, потом порты на нем, потом подсеть и сеть. Если оно криво удаляется. Обычно достаточно удалить роутер и оно каскадом само удалит норм когда попробуешь сеть удалить.
✠ FLASh ✠
Но я по хардкору дропаю роутер в базе и потом удаляю все через кли))
Anonymous
Спасибо FLASh, оживи
Anonymous
боримся с дизастером дальше
Anonymous
теперь heat в бок пихает с ошибкой FAILED! => {"changed": false, "msg": "(400) Client Error for url: http://10.200.43.80:8004/v1/7626b36f391c46438c49a669b9df185f/stacks"}
Anonymous
@Ascandar будет жить. Поприветствуем!
NS 🇷🇺
Коллеги, а никто подобные схемы не пробовал реализовывать у себя? https://medium.com/jexia/virtual-ip-with-openstack-neutron-dd9378a48bdf
NS 🇷🇺
без LB и октавии
NS 🇷🇺
я пока честно не понимаю, как у чела работала схема, т.к порт никуда не прземлен
J
я пока честно не понимаю, как у чела работала схема, т.к порт никуда не прземлен
Так порт нужен просто чтоб застолбить адрес, чтоб нейтрон его никуда больше не назначил.
J
А так - разреши виртуальный ip на порту виртуалки и vrrp. И готово дело.
Pavel
он эксплуатирует "багу нетрона" если есть в сеточке порт с адресом, то под него генерируются правила автоматом. Если разрешены верно ip-pairs, то будет работать
Artem
А где будет dnat/snat этого порта, чтобы floating ip для него назначить?
NS 🇷🇺
А где будет dnat/snat этого порта, чтобы floating ip для него назначить?
Меня тоже волнует этот вопрос. Но у чувака в статье работает же ) написал бы хоть версию
J
Так цель ещё fip гонять
Тут от используемых сетевых механизмов, наверное, зависит. У тебя ж линукс бридж, а значит, весь нат, неважно, для фиксированных или плавающих адресов, делается на сетевых серверах. Причем за раз активен только один.
J
В случае с dvr, по крайней мере, так мыслю что работать не будет.
NS 🇷🇺
У меня dvr и linux bridge нету
J
У меня dvr и linux bridge нету
Тьфу) А вроде рассказывал что линукс бридж)
NS 🇷🇺
С sdn тоже не взлетело
J
Ну тогда и понятно.
NS 🇷🇺
Софтваредефайннетворк )
J
Софтваредефайннетворк )
Да понятно) Я не понял применительно к нейтрону это чо? Какой драйвер?
NS 🇷🇺
Nuage
J
Ну про него вообще не знаю что и как( В общем, так вижу что работать это все должно только в случае централизованного dnat для плавающих адресов или в случае когда по какой-то причине nat Gравила создаются везде где есть l3 агенты, а не только там где треюуется.
NS 🇷🇺
Ну вот скорее всего, когда все прибито к Нетворк нодам
J
Ну зато без плавающих адресов сработает.
NS 🇷🇺
Ну без них то работает... Походу надо нести octavia или хотя бы просто lb
J
Ну без них то работает... Походу надо нести octavia или хотя бы просто lb
Ну да. Или октавию (что, конечно, круто, когда она работает) или вручную делать балансировщики и уже для них там или vrrp или тоже балансировку на вышестоящем железе.
Artem
Ну на самом деле на snat делается на нетворках. Для октавии какие то патчи есть, для простого порта не понятно.
Ascandar
не подскажите, почему у меня ошибка при попытке сделать upload swift ?
Ascandar
[root@controller ~(keystone-admin)]# swift upload test-cont1 keystonerc_demo Warning: failed to create container 'test-cont1': 404 Not Found: <html><h1>Not Found</h1><p>The resource could not be found.< Object HEAD failed: http://sw1.test.local:8080/v1/AUTH_ac98073ca25a422f96ba9ba32861aefa/test-cont1/keystonerc_demo 400 Bad Request
Ascandar
отбой, решил проблему
Ivan
может кто-то сталкивался с тем, что виртуалки поднятые в опенстеке медленно взаимодействуют с ceph?
Ivan
скорость чтения крайне низкая, и даже 20% канала не утилизируется
Ivan
почти не утилизруются, 10-15%
J
почти не утилизруются, 10-15%
Ну ты подробности расскажи какие-нибудь, Какая конфигурация Ceph, какие метрики по пропускной способности и задержке внутри виртуалок.
Aleksey
и где лежит кэш образов 🙂
Ivan
ceph из трех нод (8 осд на всех), для доступа к опенстеку 3 линка по 1Гбит если тестировать сам ceph чем-то вроде rados bench или fio, то утилизировать можно всю сеть, в диски не упираемся
Ivan
и где лежит кэш образов 🙂
если я ничего не путаю, то там же на osd
Andrey
Коллеги, а никто подобные схемы не пробовал реализовывать у себя? https://medium.com/jexia/virtual-ip-with-openstack-neutron-dd9378a48bdf
у меня работает) костыль жуткий, пинаю что бы переделали на нормальный LBaaS
Aleksey
если я ничего не путаю, то там же на osd
на компьютах вот тут лежат /var/lib/nova/instances/_base/
Ivan
получаю 300-340 метров в секунду на чтение и гдето 150 на запись а внутри виртуалок ставлю fio им тестирую ну и еще с помощью dd, получаю на чтение метров 8-12 и на запись 5-10
Aleksey
опять же вопрос, это новые образа или уже на этих нодах рахворачивались? в каком формате образа?
Aleksey
а они точно в ceph?
J
получаю 300-340 метров в секунду на чтение и гдето 150 на запись а внутри виртуалок ставлю fio им тестирую ну и еще с помощью dd, получаю на чтение метров 8-12 и на запись 5-10
Да хоспаде, ну я же прошу тебя написать конкретные команды. Там же важно какой размер блока используется, какие флаги при записи, RBD кэш включен или нет, вот это все.
Ivan
секунду
Ivan
сори, долгая секунда получилась образы разворачиваются на других серверах, эти используются только под ceph, форматы образов qcow2 команды на ceph для bench: rados bench -p volumes 60 write --no-cleanup rados bench -p volumes 60 seq rados bench -p volumes 60 rand для fio на том же ceph: fio --ioengine=libaio --direct=1 --name=test --runtime=60 --filename=/dev/sd* внутри ВМ fio: fio --name=randwrite --ioengine=libaio --iodepth=1 --rw=randwrite --bs=4k --direct=0 --size=512M --numjobs=2 --runtime=60 --group_reporting fio --name=randread --ioengine=libaio --iodepth=16 --rw=randread --bs=4k --direct=0 --size=512M --numjobs=4 --runtime=60 --group_reporting # fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=random_read_write.fio --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 ну и dd внутри ВМ (предварительно скинув кэш /sbin/sysctl -w vm.drop_caches=3) dd if=/dev/zero of=tempfile bs=1M count=1024 dd if=tempfile of=/dev/null bs=1M count=1024
Ivan
Да хоспаде, ну я же прошу тебя написать конкретные команды. Там же важно какой размер блока используется, какие флаги при записи, RBD кэш включен или нет, вот это все.
к сожалению, я многих вещей не знаю так как принял систему такой какая она есть и опыта работы с openstack - 0, по этому я ищу куда смотреть ну или может сталкивался кто с подобными траблами
Ivan
глянул, по образам, тут целый зоопарк, qcow2 (почти половина), часть RAW и еще часть ISO
J
Так. Ну а пока результаты то какие?
Ivan
результаты чего?
Ivan
если тестирую на нодах с ceph - то кластер дает 300-350 мб/с на чтение и 100-150 на запись когда тестирую внутри ВМ - то чтение - около 10мб/с, запись в районе 20 мб/с
J
если тестирую на нодах с ceph - то кластер дает 300-350 мб/с на чтение и 100-150 на запись когда тестирую внутри ВМ - то чтение - около 10мб/с, запись в районе 20 мб/с
У тебя все fio тесты на случайные чтение и запись и везде блоками по 4к. Ну, только dd последовательные запись и чтение. dd тоже дает 10-20 мб/с?
J
стоит увеличить размер блока? dd - да, дает не больше 20 метров в секунду
Ну rados-bench то блоками по 4 мегабайта пишет. Эт стандартный размер объекта.
Anonymous
@smesilov будет жить. Поприветствуем!
J
К тому же, rados-bench пишет в пул ваще без разбора, а диск твоей виртуалки лежит в конкретных Placement группах и на конкретных OSD. таким количеством дисков образ вряд ли размазан равномерно по всему кластеру.
Anonymous
@n_paul будет жить. Поприветствуем!
J
И наконец, чтоб еще круче было нужно использовать разумное количество и размер страйпов для максимально равномерного распределения нагрузки.
J
Коротко говоря, rados-bench работает в очень выгодных условиях) А вот qemu-kvm процессы виртуалок в не очень) Нужно подкручивать и оптимизировать.
Ivan
Вроде направление мыслей понял, буду разбираться, спасибо за помощь =)
Pope Pius
https://www.zdnet.com/article/aws-outpost-brings-its-cloud-hardware-on-premises/