Aleksandr
я не понимаю от куда она берет RegionOne если мы его вообще нигде не используем
Aleksandr
у нас все регионы кастомные
Aleksandr
то есть это просто первый пуск, настроено по https://docs.openstack.org/cloudkitty/rocky/configuration/configuration.html Вот вопрос - как указать нужный регион
J
я не понимаю от куда она берет RegionOne если мы его вообще нигде не используем
А откуда должен барть метрики? Из gnocchi? Раз нигде не используеете и явно не прописывал кастомный, значит используется по-умолчанию, RegionOne
J
Да, из gnocchi. Вопрос - как указать явно конкретный регион
https://github.com/openstack/cloudkitty/blob/7c7ff81cd9cad0da167087428f701963b00d02e8/doc/source/admin/configuration/collector.rst
Aleksandr
вот да( спасибо
J
вот да( спасибо
Знаешь как нашел?) Поиском по репозиторию "RegionOne".
Aleksandr
по репо верю, по гуглу тотже поиск дает только доки на инсталл
Aleksandr
смущает все равно - region_name: Defaults to RegionOne. For keystone authentication only. Region name. Типа только для аутентификации
Aleksandr
ладно, попробую
J
смущает все равно - region_name: Defaults to RegionOne. For keystone authentication only. Region name. Типа только для аутентификации
Ну он должен аутиентифицироваться в соответствующем регионе и потом еще из сервис каталога запрашивать url для gnocchi. Вот как-то так у меня в голове это работает)
Aleksey
Подскажите плз ЧЯДНТ. Пытаюсь настроить RGW как Swift для Openstack. В результате при запросах получаю 404 [Tue Apr 02 15:34:45.474622 2019] [:error] [pid 12] INFO swiftclient REQ: curl -i http://test2-openstack-rgw:8080/swift/v1/AUTH_84ed3405d3864b9d92ec2b73267f6570?format=json&limit=1001 -X GET -H "Accept-Encoding: gzip" -H "X-Auth-Token: gAAAAABco3PlCCfT..." [Tue Apr 02 15:34:45.474690 2019] [:error] [pid 12] INFO swiftclient RESP STATUS: 404 Not Found [Tue Apr 02 15:34:45.474834 2019] [:error] [pid 12] INFO swiftclient RESP HEADERS: {u'Date': u'Tue, 02 Apr 2019 15:34:45 GMT', u'Content-Length': u'154', u'x-amz-request-id': u'tx000000000000000000004-005ca38115-a3182-default', u'Content-Type': u'application/json', u'Accept-Ranges': u'bytes'} [Tue Apr 02 15:34:45.474974 2019] [:error] [pid 12] INFO swiftclient RESP BODY: {"Code":"NoSuchBucket","BucketName":"test2-openstack-rgw","RequestId":"tx000000000000000000004-005ca38115-a3182-default","HostId":"a3182-default-default»
Aleksey
т.е. запрос похоже что верный AUTH_XXXXX, но какого он мне пишет что не может найти бакет test2-openstack-rgw, хотя это url балансера перед rgw
Aleksey
при этом на rgw вот так "GET /swift/v1/AUTH_84ed3405d3864b9d92ec2b73267f6570?format=json&limit=1001 HTTP/1.1" 404 0 - python-swiftclient-3.6.0
✠ FLASh ✠
http://docs.ceph.com/docs/giant/radosgw/config/#enabling-subdomain-s3-calls
Aleksey
Artyom
Всем добрый день! Столкнулся с такой проблемой. Поставил в компьют ноды видеокарты и хочу сделать pci passthrough. Всё настроил по гайду https://docs.openstack.org/nova/pike/admin/pci-passthrough.html, через lspci вижу 4видеокарты. Включаю в хорайзоне одну ноду. Спокойно создаются 4 виртуалки с проброшеной видеокартой. Удаляю. Включаю вторую и третью ноду с видеокартами. В итоге на каждой ноде создается только по одной виртуалке с видеокартой, а дальше вылезает ошибка, что больше нет ресурсов... Куда копать?(
Artyom
типо того))
Artyom
в логах компьют ноды, на которой уже есть виртуалка вот такая запись
Artyom
2019-04-02 20:45:49.770 28118 ERROR nova.virt.libvirt.driver [req-f945df0c-1175-4012-8111-ab06f40a7542 e443adcd629d4da188718f070a600765 1ca2047d630d4aefbf15505aeb790507 - default default] [instance: 7fd8c7ee-b6ac-4093-bf58-4ff049536c2a] Failed to start libvirt guest: libvirtError: internal error: Unknown PCI header type '127'
Aleksandr
Unknown PCI header type '127' )
Artyom
хотя свободно ещё три карты(
Artyom
А вот если сейчас эту же ноду оставлю единстенной, виртуалка создастся...
Artyom
Tesla K10х4
Aleksandr
хотя свободно ещё три карты(
https://forums.unraid.net/topic/76510-execution-error-internal-error-unknown-pci-header-type-127/
Artyom
The error Unknown PCI header type '127' is because the card isn't resetting correctly.
Ilya
Tesla K10х4
Копай сюда: https://docs.nvidia.com/grid/latest/grid-vgpu-release-notes-generic-linux-kvm/index.html
Aleksandr
Ну нет, это я просто намекнул что в инете есть обсуждения по этой проблеме
Artyom
это я видел уже
Artyom
там с одной видеокартой запара, а у меня именно при добавлении второй ноды перестают пробрасываться карты
Artyom
первая на ноде пробрасывается, а дальше эта ошика и опенстак считает, что на этой ноде ресурсы кончились...
Ilya
И нужен тебе не pci pass through
Aleksandr
Ну он пишет что когда одна нода то все ок, когда >1 то на всех после первой такой трабл
Artyom
а в чем?)) ведь если оствить всего одну ноду включенной, то все 4 карты пробрасываются спокойно
Ilya
а в чем?)) ведь если оствить всего одну ноду включенной, то все 4 карты пробрасываются спокойно
Я склонен считать, что либо это совпадение, либо надо копать в сторону багов в nova-compute. Или ошибки конфигурации.
Artyom
Я вот думаю что где-то в конфиге ошибка. Но представить даже пока не могу где...
Artyom
queens
Ilya
queens
Ты так настраиваешь: https://docs.openstack.org/nova/queens/admin/pci-passthrough.html ?
Artyom
type-PCI, type-PF and type-VF
Artyom
У меня стоит type-PCI
Artyom
а в чём между ними разница?
Ilya
а в чём между ними разница?
https://mohamede.com/2019/02/07/pci-passthrough-type-pf-type-vf-and-type-pci/
Artyom
passthrough_whitelist = { "vendor_id":"10de", "product_id":"118f" }
Artyom
lspci -nnv | grep -i nvidia 05:00.0 3D controller [0302]: NVIDIA Corporation GK104GL [Tesla K10] [10de:118f] (rev a1)
Алексей [PEBHOCTb]
Алиасы на всех нодах одинаковые?)
Ilya
дурацкий вопрос - а если compute ноды перегрузить?
Ilya
не могу пока это сделать
все таки похоже на проблему дров
Artyom
там есть windows виртуалки, которые в live migrate пока не мигрируют
Artyom
так что трогать нельзя
Ilya
в queens есть поддержка vGPU - логичнее копать туда а не в PCI passthrough
Artyom
k10 вроде как не умеет vgpu
Artyom
все таки похоже на проблему дров
ни на хостах, ни в виртуалках дров пока не стоит
Artyom
nouveau я вообще в blacklist отправил, т.к. на хосте мне оно не нужно
Ilya
nouveau я вообще в blacklist отправил, т.к. на хосте мне оно не нужно
ок - если через virsh запустить виртуалки на нодах - будут запускаться?
Artyom
я так ещё не запускал ни разу
Алексей [PEBHOCTb]
да, одинаковые
А ноды одинаковые и карты на них по pci одинаково расползаются?
Artyom
ноды одинаковые
Artyom
ща гляну адреса по pci
Artyom
да, одинаково
Алексей [PEBHOCTb]
А ради эксперимента, можно разные алиасы прописать на двух нодах
Artyom
сейчас попробую
Ilya
я так ещё не запускал ни разу
Эх... если через virsh запустить - можно как раз понять на каком уровне ошибки
Artyom
Очень интересно, я поменял alias на первой ноде (на ней виртуалок с видео не было), и перезапустил компьют сервис. Но второй ноде уже одна есть. По идее из-за смены алиаса должно было на вторую ноду попытаться созать виртуалку, а создалась всёравно на первой...
Artyom
Поменял правда только name в этом alias
Алексей [PEBHOCTb]
С железом и пробросом норм. Копай конфигурации)
Artyom
а alias получается надо и на контроллере задать и на ноде?