@pro_openstack

Страница 101 из 117
Tverd
08.02.2017
14:29:40
кстати на хабре статья про сеть https://habrahabr.ru/post/321442/

Artem
08.02.2017
14:33:54
@saamich ты предлагаешь запустить cinder-volume в кластере openstack и зарегистрировать его в openstack?
ну теоритически это можно сделать- если скорость работы не критична, но я предлагал запутсить вышеозвуечнные сервисы на любой ноде, где есть такая возможность

kay
08.02.2017
14:36:57
@saamich доступа к compute node нет. могу лишь только сервисы зарегистрировать через keystone service-create. сейчас вот запустил виртуалку со 100Gb root partition. И сразу же наткнулся на проблему. Ubuntu cloud image по умолчанию ресайзит partition до максимального размера. Сейчас пытаюсь понять как ужать текущий раздел.

* загрузиться в rescue cd? не понял как... вроде как можно только создать instance, который будет грузиться с ISO, но не перезагрузить текущий instance в ISO * запретить cloudinit ресайзить диск? тоже пока не понятно. * ресайзить диск наживую?

Google
kay
08.02.2017
14:48:22
@saamich запилил конфиг: #cloud-config growpart: mode: {{ grow_partition }} теперь при деплое виртуалка не ресайзит диск.

@saamich что-то не могу найти ман как cinder volume настраивать

и как его регистрировать в openstack service

Artem
08.02.2017
14:59:35
http://docs.openstack.org/mitaka/install-guide-rdo/cinder-storage-install.html

и как его регистрировать в openstack service
он не регистрируется, как понимаю регается api сервис

kay
08.02.2017
15:02:34
openstack compute service list | grep cinder пусто

Artem
08.02.2017
15:04:34
openstack compute service list | grep cinder пусто
http://docs.openstack.org/mitaka/install-guide-rdo/cinder-controller-install.html - примеры как зарегать там есть

но регается api

kay
08.02.2017
15:04:51
настраиваю сижу.

а обязательно использовать oslo_messaging_rabbit ? или его как-то отключить можно?

[DEFAULT] rpc_backend = fake

openstack service create --name cinder --description "OpenStack Block Storage" volume Could not find requested endpoint in Service Catalog.

Google
kay
08.02.2017
16:13:21
Засада. Rackspace чтоли отключил специально

Или может я что-то не так делаю?

Artem
08.02.2017
16:54:22
не скажу

kay
08.02.2017
16:55:40
не скажу
что бы это значило? знаешь, но не скажешь или не знаешь и не скажешь?

Artem
08.02.2017
16:56:08
не знаю и разбираться сейчас нет ни времени - ни желания

Михаил
09.02.2017
09:08:56
Для особо смелых есть новость CEPH v12.0.0 Luminous (dev) released

Марк ☢
09.02.2017
12:52:58
слабоумие и отвага

Mikhail
09.02.2017
12:58:45
вот кстати о первом: я тут ошибся немного с количеством нулей и попытался создать image размером почти в петабайт, ceph начал генерить объекты и на 20+ млн, часов через 12 ноды tier пула стали падать из-за нехватки памяти, на них было по 4гб озу, разделы диска по 500 гб

Mikhail
09.02.2017
13:01:03
сама операция создания имиджа на этом сдохла, но 20 млн объектов-то в пуле остались, я добавил памяти нодам, благо они на виртуалках и они теперь кушают по 50 гб озу

а дисков сколько в ноде ?
в тиер пуле 4 ноды с разделами по 500 гб

вот мне интересно, это у меня что-то не так пошло или сколько ж им памяти надо на большом объеме пула?

Марк ☢
09.02.2017
13:03:23
50 Гб это овердохуя

погоди. а как ты увидел что он жрёт 50Г ? (без приколов)

Mikhail
09.02.2017
13:04:47


Sergey
09.02.2017
13:05:32
так 5Г на осд

Mikhail
09.02.2017
13:05:42
и на всех четырех примерно так же

Марк ☢
09.02.2017
13:06:42
фигня какаято. пид-файл одинаковый, а пиды разные

и это не треды.

у тредов tid

Google
Sergey
09.02.2017
13:07:24
да нет, хтоп вполне показывает PID у тредов.

на экране одна и таже OSD

Марк ☢
09.02.2017
13:07:57
тогда почему пиды-то разные ?

не может быть что хтоп настолько тупой

Sergey
09.02.2017
13:08:25
тогда почему пиды-то разные ?
в колонке PID он пишет ID треда.

Марк ☢
09.02.2017
13:08:37
щас проверю

Sergey
09.02.2017
13:08:40
я проверил уже.

Марк ☢
09.02.2017
13:09:27
дебилы блять

Sergey
09.02.2017
13:09:43
дебилы блять
вай? ты показываешь или процессы, или процессы вперемешку с тредами.

Марк ☢
09.02.2017
13:09:55
поэтому есть TID а есть PID

Mikhail
09.02.2017
13:10:55
окей, это треды, процесс один

Марк ☢
09.02.2017
13:11:11
прост на скриншоте Михаила не видно сколько осд запущено одновременно.

Sergey
09.02.2017
13:11:34
Mikhail
09.02.2017
13:11:47
одна осд там

Sergey
09.02.2017
13:12:07
одна осд там
ну так эта osd ест 5 гб памяти, а не 50.

Марк ☢
09.02.2017
13:12:11
именно

а 50 это пейдж кеш поди просто. 45 тоесть

Mikhail
09.02.2017
13:17:47
окей, а второй вопрос - удалить эти объекты из тиера не позволяет, можно только сделать им evict, но как-то медленно очень получается, по 4-6 штук в секунду

почему так?

за сутки с небольшим 500 тыс эвиктнул

Google
Роман
09.02.2017
20:10:33
Товарищи, а в сравнении glusterfs и ceph: что быстрое/надежнее?

Здрасьте :)

Михаил
09.02.2017
20:10:59
от тут тебе сейчас точно расскажут о том какая боль glusterfs

Роман
09.02.2017
20:11:10
А я с удовольствием послушаю

Марк ☢
09.02.2017
20:18:00
Товарищи, а в сравнении glusterfs и ceph: что быстрое/надежнее?
Glusterfs — более надёжен и более быстр, если речь идёт о скорости потери данных.

тоесть надёжно падает. и быстро.

Роман
09.02.2017
20:18:41
А меня щас пугали сплитбрейнами гластера

Марк ☢
09.02.2017
20:18:46
и не зря

он просто сука зависает

и это селфхеалинг нихуя не работает

Роман
09.02.2017
20:20:30
glusterfs действительно проигрывает на мелких файлах. Для хранения образов виртуалок это не имеет значения. Для других данных может быть важно, например, что если glusterfs развалится напрочь, то файлы можно спасти, а ceph просто так не спасёшь. Ну и, например, для ceph есть поддержка монтирования в ядре. Но её нет в ovz-ядрах.

Мы поэтому не смогли перейти на ceph/

Но мы, например, держим на glusterfs в достаточно сложных условиях (нестабильная работа узлов) достаточно много файлов (сотни тысяч) на десяток терабайт объёма. Обычно glusterfs используют для хранения больших объёмов научных данных (хранилища в петабайты), уж не знаю, почему у них такой выбор.

Роман
09.02.2017
20:24:12
Просто столько разных мнений ))

Марк ☢
09.02.2017
20:24:59
прост когда на базовых операциях (выдирание винта на лету) приходится делать ребут всех нодов хранилки - это кагбы не айс

Роман
09.02.2017
20:25:31
Это для гластера так?

Марк ☢
09.02.2017
20:25:33
да

Google
Роман
09.02.2017
20:25:36
Ясн

Марк ☢
09.02.2017
20:25:47
выдирание внезапное имеется в виду

Роман
09.02.2017
20:25:54
Я понял

Роман
09.02.2017
20:29:49
Видимо, не нашли поддержку через fuse

Михаил
09.02.2017
20:29:57
лол

там прям в доке по cephfs Написано

вот ядрерный модуль вот fuse

Страница 101 из 117