![](http://files.telegrammy.net/img2/t_logo.png)
Tverd
08.02.2017
14:29:40
кстати на хабре статья про сеть
https://habrahabr.ru/post/321442/
![](http://files.telegrammy.net/img2/61/61180.jpg)
Artem
08.02.2017
14:33:54
![](http://files.telegrammy.net/img2/2/2334.jpg)
kay
08.02.2017
14:36:57
@saamich доступа к compute node нет. могу лишь только сервисы зарегистрировать через keystone service-create. сейчас вот запустил виртуалку со 100Gb root partition. И сразу же наткнулся на проблему. Ubuntu cloud image по умолчанию ресайзит partition до максимального размера. Сейчас пытаюсь понять как ужать текущий раздел.
* загрузиться в rescue cd? не понял как... вроде как можно только создать instance, который будет грузиться с ISO, но не перезагрузить текущий instance в ISO
* запретить cloudinit ресайзить диск? тоже пока не понятно.
* ресайзить диск наживую?
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/61/61180.jpg)
Artem
08.02.2017
14:41:10
![](http://files.telegrammy.net/img2/2/2334.jpg)
kay
08.02.2017
14:48:22
@saamich запилил конфиг:
#cloud-config
growpart:
mode: {{ grow_partition }}
теперь при деплое виртуалка не ресайзит диск.
@saamich что-то не могу найти ман как cinder volume настраивать
и как его регистрировать в openstack service
![](http://files.telegrammy.net/img2/61/61180.jpg)
Artem
08.02.2017
14:59:35
http://docs.openstack.org/mitaka/install-guide-rdo/cinder-storage-install.html
![](http://files.telegrammy.net/img2/2/2334.jpg)
kay
08.02.2017
15:02:34
openstack compute service list | grep cinder пусто
![](http://files.telegrammy.net/img2/61/61180.jpg)
Artem
08.02.2017
15:04:34
но регается api
![](http://files.telegrammy.net/img2/2/2334.jpg)
kay
08.02.2017
15:04:51
настраиваю сижу.
а обязательно использовать oslo_messaging_rabbit ? или его как-то отключить можно?
[DEFAULT]
rpc_backend = fake
openstack service create --name cinder --description "OpenStack Block Storage" volume
Could not find requested endpoint in Service Catalog.
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/2/2334.jpg)
kay
08.02.2017
16:13:21
Засада. Rackspace чтоли отключил специально
Или может я что-то не так делаю?
![](http://files.telegrammy.net/img2/61/61180.jpg)
Artem
08.02.2017
16:54:22
не скажу
![](http://files.telegrammy.net/img2/2/2334.jpg)
kay
08.02.2017
16:55:40
не скажу
что бы это значило? знаешь, но не скажешь или не знаешь и не скажешь?
![](http://files.telegrammy.net/img2/61/61180.jpg)
Artem
08.02.2017
16:56:08
не знаю и разбираться сейчас нет ни времени - ни желания
![](http://files.telegrammy.net/img2/5/5930.jpg)
Михаил
09.02.2017
09:08:56
Для особо смелых есть новость
CEPH v12.0.0 Luminous (dev) released
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
12:52:58
слабоумие и отвага
![](http://files.telegrammy.net/img2/t_logo.png)
Mikhail
09.02.2017
12:58:45
вот кстати о первом: я тут ошибся немного с количеством нулей и попытался создать image размером почти в петабайт, ceph начал генерить объекты и на 20+ млн, часов через 12 ноды tier пула стали падать из-за нехватки памяти, на них было по 4гб озу, разделы диска по 500 гб
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:00:44
![](http://files.telegrammy.net/img2/t_logo.png)
Mikhail
09.02.2017
13:01:03
сама операция создания имиджа на этом сдохла, но 20 млн объектов-то в пуле остались, я добавил памяти нодам, благо они на виртуалках и они теперь кушают по 50 гб озу
вот мне интересно, это у меня что-то не так пошло или сколько ж им памяти надо на большом объеме пула?
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:03:23
50 Гб это овердохуя
погоди. а как ты увидел что он жрёт 50Г ? (без приколов)
![](http://files.telegrammy.net/img2/t_logo.png)
Mikhail
09.02.2017
13:04:47
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
09.02.2017
13:05:32
так 5Г на осд
![](http://files.telegrammy.net/img2/t_logo.png)
Mikhail
09.02.2017
13:05:42
и на всех четырех примерно так же
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:06:42
фигня какаято. пид-файл одинаковый, а пиды разные
и это не треды.
у тредов tid
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
09.02.2017
13:07:24
да нет, хтоп вполне показывает PID у тредов.
на экране одна и таже OSD
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:07:57
тогда почему пиды-то разные ?
не может быть что хтоп настолько тупой
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
09.02.2017
13:08:25
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:08:37
щас проверю
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
09.02.2017
13:08:40
я проверил уже.
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:09:27
дебилы блять
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
09.02.2017
13:09:43
дебилы блять
вай?
ты показываешь или процессы, или процессы вперемешку с тредами.
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:09:55
поэтому есть TID а есть PID
![](http://files.telegrammy.net/img2/t_logo.png)
Mikhail
09.02.2017
13:10:55
окей, это треды, процесс один
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:11:11
прост на скриншоте Михаила не видно сколько осд запущено одновременно.
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
09.02.2017
13:11:34
![](http://files.telegrammy.net/img2/t_logo.png)
Mikhail
09.02.2017
13:11:47
одна осд там
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
09.02.2017
13:12:07
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
13:12:11
именно
а 50 это пейдж кеш поди просто. 45 тоесть
![](http://files.telegrammy.net/img2/t_logo.png)
Mikhail
09.02.2017
13:17:47
окей, а второй вопрос - удалить эти объекты из тиера не позволяет, можно только сделать им evict, но как-то медленно очень получается, по 4-6 штук в секунду
почему так?
за сутки с небольшим 500 тыс эвиктнул
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:10:33
Товарищи, а в сравнении glusterfs и ceph: что быстрое/надежнее?
Здрасьте :)
![](http://files.telegrammy.net/img2/5/5930.jpg)
Михаил
09.02.2017
20:10:59
от тут тебе сейчас точно расскажут о том какая боль glusterfs
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:11:10
А я с удовольствием послушаю
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
20:18:00
тоесть надёжно падает. и быстро.
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:18:41
А меня щас пугали сплитбрейнами гластера
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
20:18:46
и не зря
он просто сука зависает
и это селфхеалинг нихуя не работает
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:20:30
glusterfs действительно проигрывает на мелких файлах. Для хранения образов виртуалок это не имеет значения. Для других данных может быть важно, например, что если glusterfs развалится напрочь, то файлы можно спасти, а ceph просто так не спасёшь.
Ну и, например, для ceph есть поддержка монтирования в ядре. Но её нет в ovz-ядрах.
Мы поэтому не смогли перейти на ceph/
Но мы, например, держим на glusterfs в достаточно сложных условиях (нестабильная работа узлов) достаточно много файлов (сотни тысяч) на десяток терабайт объёма.
Обычно glusterfs используют для хранения больших объёмов научных данных (хранилища в петабайты), уж не знаю, почему у них такой выбор.
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
20:21:56
нельзя спасти
можно спасти некий трешачок недописанный
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:24:12
Просто столько разных мнений ))
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
20:24:59
прост когда на базовых операциях (выдирание винта на лету) приходится делать ребут всех нодов хранилки - это кагбы не айс
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:25:31
Это для гластера так?
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
20:25:33
да
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:25:36
Ясн
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
09.02.2017
20:25:47
выдирание внезапное имеется в виду
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:25:54
Я понял
![](http://files.telegrammy.net/img2/5/5930.jpg)
Михаил
09.02.2017
20:28:31
ну да ладно, это к гделу не относится
хотя емнип гластерфс же fuse? ceph Тоже может fuse и ядерный модуль
![](http://files.telegrammy.net/img2/34/34064.jpg)
Роман
09.02.2017
20:29:49
Видимо, не нашли поддержку через fuse
![](http://files.telegrammy.net/img2/5/5930.jpg)
Михаил
09.02.2017
20:29:57
лол
там прям в доке по cephfs Написано
вот ядрерный модуль вот fuse