Mike
28.02.2017
22:34:23
Михаил
28.02.2017
22:36:23
потому что могут)
это что за мероприятие?
Mike
28.02.2017
22:37:15
https://www.youtube.com/watch?v=3pcuOUa5_iQ
Google
Mike
28.02.2017
22:37:36
CentOS Dojo, как я понял
а ну да, там на тумбе оратора написано.
они конечно молодцы. У них и ironic, тестируется manila на cephfs, тестят mistral. И спокойно прыгают по версиям, не сидят на одной.
Михаил
28.02.2017
22:43:47
Mike
28.02.2017
22:44:59
команда да, большая. Но и работы много.
они ещё и докер используют, kubernetes и всё в openstack
Марк ☢
01.03.2017
07:24:06
Там еще опеншыфт есть. Как он с опенстеком связан ?
Nikita
01.03.2017
11:22:42
https://telegram.me/vr_developers
Объединяем VR разработчиков.
Просьба отнестись с пониманием!
Top
03.03.2017
06:47:14
Всем привет. Есть вопрос.
Ситуация следующая:
Есть openstack развернутый с помощью Fuel 9.2. Сами ноды развернуты на двух хостах VMware ESXi 5.1. На одном хосте Compute030, Controller030, Cinder030 и Compute040, Controller040, Cinder040 соответсвенно на другом.
В гипервизоре картинка получается такая:
node-73.stack.loc QEMU CPU-8 RAM-5,8ГБ
node-76.stack.loc QEMU CPU-8 RAM-9,8ГБ
Если создается инстанс с количеством процессоров 8 и объемом памяти 5 — все хорошо. Если же процессоров 9 или объем памяти 12, то ошибка ([Error: No valid host was found. There are not enough hosts available.].)
Вопрос: Разве не должен openstack объединять ресурсы в единый пул для разворачивания на нем инстансов?
Ilya
03.03.2017
06:56:39
не должен - вмки разворачиваются в объеме максимально доступном на хосте
можете увеличить коэффициент переподписки
тогда scheduling пройдет, но под нагрузкой по понятным причинам могут быть разные сложности
Top
03.03.2017
06:58:34
Печаль беда. То есть если мне нужна машина с 64 процессорами, а у меня два сервера по 32, то openstack мне подходит? :(
Google
Denis
03.03.2017
07:02:12
коллеги, звук не очень, часть выступлений записаны неполностью
Ilya
03.03.2017
07:09:05
Top
03.03.2017
07:09:28
Понял, спасибо.
Михаил
03.03.2017
07:10:37
Ilya
03.03.2017
07:11:09
Круть!
Юсупов
03.03.2017
07:11:46
?
Старый
03.03.2017
07:12:15
Михаил
03.03.2017
07:13:49
Старый
03.03.2017
07:14:06
Тимур
03.03.2017
07:23:36
Народ, скиньте плз презы :) Особенно Mikhail :)
Ilya
03.03.2017
07:25:17
Тимур
03.03.2017
07:25:28
спасибо :)
Юсупов
03.03.2017
07:28:34
Тоже жду :)
Mike
03.03.2017
08:11:25
Посмотрел, ожидал больше информации. Что же вы так btrfs не любите.
Старый
03.03.2017
08:31:12
Михаил
03.03.2017
08:33:54
цефоводов
Google
Mike
03.03.2017
08:34:07
Михаил
03.03.2017
08:35:17
Mike
03.03.2017
08:36:00
А bluestore еще минимум год не видать. К тому же требование а железу немного другие будут.
Михаил
03.03.2017
08:36:32
расскажи про блюстор в проде)
и еще на Linux Piter был доклад
по блюстор в проде
жду записей
Mike
03.03.2017
08:37:05
Ребята конечно экстремалы
Михаил
03.03.2017
08:37:17
экстрим это nobarrier на xfs )
зато быстро чо)
Mike
03.03.2017
08:37:28
Вижу как в рассылке постоянно появлятся письма с проблемами у голубого. Память течет, асерты ловят, проблемы с rocksdb.
Михаил
03.03.2017
08:48:01
Denis
03.03.2017
08:52:46
Тимур
03.03.2017
08:53:15
спасибо!
Марк ☢
03.03.2017
12:17:22
Google
Марк ☢
03.03.2017
12:18:55
И еще цеф-деплой с ним глючит
Mike
03.03.2017
12:26:48
Sergey
03.03.2017
12:54:42
Mike
03.03.2017
12:56:29
Менял size, менял тип с EC на реплику. Заливал терабайты и удалял - все норм.
Sergey
03.03.2017
12:58:54
Mike
03.03.2017
12:59:09
У меня одна из нод вылетела с аппаратными ошибками в памяти, кластер перестроился и работает.
Sergey
03.03.2017
12:59:33
Mike
03.03.2017
12:59:59
Sergey
03.03.2017
13:00:13
это была CentOS-7 с ее ванильным ядром.
Mike
03.03.2017
13:02:06
Нет, базовым ядром не стоит. Надо использовать новые LTS и новые версии утилит.
С этой стороны, да, больше нужно действий, что бы поддерживать btrfs
Sergey
03.03.2017
13:03:04
RH так-то портирует нормально фичи в ядро назад.
и история была больше года назад, оно еще не было таким говном мамонта.
возможно и правда там полегчало. если так - я рад.
Mike
03.03.2017
13:04:50
Очень важна версия утилит, от них очень много зависит
Ilya
03.03.2017
20:17:09
Уважаемые пользователи. В связи с тем, что тематика канала pro_openstack перерастает в ceph only, то канал переименовывается в @ceph_ru.
Обсуждение openstack переноситься в @openstack_russia
для обсуждения облачных технологий создан канал @cloud_ru. Для беспробудного флуда и холиваров канал @cloud_flood.