
Mike
28.02.2017
22:34:23

Михаил
28.02.2017
22:36:23
потому что могут)
это что за мероприятие?

Mike
28.02.2017
22:37:15
https://www.youtube.com/watch?v=3pcuOUa5_iQ

Google

Mike
28.02.2017
22:37:36
CentOS Dojo, как я понял
а ну да, там на тумбе оратора написано.
они конечно молодцы. У них и ironic, тестируется manila на cephfs, тестят mistral. И спокойно прыгают по версиям, не сидят на одной.

Михаил
28.02.2017
22:43:47

Mike
28.02.2017
22:44:59
команда да, большая. Но и работы много.
они ещё и докер используют, kubernetes и всё в openstack

Марк ☢
01.03.2017
07:24:06
Там еще опеншыфт есть. Как он с опенстеком связан ?

Nikita
01.03.2017
11:22:42
https://telegram.me/vr_developers
Объединяем VR разработчиков.
Просьба отнестись с пониманием!

Top
03.03.2017
06:47:14
Всем привет. Есть вопрос.
Ситуация следующая:
Есть openstack развернутый с помощью Fuel 9.2. Сами ноды развернуты на двух хостах VMware ESXi 5.1. На одном хосте Compute030, Controller030, Cinder030 и Compute040, Controller040, Cinder040 соответсвенно на другом.
В гипервизоре картинка получается такая:
node-73.stack.loc QEMU CPU-8 RAM-5,8ГБ
node-76.stack.loc QEMU CPU-8 RAM-9,8ГБ
Если создается инстанс с количеством процессоров 8 и объемом памяти 5 — все хорошо. Если же процессоров 9 или объем памяти 12, то ошибка ([Error: No valid host was found. There are not enough hosts available.].)
Вопрос: Разве не должен openstack объединять ресурсы в единый пул для разворачивания на нем инстансов?

Ilya
03.03.2017
06:56:39
не должен - вмки разворачиваются в объеме максимально доступном на хосте
можете увеличить коэффициент переподписки
тогда scheduling пройдет, но под нагрузкой по понятным причинам могут быть разные сложности

Top
03.03.2017
06:58:34
Печаль беда. То есть если мне нужна машина с 64 процессорами, а у меня два сервера по 32, то openstack мне подходит? :(

Google

Denis
03.03.2017
07:02:12
коллеги, звук не очень, часть выступлений записаны неполностью

Ilya
03.03.2017
07:09:05

Top
03.03.2017
07:09:28
Понял, спасибо.

Михаил
03.03.2017
07:10:37

Ilya
03.03.2017
07:11:09
Круть!

Юсупов
03.03.2017
07:11:46
?

Старый
03.03.2017
07:12:15

Михаил
03.03.2017
07:13:49

Старый
03.03.2017
07:14:06

Тимур
03.03.2017
07:23:36
Народ, скиньте плз презы :) Особенно Mikhail :)

Ilya
03.03.2017
07:25:17

Тимур
03.03.2017
07:25:28
спасибо :)

Юсупов
03.03.2017
07:28:34
Тоже жду :)

Mike
03.03.2017
08:11:25
Посмотрел, ожидал больше информации. Что же вы так btrfs не любите.

Старый
03.03.2017
08:31:12

Михаил
03.03.2017
08:33:54
цефоводов

Google

Mike
03.03.2017
08:34:07

Михаил
03.03.2017
08:35:17

Mike
03.03.2017
08:36:00
А bluestore еще минимум год не видать. К тому же требование а железу немного другие будут.

Михаил
03.03.2017
08:36:32
расскажи про блюстор в проде)
и еще на Linux Piter был доклад
по блюстор в проде
жду записей

Mike
03.03.2017
08:37:05
Ребята конечно экстремалы

Михаил
03.03.2017
08:37:17
экстрим это nobarrier на xfs )

Admin

Михаил
03.03.2017
08:37:25
зато быстро чо)

Mike
03.03.2017
08:37:28
Вижу как в рассылке постоянно появлятся письма с проблемами у голубого. Память течет, асерты ловят, проблемы с rocksdb.

Михаил
03.03.2017
08:48:01

Denis
03.03.2017
08:52:46

Тимур
03.03.2017
08:53:15
спасибо!

Марк ☢
03.03.2017
12:17:22

Google

Марк ☢
03.03.2017
12:18:15
И еще цеф-деплой с ним глючит

Mike
03.03.2017
12:26:48

Sergey
03.03.2017
12:54:42

Mike
03.03.2017
12:56:29
Менял size, менял тип с EC на реплику. Заливал терабайты и удалял - все норм.

Sergey
03.03.2017
12:58:54

Mike
03.03.2017
12:59:09
У меня одна из нод вылетела с аппаратными ошибками в памяти, кластер перестроился и работает.

Sergey
03.03.2017
12:59:33

Mike
03.03.2017
12:59:59

Sergey
03.03.2017
13:00:13
это была CentOS-7 с ее ванильным ядром.

Mike
03.03.2017
13:02:06
Нет, базовым ядром не стоит. Надо использовать новые LTS и новые версии утилит.
С этой стороны, да, больше нужно действий, что бы поддерживать btrfs

Sergey
03.03.2017
13:03:04
RH так-то портирует нормально фичи в ядро назад.
и история была больше года назад, оно еще не было таким говном мамонта.
возможно и правда там полегчало. если так - я рад.

Mike
03.03.2017
13:04:50
Очень важна версия утилит, от них очень много зависит

Ilya
03.03.2017
20:17:09
Уважаемые пользователи. В связи с тем, что тематика канала pro_openstack перерастает в ceph only, то канал переименовывается в @ceph_ru.
Обсуждение openstack переноситься в @openstack_russia
для обсуждения облачных технологий создан канал @cloud_ru. Для беспробудного флуда и холиваров канал @cloud_flood.