@openstack_russia

Страница 31 из 32
Mike
28.02.2017
22:34:23


Михаил
28.02.2017
22:36:23
потому что могут)

это что за мероприятие?

Mike
28.02.2017
22:37:15
https://www.youtube.com/watch?v=3pcuOUa5_iQ

Google
Mike
28.02.2017
22:37:36
CentOS Dojo, как я понял

а ну да, там на тумбе оратора написано.

они конечно молодцы. У них и ironic, тестируется manila на cephfs, тестят mistral. И спокойно прыгают по версиям, не сидят на одной.

Mike
28.02.2017
22:44:59
команда да, большая. Но и работы много.

они ещё и докер используют, kubernetes и всё в openstack

Марк ☢
01.03.2017
07:24:06
Там еще опеншыфт есть. Как он с опенстеком связан ?

Nikita
01.03.2017
11:22:42
https://telegram.me/vr_developers Объединяем VR разработчиков. Просьба отнестись с пониманием!

Top
03.03.2017
06:47:14
Всем привет. Есть вопрос. Ситуация следующая: Есть openstack развернутый с помощью Fuel 9.2. Сами ноды развернуты на двух хостах VMware ESXi 5.1. На одном хосте Compute030, Controller030, Cinder030 и Compute040, Controller040, Cinder040 соответсвенно на другом. В гипервизоре картинка получается такая: node-73.stack.loc QEMU CPU-8 RAM-5,8ГБ node-76.stack.loc QEMU CPU-8 RAM-9,8ГБ Если создается инстанс с количеством процессоров 8 и объемом памяти 5 — все хорошо. Если же процессоров 9 или объем памяти 12, то ошибка ([Error: No valid host was found. There are not enough hosts available.].) Вопрос: Разве не должен openstack объединять ресурсы в единый пул для разворачивания на нем инстансов?

Ilya
03.03.2017
06:56:39
не должен - вмки разворачиваются в объеме максимально доступном на хосте

можете увеличить коэффициент переподписки

тогда scheduling пройдет, но под нагрузкой по понятным причинам могут быть разные сложности

Top
03.03.2017
06:58:34
Печаль беда. То есть если мне нужна машина с 64 процессорами, а у меня два сервера по 32, то openstack мне подходит? :(

Google
Denis
03.03.2017
07:02:12
Записи выступлений будут?
https://www.youtube.com/watch?v=jWlhmz91Gtc&list=PLGfYcGZHdMozQZntwwlitK9oRYr-UMCdv

коллеги, звук не очень, часть выступлений записаны неполностью

Top
03.03.2017
07:09:28
Понял, спасибо.

Михаил
03.03.2017
07:10:37
https://www.youtube.com/watch?v=jWlhmz91Gtc&list=PLGfYcGZHdMozQZntwwlitK9oRYr-UMCdv
Ох. То есть меня все таки писали?)

Ilya
03.03.2017
07:11:09
Круть!

Юсупов
03.03.2017
07:11:46
?

Старый
03.03.2017
07:12:15
Михаил
03.03.2017
07:13:49
требуй гонорар
Сначала с тебя)

Старый
03.03.2017
07:14:06
Сначала с тебя)
а с меня зачем?

Тимур
03.03.2017
07:23:36
Народ, скиньте плз презы :) Особенно Mikhail :)

Ilya
03.03.2017
07:25:17
Народ, скиньте плз презы :) Особенно Mikhail :)
Я подредактирую и выложу на выходных

Тимур
03.03.2017
07:25:28
спасибо :)

Юсупов
03.03.2017
07:28:34
Тоже жду :)

Старый
03.03.2017
08:31:12
Посмотрел, ожидал больше информации. Что же вы так btrfs не любите.
Потому что они фанаты бубунты, а там вечно не могут к ней модули собрать

Михаил
03.03.2017
08:33:54
цефоводов

Google
Mike
03.03.2017
08:34:07
Потому что они фанаты бубунты, а там вечно не могут к ней модули собрать
Вопрос веры или нет, решается легко. Смотрим, какой функционал использует ceph с btrfs, смотрим что SuSe поддерживает в btrfs и что объявленной стабильным. Дальше вопросы пропадают, т.к. иметь error check during read - полезно.

так доклад же для начинающих
Ок, значит распиарили сильно :)

Михаил
03.03.2017
08:35:17
Ок, значит распиарили сильно :)
там про all flash CEPH доклад ок

Mike
03.03.2017
08:36:00
А bluestore еще минимум год не видать. К тому же требование а железу немного другие будут.

Михаил
03.03.2017
08:36:32
расскажи про блюстор в проде)

и еще на Linux Piter был доклад

по блюстор в проде

жду записей

Mike
03.03.2017
08:37:05
Ребята конечно экстремалы

Михаил
03.03.2017
08:37:17
экстрим это nobarrier на xfs )

Admin


Михаил
03.03.2017
08:37:25
зато быстро чо)

Mike
03.03.2017
08:37:28
Вижу как в рассылке постоянно появлятся письма с проблемами у голубого. Память течет, асерты ловят, проблемы с rocksdb.

Denis
03.03.2017
08:52:46
Ох. То есть меня все таки писали?)
Простите) Остальных тоже писали, они идут дальше по плейлисту

Тимур
03.03.2017
08:53:15
спасибо!

Марк ☢
03.03.2017
12:17:22
Вопрос веры или нет, решается легко. Смотрим, какой функционал использует ceph с btrfs, смотрим что SuSe поддерживает в btrfs и что объявленной стабильным. Дальше вопросы пропадают, т.к. иметь error check during read - полезно.
Говорят, что цеф использует в бтрфсе снапшоты неимоверно. И когда он начинает их удалять то возникает пинцет, баги, апокалипсис, торможение, пропажа свободного места и тд

Google
Марк ☢
03.03.2017
12:18:15
расскажи про блюстор в проде)
Не. Оно сразу попадало. Какие трейсбеки типа даблфрии или чтото в этом роде

И еще цеф-деплой с ним глючит

Mike
03.03.2017
12:26:48
Говорят, что цеф использует в бтрфсе снапшоты неимоверно. И когда он начинает их удалять то возникает пинцет, баги, апокалипсис, торможение, пропажа свободного места и тд
Так он удаляет снапшот сразу почти. На файловой системе видишь два последних снапшота. У меня проблем не возникало.

Sergey
03.03.2017
12:54:42
Так он удаляет снапшот сразу почти. На файловой системе видишь два последних снапшота. У меня проблем не возникало.
а что произойдёт при удалении пула с большим количеством объектов? а что произойдет при уменьшении размера пула?

Mike
03.03.2017
12:56:29
Менял size, менял тип с EC на реплику. Заливал терабайты и удалял - все норм.

Sergey
03.03.2017
12:58:54
Mike
03.03.2017
12:59:09
У меня одна из нод вылетела с аппаратными ошибками в памяти, кластер перестроился и работает.

Mike
03.03.2017
12:59:59
менял size (вниз), btrfs встал раком на 90 часов.
Надо смотреть какое ядро и какой версией утилит была создана fs

Sergey
03.03.2017
13:00:13
Надо смотреть какое ядро и какой версией утилит была создана fs
я давно хочу стенд собрать с попыткой воспроизвести.

это была CentOS-7 с ее ванильным ядром.

Mike
03.03.2017
13:02:06
Нет, базовым ядром не стоит. Надо использовать новые LTS и новые версии утилит.

С этой стороны, да, больше нужно действий, что бы поддерживать btrfs

Sergey
03.03.2017
13:03:04
RH так-то портирует нормально фичи в ядро назад. и история была больше года назад, оно еще не было таким говном мамонта.

возможно и правда там полегчало. если так - я рад.

Mike
03.03.2017
13:04:50
Очень важна версия утилит, от них очень много зависит

Ilya
03.03.2017
20:17:09
Уважаемые пользователи. В связи с тем, что тематика канала pro_openstack перерастает в ceph only, то канал переименовывается в @ceph_ru. Обсуждение openstack переноситься в @openstack_russia для обсуждения облачных технологий создан канал @cloud_ru. Для беспробудного флуда и холиваров канал @cloud_flood.

Страница 31 из 32