
Ильдар
08.11.2016
09:24:35
тут недавно скидывали статейку на хабр

Dmitry
08.11.2016
09:24:39
но уже не новая

Ильдар
08.11.2016
09:24:45

Google

Danila
08.11.2016
09:24:48
Спасибо!

Dmitry
08.11.2016
09:24:51
хз актуальность

Roman
08.11.2016
09:38:04

Марк ☢
08.11.2016
09:38:36
ну да, а шо

Roman
08.11.2016
09:38:47

Ильдар
08.11.2016
09:40:37
ceph и openstack вряд ли будет, но всё же
https://special.habrahabr.ru/highload/2016/

Михаил
08.11.2016
09:41:44

Марк ☢
08.11.2016
09:45:04
Коротко: Если во время записи страницы в режиме O_DIRECT её содержимое меняется, то на разные половинки зеркала может записаться разная информация. При нормальной записи (через Page Cache) там выставляется перед началом реального IO copy-on-write, поэтому такого не происходит.

Dmitry
08.11.2016
09:45:41

Vladimir
08.11.2016
09:45:58
хайлоад не нужен, кажется
я в прошлом году ходил, ваще не зашло

Михаил
08.11.2016
09:46:06

Google

Dmitry
08.11.2016
09:46:17
просто реально - посмотрел доклад зайцева
он там монгу с мускулом сравнивает
и налил стока воды, что пиздец

Roman
08.11.2016
09:52:18

Dmitry
08.11.2016
09:54:26
парни, ну не надо рейд под цеф

Марк ☢
08.11.2016
09:54:29

Dmitry
08.11.2016
09:54:33
вот написано же на хабре почему

Марк ☢
08.11.2016
09:54:35

Dmitry
08.11.2016
09:55:24
Другой разговор, что это не будет иметь смысла. Следует отметить и то, что благодаря программной определяемости, хранилище можно поднять даже поверх RAID или iSCSI-устройства, однако в большинстве случаев это тоже не будет иметь смысла.
https://habrahabr.ru/post/313644/ все отсюда же

Roman
08.11.2016
09:55:45

Dmitry
08.11.2016
09:55:48
надо просто задать себе вопрос зачем?
у вас есть OSD
сеф вам все и сам размажет
нахрена рейд городить?!
я, конечно, маску нашел и в проде его не юзал

Михаил
08.11.2016
09:58:44

Google

Dmitry
08.11.2016
09:59:04

Михаил
08.11.2016
10:03:20
к нам тут приходили какие-то азиаты продавать свою версию цефа у них такое прямо в проде

Dmitry
08.11.2016
10:19:39
Миш, ну логика же
ты плодишь сущности и слои
это как делать зфс на лвме

Марк ☢
08.11.2016
10:20:46
в этом то и соль

Михаил
08.11.2016
10:20:51
да, сущности, но тут у тебя нет ребилдда всего кластера при падении OSD

Dmitry
08.11.2016
10:21:09

Марк ☢
08.11.2016
10:21:24

Михаил
08.11.2016
10:21:37

Марк ☢
08.11.2016
10:22:03

Михаил
08.11.2016
10:22:17
ну то у тебя тормозит один OSD
а так весь кластер)

Марк ☢
08.11.2016
10:22:28
а так как данные размазаны равномерно по цефу, то обязательно попадется чтонть именно на твоем осд.

Михаил
08.11.2016
10:22:41

Марк ☢
08.11.2016
10:23:20
а вот и не весь!
хотя есть необльшой нанопрофит — в рэйде при синхронизации не занимается полоса пропускания в сети хранилища

Михаил
08.11.2016
10:25:36

Roman
08.11.2016
12:43:27
http://lkml.iu.edu/hypermail/linux/kernel/1610.1/01395.html

Google

Марк ☢
08.11.2016
13:24:36
43 files changed, 1563 insertions(+), 1071 deletions(-)

kay
08.11.2016
15:35:08
Кто-нибудь работал с rackspace private cloud?

Nick
08.11.2016
15:59:44
я мигрировал с него клиентов к себе :)

kay
08.11.2016
16:06:58
по сути это тот же openstack?

Nick
08.11.2016
16:11:06
снаружи (в API) это тот же Openstack


kay
08.11.2016
17:18:59
Я тут пытаюсь довольно банальную задачу решить. Час потратил. Задача: из командной строки задать URL для образа и скачать этот URL в openstack.
Большинство мануалов для старой версии, потому пришлось немного повозиться с параметрами.
Новая версия, которая не сохраняет образ в кэш:
$ glance image-create --name "Ubuntu 16.04 LTS - Xenial Xerus - 64-bit - Cloud Based Image" --visibility private --container-format bare --disk-format qcow2
# get the image id from output
$ glance location-add --url https://cloud-images.ubuntu.com/xenial/current/xenial-server-cloudimg-amd64-disk1.img ${IMAGE_ID}
Старый API, который позволяет сохранить образ в кэш:
glance --os-image-api-version 1 image-create --name "Ubuntu 16.04 LTS - Xenial Xerus - 64-bit - Cloud Based Image" --is-public false --container-format bare --disk-format qcow2 --copy-from https://cloud-images.ubuntu.com/xenial/current/xenial-server-cloudimg-amd64-disk1.img
Вопрос. Как в V2 API заставить openstack скачать данные?
а есть ли смысл поднимать flannel на openstack для k8s? или можно разрулить средствами neutron?


Михаил
09.11.2016
09:24:48
а ты что сделать то пытаешься? magnum запустить?

kay
09.11.2016
09:25:10
зарулить все docker контейнеры в одну сеть.
желательно конечно разграничить доступ между k8s namespace'ами
я так понимаю надо для этого kuryr использовать?

Михаил
09.11.2016
09:33:37
Уф, я боюсь в этом чате ты первый, кто запускает k8s в опенстеке
OpenStack Russia
Группа русскоговорящего сообщества OpenStack. Обсуждаем все про OpenStack, от использования до инсталляции, и от переводов до отправки патчей в апстрим.
https://telegram.me/openstack_russia
Попробуй у них спросить

Dmitry
09.11.2016
09:34:15
кожанный крепкий чехол для яиц этому господину

Михаил
09.11.2016
09:34:50
Только когда запустишь всё это не забудь нам рассказать
Мне это через пару месяцев тоже внедрять

Старый
09.11.2016
09:35:21
жалко тут нет никого, кто redhat openstack в россии использует

Михаил
09.11.2016
09:35:37

Старый
09.11.2016
09:36:07

Google

Sergey
09.11.2016
09:36:17
у этого господина яйца и так достаточно крепки, без чехла.
:)

Михаил
09.11.2016
09:36:33

kay
09.11.2016
09:36:41
ну если flannel запускать, то двойной overlay получится. если его контролировать, то еще и calico впиливать. почему бы не использовать neutron, где уже всё искоробки есть

Sergey
09.11.2016
09:36:58

kay
09.11.2016
09:37:31

Sergey
09.11.2016
09:37:40
нет, конечно.

kay
09.11.2016
09:37:52
тогда буду курить курилку

Михаил
09.11.2016
09:39:59

kay
09.11.2016
09:40:27

Sergey
09.11.2016
09:40:34

Михаил
09.11.2016
09:41:36

Sergey
09.11.2016
09:42:10

kay
09.11.2016
09:43:19
а кто пояснит, openvswitch это замена neutron или он дополняет его?

Sergey
09.11.2016
09:45:01
openvswitch - это нижележащий драйвер для neutron

kay
09.11.2016
09:47:39
я только вчера начал разбираться с openstack. так что возможно многие вопросы глупыми покажутся.
neutron по умолчанию работает с openvswitch?

Sergey
09.11.2016
09:48:10
ну канонический сетап такой, что используется openvswitch.
так-то вообще вариантов много. можно и calico подсунуть.

kay
09.11.2016
09:48:40
k8s умеет работать с openvswitch. в чем тогда преимущества kuryr?

Sergey
09.11.2016
09:49:16
не знаю даже, что это такое.
лично мне идея запускать k8s поверх openstack кажется странной. вариант наоборот мне нравится больше :)