Александр
13.02.2017
10:06:47
Ну так, интересны прогнозы спецов
Sheridan
13.02.2017
10:07:18
Александр
13.02.2017
10:07:36
Ilia
13.02.2017
10:09:29
Google
Радик
13.02.2017
10:10:50
Очпочмак ;)
AnswerX
13.02.2017
10:11:46
опенстек перерастет с платформы в часть бОльшего продукта, вот и все
Александр
13.02.2017
10:15:34
mosix так же должен был, только где он сейчас?
Михаил
13.02.2017
10:16:09
Александр
13.02.2017
10:17:00
)))
Радик
13.02.2017
10:18:04
@SinTeZoiD не могу ответить за коллег )
Выполняю просьбу ребят )
Михаил
13.02.2017
10:18:34
Александр
13.02.2017
10:21:02
O_o а что за курсы?
Михаил
13.02.2017
10:22:47
Александр
13.02.2017
10:24:21
Я понял, я про где и т.д.
Михаил
13.02.2017
10:27:00
Александр
13.02.2017
10:27:18
Ага, спасибо.
Блять, 15 февраля
Google
Александр
13.02.2017
10:27:33
Смишно
А потом будут ещё?
Т.е. когда след поток будет?
Радик
13.02.2017
10:28:29
Пока не знаю
Из Казани там пару человек
И все устроены )
Михаил
13.02.2017
10:29:41
Александр
13.02.2017
10:29:56
Михаил
13.02.2017
10:30:38
чей-то? ливать собрался?)
Александр
13.02.2017
10:31:41
Ну скорее для общего развития и внедрения у себя
Михаил
13.02.2017
10:34:23
Вам не нужен
Александр
13.02.2017
10:34:41
С чего решил?)
Не под виртуализацию)
Михаил
13.02.2017
10:35:14
лол
а подо что?
Александр
13.02.2017
10:35:33
Ну, всмысле, не для того для чего я ceph внедряю
У нас есть продукт свой, который начальник мой пилит
Вот под него возможно, там среда разработки+релиза и т.д.
Михаил
13.02.2017
10:37:13
девопсами запахло)
Александр
13.02.2017
10:37:23
Ацтань, я эникей
Google
ptchol
13.02.2017
10:37:44
ты понь
Александр
13.02.2017
10:37:58
ты понь
Не мешает быть Царём-Эникеем
Nikita
13.02.2017
10:38:24
а насколько плохо юзать опенстек без raid 1?
Sheridan
13.02.2017
10:38:31
Михаил
13.02.2017
10:39:33
что ты имеешь ввиду?
Nikita
13.02.2017
10:39:53
в доке указано что рекомендед Raid1
но проблема в том что у меня нет аппаратных рейд-контроллеров
Михаил
13.02.2017
10:40:33
Ivan
13.02.2017
10:42:34
Nikita
13.02.2017
10:43:22
Storage Hardware RAID 1 controller with at least 500 GB capacity for the host operating system disk
Ivan
13.02.2017
10:49:21
https://bugs.launchpad.net/fuel/+bug/1379181
Nikita
13.02.2017
10:51:04
ага, спасибо
еще правда у меня вторых дисков нет
но это решаемо :)
Марк ☢
13.02.2017
20:44:46
http://xn--80abuggrg4a.xn--p1ai/ru
что это, кто-нибудь знает ?
Михаил
13.02.2017
20:46:21
пахнет импортозамещением
Марк ☢
13.02.2017
20:47:42
именно. и это наверняка перелицованное что-то.
Google
Михаил
13.02.2017
20:48:32
http://полибайт.рф/assets/data/polibyte_about_1.pdf
Протоколы обмена RBD
вот те и ответ
Марк ☢
13.02.2017
20:48:51
как я чётенько отгадал!
Михаил
13.02.2017
20:49:21
ну это было не сложно
Fike
13.02.2017
20:49:44
как раз для вечерней булимии
Марк ☢
13.02.2017
20:50:50
пахнет импортозамещением
http://ru.pcmag.com/company-life-1/28030/news/flagmanskii-produkt-rcntec-vkliuchion-v-gosudarstvennyi-rees
ptchol
13.02.2017
21:04:19
полибайт крутое название
лучше б квазибайтом назвали
Vladimir
13.02.2017
21:07:53
Там Ceph под капотом
Михаил
13.02.2017
21:13:44
Vladimir
13.02.2017
21:15:02
Михаил
13.02.2017
21:15:58
Tverd
14.02.2017
08:01:53
Уважаемые, подскажите, а какой либвирт нужен для митаки? может где кто видел? ибо уже 3-й либвирт... а в убунте 1.3.1. Как бы понять какой ему ближе...
Denis
14.02.2017
08:04:59
митака отлично работает на убунтушном 1.3.1
Tverd
14.02.2017
08:08:43
Да работает, это понятно. Живая миграция как часы работает?
Denis
14.02.2017
08:09:27
на счет как часы - не уверен, но работает
Tverd
14.02.2017
08:11:23
У нас бывает либвирт подвисает... При миграции, думаем с чем связано.
Denis
14.02.2017
08:12:00
в моем юзкейсе живая миграция - скорее исключение. но зависаний не было ни разу
Tverd
14.02.2017
08:13:38
Спасибо, будем копать
Google
Denis
14.02.2017
08:16:21
а что у вас в качестве дисков используется? у нас были определенные сложности с миграцией при использовании sheepdog в качестве блочных устройств
Tverd
14.02.2017
08:16:56
диски - ceph, через cinder конечно
Михаил
14.02.2017
10:49:39
@socketpair а ты fio мерил с помощью ioengine=rbd ?
Марк ☢
14.02.2017
11:57:05
Михаил
14.02.2017
11:57:22
Марк ☢
14.02.2017
11:57:24
сделать блокдевайс ?
Mikhail
14.02.2017
11:58:18
[ceph-users] fio rbd engine "perfectly" fragments filestore file systems
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2016-August/012138.html
Михаил
14.02.2017
11:58:22
я беру блок девайс, указываю его в fio получаю 4к iops
создаю блок девайс с теми же параметрами, подключаю его в виртуалку опенстека и получаю 12к иопс
как те разница?)
5 раз проверил на 2х разных кластерах
Mikhail
14.02.2017
12:02:22
такой вопрос - не могу понять логику tier пула
есть tier пул 1ТБ
в нем image 10GB
NAME ID USED %USED MAX AVAIL OBJECTS
rbd 0 1024k 0 13712G 4
cache-rbd 1 1036k 0 989G 130
пишем туда 1ГБ
dd if=/dev/zero of=/dev/rbd/rbd/test bs=1024M count=1
1+0 records in
1+0 records out
1073741824 bytes (1.1 GB) copied, 10.0676 s, 107 MB/s
результат:
NAME ID USED %USED MAX AVAIL OBJECTS
rbd 0 1024M 0 13706G 259
cache-rbd 1 244M 0.02 989G 191
а после
dd if=/dev/zero of=/dev/rbd/rbd/test
все попадает в cache-rbd
Марк ☢
14.02.2017
12:05:15
Mikhail
14.02.2017
12:06:34
с fio соответственно тоже самое, пока имидж не залит полностью, процентов 10-20 при записи льется в тиер, остальное в основной
Марк ☢
14.02.2017
12:07:59
вотэто поворот. а не свзяано ли это с обработкой sync ?
я вот что сделал: проверил время пинга между нодами (по 10г-сети которая для обмена между осд). получилось никак не менее 0.1 мс. тоесть это получается, что более 10К иопсов не получить вобще никак только на пуле размером один (ну вы понели) (кстати, подтверждается экспериментально)
поэтому, раз у тебя более 10К иопсов, значит что-то шло параллельно или смерджилось. а значит режима синканья после каждого блока не было.
ну может у тебя сеть побыстрее. эт. да. но по факту у меня даже 6К не получается (через fio rbd)