
Roman
08.12.2016
22:28:24

Михаил
08.12.2016
22:32:00

Roman
08.12.2016
22:33:18

Google

Александр
08.12.2016
22:33:41
Именно так

Roman
09.12.2016
09:15:57

Марк ☢
09.12.2016
09:16:06
баян
но випдимо с целью задушить
так.
у меня цефовопрос

Roman
09.12.2016
09:17:02
купив на них подписку
Ниче не покупал, меня как то пригласили на один из вебинаров, до сих пор шлют на разные темы

Марк ☢
09.12.2016
09:17:20
$ ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 2.69698 root default
-2 2.69698 host node2
0 0.87849 osd.0 up 1.00000 1.00000
1 0.90919 osd.1 up 1.00000 1.00000
2 0.90919 osd.2 up 1.00000 1.00000
3 0.00009 osd.3 up 1.00000 1.00000
что с последним осд. почему у него такой маленьки вес ?

Михаил
09.12.2016
09:18:16
а объм диска такм такой же как у остальных?

Марк ☢
09.12.2016
09:19:16
$ ceph osd df
ID WEIGHT REWEIGHT SIZE USE AVAIL %USE VAR PGS
0 0.87849 1.00000 899G 5164M 894G 0.56 0.33 0
1 0.90919 1.00000 931G 5165M 926G 0.54 0.32 0
2 0.90919 1.00000 931G 5162M 926G 0.54 0.32 0
3 0.00009 1.00000 1397G 57239M 1341G 4.00 2.34 0
TOTAL 4158G 72732M 4087G 1.71
даже больше
(ну.... он блюстор правда)

Google

Марк ☢
09.12.2016
09:19:35
))
ну всиравно
есть подозрение вот какое
так как блюстор — это маленький XFS и ещё один блокдейвай, то наверно для вычисления веса оно взяло размер того XFS
что маразм полный
куда копать ? что смотреть ?

Михаил
09.12.2016
09:22:00
поставь вес ему какой хочешь
да и всё

Марк ☢
09.12.2016
09:23:06
ceph osd reweight-by-utilization
$ ceph osd reweight-by-utilization
moved 0 / 0 (-nan%)
avg 0
stddev 0 -> 0 (expected baseline 0)
min osd.0 with 0 -> 0 pgs (-nan -> -nan * mean)
max osd.0 with 0 -> 0 pgs (-nan -> -nan * mean)
oload 120
max_change 0.05
max_change_osds 4
average 0.017079
overload 0.020494
osd.3 weight 1.000000 -> 0.950012
[ceph_deploy@node2 ~]$ ceph osd df
ID WEIGHT REWEIGHT SIZE USE AVAIL %USE VAR PGS
0 0.87849 1.00000 899G 5164M 894G 0.56 0.33 0
1 0.90919 1.00000 931G 5165M 926G 0.54 0.32 0
2 0.90919 1.00000 931G 5162M 926G 0.54 0.32 0
3 0.00009 0.95001 1397G 57239M 1341G 4.00 2.34 0
TOTAL 4158G 72732M 4087G 1.71
MIN/MAX VAR: 0.32/2.34 STDDEV: 1.51
те же ЙАЙЦА

Михаил
09.12.2016
09:25:45
а weight

Марк ☢
09.12.2016
09:31:44
ээээ
а почему ревеигхт не сработал ?
причем написал даже osd.3 weight 1.000000 -> 0.950012
что за фигня
аааа
сейчас понял

Михаил
09.12.2016
09:32:47

Google

Марк ☢
09.12.2016
09:33:06
сорян

Roman
09.12.2016
09:46:18
http://onreader.mdl.ru/LearningCeph/content/index.html#ToC
на русском, вроде свежак
http://onreader.mdl.ru/CephCookbook/content/index.html

Sergey
09.12.2016
10:02:20
А какие винты порекомендует для осд?
Вд ентерпрайз желтые норм будет ?

Viktor
09.12.2016
10:03:24
RE ок

Михаил
09.12.2016
10:06:51
да в целом любые) тут же как обычно. нормально делай - нормально будет

Viktor
09.12.2016
10:07:55
бытовый могут быть источником проблем

Александр
09.12.2016
10:11:14

Viktor
09.12.2016
10:12:26
будут, вопрос когда, бытовой винт пытается до последнего считать сбойный блок
"серверный" быстро дает ошибку чтения/записи
что не вешает софт который работает с этим винтом
на большом количестве винтов они становятся расходниками

Марк ☢
09.12.2016
10:15:25
Кароче. заюзал блюстор
и шо же ви думаете ?
один хрен
а дожно быть быстрее, ибо нету дабл врайта
как-бы хуй-с

Александр
09.12.2016
10:16:46
Кинь доку на блюстор

Михаил
09.12.2016
10:18:36

Google

Марк ☢
09.12.2016
10:22:01
ceph osd pool create rbdbench 128
ceph osd pool set rbdbench size 1
rbd bench-write image01 —pool=rbdbench
вот так
ой
имедж креате команду не написал

Михаил
09.12.2016
10:22:46
DNIWE

Марк ☢
09.12.2016
10:22:53
шта
do not invent weels ?
xnj 'nj
что это

Михаил
09.12.2016
10:23:19
fio освой
и потом уже говори про тесты

Марк ☢
09.12.2016
10:24:01
а чем эта бенчилка плоха ?

Taki
09.12.2016
10:24:19
https://habrahabr.ru/post/154235/

Михаил
09.12.2016
10:25:05

Марк ☢
09.12.2016
11:14:47
# cat qwe.fio
[global]
ioengine=rbd
clientname=admin
pool=rbdbench
rbdname=image01
rw=randwrite
bs=4k
[rbd_iodepth32]
iodepth=32
write: io=812564KB, bw=359057B/s, iops=87, runt=2317362msec

Sergey
09.12.2016
11:16:39
интереснее строчки про clat/slat обычно. вы статью почитайте, которую сверху скинули.

Марк ☢
09.12.2016
11:17:05
rbd_iodepth32: (groupid=0, jobs=1): err= 0: pid=1356: Fri Dec 9 16:14:30 2016
write: io=812564KB, bw=359057B/s, iops=87, runt=2317362msec
slat (usec): min=1, max=342, avg= 2.44, stdev= 5.66
clat (msec): min=34, max=2361, avg=364.98, stdev=219.50
lat (msec): min=34, max=2361, avg=364.98, stdev=219.50
clat percentiles (msec):
| 1.00th=[ 91], 5.00th=[ 133], 10.00th=[ 159], 20.00th=[ 200],
| 30.00th=[ 239], 40.00th=[ 269], 50.00th=[ 289], 60.00th=[ 359],
| 70.00th=[ 441], 80.00th=[ 515], 90.00th=[ 603], 95.00th=[ 775],
| 99.00th=[ 1172], 99.50th=[ 1418], 99.90th=[ 1713], 99.95th=[ 1844],
| 99.99th=[ 2089]
bw (KB /s): min= 24, max= 944, per=100.00%, avg=365.04, stdev=144.12
lat (msec) : 50=0.04%, 100=1.69%, 250=32.18%, 500=44.26%, 750=16.06%
lat (msec) : 1000=3.97%, 2000=1.78%, >=2000=0.02%
я пока недостаточно всё это понял

Google

Марк ☢
09.12.2016
11:17:43
что скажут эксперты ?

Sergey
09.12.2016
11:17:48
у вас средняя задержка 364 мс. это очень плохой показатель. нормальный показатель задержки для "почти полностью загруженного" магнитного диска - 10 мс.
возможно сеть более, чем медленная, конечно. но вообще попробуйте сначала на холодном кластере запустить fio с iodepth 1

Марк ☢
09.12.2016
11:18:32
вы не поняли. нет сети
один нод с 3 дисками

Sergey
09.12.2016
11:18:41
тем более.

Марк ☢
09.12.2016
11:19:03
ах да, фио запускается на нём же
кластер ниченм не занят. запустил с депс 1
диски магнитные по 1 Тб

Anton
09.12.2016
11:20:39
5400 и выключен кеш?)

Марк ☢
09.12.2016
11:20:48
сейчас уточню
БЛЯТЬ ЧТОБ БЛЯТЬ СДОХ ПЕДОРАС КОТОРЫЙ ДАЛ МНЕ ДИСК
http://www.newegg.com/Product/Product.aspx?Item=N82E16822148764
ШТО ДЕЛАЕТ GREEN В МОЕМ КОМПЕ ВОБЩЕ
в рот мне ноги
щас уберу его
остальные два диска 7200 рпм

Anton
09.12.2016
11:23:51
ну он и в рейде бы козлил давая делей на иопсики твои
ну кароч твой сетап говно, ты как ПоК это всё делаешь для знаний, или у тебя цель есть какая?

Марк ☢
09.12.2016
11:26:00
Цель — хочу получить достаточно бытсрый цеф под виртуалки
поэтому сраниваю харки одиночных дисков с харками вирт. образа в цефе
есть подозрение что изза дабл врайта всё будет очень печально