Deleted
Legacy testing state
Anonymous
ceph в применении к VMware - совсем ересь или имеет право на жизнь?
Anonymous
А если попытаться скрестить VMware и storage на ceph на одном физическом хосте? Т.е. сделать этакий аналог ScaleIO.
kiosaku
у меня живёт proxmox+ceph
kiosaku
если денег на vmware есть, то почему нет денег на кошерное хранилище?
Anonymous
Все деньги ушли на VMware. 😊
Kirill
Мне от ленова предложили flex + v3700
Kirill
Но стоит как крыло от Боинга
Kirill
Фолекс это у них мощностя
Kirill
А вот lenovo v3700 v2 хранилка
Anonymous
Нормальная хранилка. где-то $20-30к за 10Тб.
Anonymous
Только SSD на нее неразумно стоят. хотя в последний год подешевели в несколько раз
Sergey
Stanislav
Sergey
ну хранилка + лицензиня на такое дисковое пространство
Sergey
но без дисков
Anton
> если до них добраться через голову сейлзов реселеров.
Ой сложно! :)
Все есть, все известны, все в фейсбуке
Anonymous
А по бесплатному scaleio нормальная документация есть? Насколько я в курсе - за бесплатно - нет. И первый же чих принесет много интересного.
Radik
Угу
Михаил
Anton
Anton
Хотя могу ошибаться конечно
kiosaku
ну-ну, добро пожаловать в реальный мир
Дмитрий
scaleio платный если продакшен
Mark ☢️
Ставлю седьмой центос под ещё один нод
Dimonyga
Ставлю седьмой центос под ещё один нод
Отличный выбор! =) Но вот кракен ..... Если бы джевел - можно прям не ставя репы сторонние сделать yum install centos-ceph-jewel && yum install ceph-deploy
Logan
Mark ☢️
Mark ☢️
Ну естественно, в центосе как обычно. Кто б сомневался
Mark ☢️
Впрочем нытьё в другом чяте
Mark ☢️
Как кошернее всего перенести образы в другой пул ?
Mike
Через pv не надо, он однопоточный
Yefim
Народ! А вы у себя используете replica size = 2 или 3?
Pavel
3
Mark ☢️
Mark ☢️
Mike
Anonymous
pv режет скорость?)
Евгений
pv режет скорость?)
Похоже на то. У меня при вот такой конструкции dd if=/dev/rbd0 bs=8M | pv | dd of=/dev/sdd bs=8M скорость 50 мегабайт в секунду. При условии, что слева ceph на 10 гигабитной сетке, а слева - ssd на pci-e
Anonymous
хых O_o
Anonymous
буду знать, а то я недавно так же матерился
Александр
А нах при дд пв?
Александр
Для чего?
Евгений
Скорость показывает. Это первый совет на SO на тему "чем посмотреть скорость dd"
Александр
status=progress
Александр
дарю
Александр
Зачем pv использовать, если в dd есть status=progress ?
Александр
[root@nfs ~]# dd if=/dev/zero of=/solutions/testfile.1G bs=128k count=400k conv=fdatasync status=progress
скопировано 3102343168 байт (3,1 GB), 3,000273 s, 1,0 GB/s^C
Александр
скорость есть, хз чем не устроил такой вариант
Евгений
Logan
Александр
Александр
и потом в конце по завершению
Александр
[root@nfs ~]# dd if=/dev/zero of=/solutions/testfile.1G bs=128k count=400k conv=fdatasync status=progress
скопировано 6210715648 байт (6,2 GB), 6,000331 s, 1,0 GB/s^C
50173+0 записей получено
50173+0 записей отправлено
скопировано 6576275456 байт (6,6 GB), 6,35491 c, 1,0 GB/c
Александр
Что-то типа такого
Александр
Первая во время выполнения показывает, второе после окончания выполенения
Mark ☢️
Mark ☢️
Зачем dd ?
Mark ☢️
По секрету -- блочные девайсы по другому и не умеют
Mark ☢️
А в виду буфферизации, чтения не будет происходить при записи потому блок будет переписываться целиком. Ну мож кроме первого блока
Alex
А чем не устроил выше предложенный rbd export / import?
Alex
Кстати как можно забекапить клонированный образ в ceph, чтоб при его потере восстановить и этот образ был по прежнему клоном, а не самостоятельной единицей как при rbd import? На ум приходит только делать diff-export.
Евгений
Евгений
Mark ☢️
Model Number: WDC WD5003ABYZ-011FA0
Mark ☢️
fio —ioengine=libaio —direct=1 —name=test —bs=4k —iodepth=1 —readwrite=randwrite —filename=/dev/sdb —runtime 10
Mark ☢️
Random write IOPS: 201.1
Mark ☢️
fio —ioengine=libaio —direct=1 —name=test —bs=4k —iodepth=32 —readwrite=randwrite —filename=/dev/sdb —runtime 10