Deleted
Legacy testing state
Anonymous
ceph в применении к VMware - совсем ересь или имеет право на жизнь?
Anonymous
А если попытаться скрестить VMware и storage на ceph на одном физическом хосте? Т.е. сделать этакий аналог ScaleIO.
kiosaku
у меня живёт proxmox+ceph
kiosaku
если денег на vmware есть, то почему нет денег на кошерное хранилище?
Anonymous
Все деньги ушли на VMware. 😊
Kirill
Мне от ленова предложили flex + v3700
Kirill
Но стоит как крыло от Боинга
Kirill
Фолекс это у них мощностя
Kirill
А вот lenovo v3700 v2 хранилка
Anonymous
Нормальная хранилка. где-то $20-30к за 10Тб.
Anonymous
Только SSD на нее неразумно стоят. хотя в последний год подешевели в несколько раз
Stanislav
Нормальная хранилка. где-то $20-30к за 10Тб.
Каких ТБ, сырых? Делл свою Юнити предлагает за меньше 10к за 10тб.
Anton
А если попытаться скрестить VMware и storage на ceph на одном физическом хосте? Т.е. сделать этакий аналог ScaleIO.
Зачем делать аналог ScaleIO, есть есть бесплатный ScaleIO? Datacore, VSAN, да на худой конец Starwind. Для платной VMware
Sergey
ну хранилка + лицензиня на такое дисковое пространство
Sergey
но без дисков
Stanislav
ну хранилка + лицензиня на такое дисковое пространство
Нет, с дисками конечно ) вообще у делл/емц достаточно грамотные пресейлы, если до них добраться через голову сейлзов реселеров. Готовы и Юнити предложить, и скейл.ио, и нутаникс
Anton
> если до них добраться через голову сейлзов реселеров. Ой сложно! :) Все есть, все известны, все в фейсбуке
Stanislav
> если до них добраться через голову сейлзов реселеров. Ой сложно! :) Все есть, все известны, все в фейсбуке
Для этого надо нормально закупаться и знать, что нормальные люди там есть ) а когда начинаешь этим с улицы заниматься - полный треш
Anonymous
А по бесплатному scaleio нормальная документация есть? Насколько я в курсе - за бесплатно - нет. И первый же чих принесет много интересного.
Radik
Угу
Anton
А по бесплатному scaleio нормальная документация есть? Насколько я в курсе - за бесплатно - нет. И первый же чих принесет много интересного.
Документация за деньги - это что-то новое. Бесплатный от платного отличается поддержкой, насколько мне известно
Anton
Хотя могу ошибаться конечно
kiosaku
ну-ну, добро пожаловать в реальный мир
Дмитрий
scaleio платный если продакшен
Mark ☢️
Ставлю седьмой центос под ещё один нод
Dimonyga
Ставлю седьмой центос под ещё один нод
Отличный выбор! =) Но вот кракен ..... Если бы джевел - можно прям не ставя репы сторонние сделать yum install centos-ceph-jewel && yum install ceph-deploy
Logan
Ставлю седьмой центос под ещё один нод
вы хвастаетесь или жалуетесь?
Mark ☢️
Mark ☢️
Ну естественно, в центосе как обычно. Кто б сомневался
Mark ☢️
Впрочем нытьё в другом чяте
Mark ☢️
Как кошернее всего перенести образы в другой пул ?
Евгений
Как кошернее всего перенести образы в другой пул ?
не кошерно но факт - rbd export пайпом пустить в rbd import можно через pv, чтобы на скорость смотреть
Mike
Через pv не надо, он однопоточный
Yefim
Народ! А вы у себя используете replica size = 2 или 3?
Pavel
3
Mark ☢️
Народ! А вы у себя используете replica size = 2 или 3?
У меня 2. Я нищеброд. Но скоро сделаю 3
Mark ☢️
Через pv не надо, он однопоточный
А что экспорт в несколько потоков умеет ? Если через пайп в импорт -- то пайп то всеравно один.
Евгений
Из-за pv скорость падает сильно.
Да уж. Не все советы с SO одинаково полезны
Anonymous
pv режет скорость?)
Евгений
pv режет скорость?)
Похоже на то. У меня при вот такой конструкции dd if=/dev/rbd0 bs=8M | pv | dd of=/dev/sdd bs=8M скорость 50 мегабайт в секунду. При условии, что слева ceph на 10 гигабитной сетке, а слева - ssd на pci-e
Anonymous
хых O_o
Anonymous
буду знать, а то я недавно так же матерился
Александр
А нах при дд пв?
Александр
Для чего?
Евгений
Скорость показывает. Это первый совет на SO на тему "чем посмотреть скорость dd"
Александр
status=progress
Александр
дарю
Logan
Скорость показывает. Это первый совет на SO на тему "чем посмотреть скорость dd"
Вообще в моменте скорость модно посмотреть через сигнал. PV - вариант для ленивых
Александр
Зачем pv использовать, если в dd есть status=progress ?
Александр
[root@nfs ~]# dd if=/dev/zero of=/solutions/testfile.1G bs=128k count=400k conv=fdatasync status=progress скопировано 3102343168 байт (3,1 GB), 3,000273 s, 1,0 GB/s^C
Александр
скорость есть, хз чем не устроил такой вариант
Logan
[root@nfs ~]# dd if=/dev/zero of=/solutions/testfile.1G bs=128k count=400k conv=fdatasync status=progress скопировано 3102343168 байт (3,1 GB), 3,000273 s, 1,0 GB/s^C
а он в моменте показывает? Или только по факту? И, кстати, оно не всегда работает почему-то
Александр
и потом в конце по завершению
Александр
[root@nfs ~]# dd if=/dev/zero of=/solutions/testfile.1G bs=128k count=400k conv=fdatasync status=progress скопировано 6210715648 байт (6,2 GB), 6,000331 s, 1,0 GB/s^C 50173+0 записей получено 50173+0 записей отправлено скопировано 6576275456 байт (6,6 GB), 6,35491 c, 1,0 GB/c
Александр
Что-то типа такого
Александр
Первая во время выполнения показывает, второе после окончания выполенения
Mark ☢️
Зачем dd ?
Mark ☢️
По секрету -- блочные девайсы по другому и не умеют
Mark ☢️
А в виду буфферизации, чтения не будет происходить при записи потому блок будет переписываться целиком. Ну мож кроме первого блока
Alex
А чем не устроил выше предложенный rbd export / import?
Alex
Кстати как можно забекапить клонированный образ в ceph, чтоб при его потере восстановить и этот образ был по прежнему клоном, а не самостоятельной единицей как при rbd import? На ум приходит только делать diff-export.
Alex
rbd snap create, не?
Это логично. Но интересует весь процесс в целом
Евгений
Это логично. Но интересует весь процесс в целом
ну, после импорта сделать rbd snap create image@backup rbd snap protect image@backup
Alex
ну, после импорта сделать rbd snap create image@backup rbd snap protect image@backup
Не совсем то, что мне нужно. Схема такая: есть gold образ от которого создаются виртуалки rbd clone pool/gold-image@snap pool/vm-image Так вот мне нужно бекапить vm-image так, чтобы при восстановлении vm-image он не стал самостоятельным образом
Alex
так уже на созданном клоне делайте snap create
Похоже это то что нужно: https://skuicloud.wordpress.com/2014/12/19/openstackceph-rbd-incremental-backup-and-restore/
Mark ☢️
Model Number: WDC WD5003ABYZ-011FA0
Mark ☢️
fio —ioengine=libaio —direct=1 —name=test —bs=4k —iodepth=1 —readwrite=randwrite —filename=/dev/sdb —runtime 10
Mark ☢️
Random write IOPS: 201.1
Mark ☢️
fio —ioengine=libaio —direct=1 —name=test —bs=4k —iodepth=32 —readwrite=randwrite —filename=/dev/sdb —runtime 10