Mike
https://blog.noc.grnet.gr/2016/10/18/surviving-a-ceph-cluster-outage-the-hard-way/
Mike
как вариант, что может пойти не так
Mike
тестил кто-то ceph с dpdk?
Михаил
а можно ссылку на то как готовить его с dpdk? а то мы собирались в ближайший месяц
Mike
вроде async massanger подерживает backend с dpdk
Mike
корректно настроить dpdk
Mike
всегда найдется что подкрутить
Михаил
меня печалит, что когда переключаешь ms_type на асинк, то кластер на пару секунд встает в helth error (
Mike
в luminous async по умолчанию теперь
Михаил
только люминус еще бета)
Mike
сейчас бета, завтра - нет )
Mike
и наконец появилась поддердка зонирования на nvme устройстве
Михаил
VVSina
Год это быстро.
Mike
Год реально быстро пройдёт
Mike
кто бы дал $100к. Сделал бы кластер на миллион иопсов. Эхх.
Александр
Зачем? Для чего?
Михаил
получить кучу опытал и Lvlup )
Александр
Какой опыт, масштабирования?
Михаил
половых отношений с CEPH при попытке выжать из него весь лям)
Александр
За 6млн рублей и больше выжать можно имхо
Александр
Хотя, можно посчитать
Михаил
https://www.sebastien-han.fr/blog/2017/01/05/Ceph-RBD-and-iSCSI/
@Lumen_Ratio @spuzirev тут говорят что с LIO + RBD всё ок)
Sergei
Sergei
там только один iscsi gw активен
Mike
Михаил
пока да. Но работа движется.
Presently targets can be deployed and configured with the help of this Ansible role. Soon this work will be merged in ceph-ansible.
Михаил
мда
Михаил
не очень люблю чужие ансибл плейбуки
Mike
Зачем? Для чего?
для openstack надо. У нас ругались на производительность схд, но денег не дали на апгрейд.
Александр
Mike
Mark ☢️
Михаил
А что это ?
Найди корейскую презентацию, она была то ли тут то ли в другом чате. Там картинка о том как цеф работает внутри
Mark ☢️
Михаил
Минут через десять
Mark ☢️
http://www.petasan.org
Mike
Hello,
I am happy to announce PetaSAN, an open source scale-out SAN that uses Ceph
storage and LIO iSCSI Target.
visit us at:
www.petasan.org
your feedback will be much appreciated.
maged mokhtar
_______________________________________________
ceph-users mailing list
ceph-users@lists.ceph.com
http://lists.ceph.com/listinfo.cgi/ceph-users-ceph.com
Александр
Рекомендованные требования конечно такое себе
Александр
к железу
Mike
сделал бы кто хорошую морду управления всем ceph - было бы хорошо.
Михаил
Anonymous
Кстати, никто не слышал про наш, исконно-посконный http://полибайт.рф ?
Михаил
и что ты хочешь делать с веб морды?
Александр
Михаил
Anonymous
Агааа
Михаил
Я прям возбудился. Очень хочу посмотреть. Можешь дать ссылку ?
https://www.slideshare.net/openstack_kr/openstack-days-korea-2016-track1-all-flash-ceph
8-9 слайд
а еще
http://docs.ceph.com/docs/jewel/rados/configuration/ms-ref/
и еще
тоже полезное
http://docs.ceph.com/docs/jewel/dev/osd_internals/osd_throttles/
Брандашмыг
на baremetell cef fs комп в конфигурации dual E5620/48G ram - нормально взлетит?
Михаил
а по дискам что?
Михаил
ну и да, цеф фс на одном хосте так себе идея
Михаил
и в целом цеф на одном хосте так себе идея
Брандашмыг
ну я 4 хоста планирую лабу собирать
Михаил
на 1 тб диска надо 1 гиг ОЗУ
Михаил
считай из этого
Брандашмыг
по дискам - 1 pcie ssd, 4 intel s3710 400gb, 4 hdd x 1TB?
Брандашмыг
1Tb или 2TB будет известно позже
Михаил
а нафига тебе 1 pcie ssd?
Брандашмыг
лаба
Брандашмыг
лаба
Брандашмыг
всан / цеф
Михаил
на 4 ХДД хватит за глаза и одного SSD Диска если ч то
Брандашмыг
влияние pcie на производительность vsan - в конфигах флеш и хдд
Брандашмыг
влияние pcie на производительность cef - разрезы не смотрел
Брандашмыг
ну и далее - как глубина очередей на контроллерах влияет
Брандашмыг
у всана HCL жестковат
Михаил
раньше в хдд упрешься, чем в ссд
Михаил
это я про цеф
Брандашмыг
Ну я хотел бы посмотреть как именно упрусь
Брандашмыг
Цена мне на винтах нравится
✠ FLASh ✠
сгладит но iops на ssd на много больше чем на hdd
✠ FLASh ✠
в сеть упереться можешь еще