
Старый
19.10.2016
20:41:35

Viktor
19.10.2016
20:41:37
Но недолго
работал с товарищем, который почти год прожил с опенстеком "в наследство", а потом он таки упал...

Alex Milushev
19.10.2016
20:41:48

AnswerX
19.10.2016
20:41:54
Все очень индивидуально

Google

AnswerX
19.10.2016
20:42:02
Грацули, да)

Старый
19.10.2016
20:42:14
мои поздравления
спасибо, делаю hpc кластер который впоследсвии хотят замучить виртуалками и пользователями

AnswerX
19.10.2016
20:42:25
Про другому никак

Pavel
19.10.2016
20:42:51

Старый
19.10.2016
20:43:14
☹️ по факту правда пока только слушаю знакомых из redhat и dell америка/канада, с советами по кластеру, ибо у самого опыта не было
с 1 октября в штате

AnswerX
19.10.2016
20:46:22
С вами тут реально интересно поболтать)

Alexander
19.10.2016
20:55:33
Я скучал по жарким обсуждениям перед сном)

Sergey
19.10.2016
20:55:49
парни, тут есть соседний чатик...

Михаил
19.10.2016
21:33:01
в соседнем чате по опенстеку багородные доны сидят)

Danila
19.10.2016
21:49:49
hi

Dmitry
20.10.2016
05:47:12
http://www.openstack.org/foundation/companies/ я оставлю это здесь просто

Google

Max
21.10.2016
11:12:07
Привет опстековцы!

Danila
21.10.2016
11:14:42
Privet

Max
21.10.2016
11:16:09
А какие у кого схд для iscsi? У меня сейчас стоит решение от synology iscsi работает плохо

Старый
21.10.2016
11:16:25
dell/emc
точнее сейчас это одно и тоже
смотри их решения

Михаил
21.10.2016
11:16:42

Старый
21.10.2016
11:16:46
iscsi работает прекрасно

Max
21.10.2016
11:17:45

Dmitry
21.10.2016
11:18:00
звучит то как

Max
21.10.2016
11:18:21

Михаил
21.10.2016
11:18:26

Старый
21.10.2016
11:18:30

Dmitry
21.10.2016
11:19:12
ну сайнолоджи сохо же

Старый
21.10.2016
11:19:50
они адовое говно, я из десктопного компа и федора 26 на rc0 ядре сделаю более надёжное решение

Михаил
21.10.2016
11:24:05
скучные проблемы тут у вас.
я вот тестовый CEPH убил в segfault. Походу кривой crushmap

Dmitry
21.10.2016
11:24:47
*шучу*

Google

Старый
21.10.2016
11:24:53

Dmitry
21.10.2016
11:25:03
Мих, просто ставь на федоре
и будет ок

Михаил
21.10.2016
11:25:55
логи читал?
0> 2016-10-21 13:54:13.060974 7f317fdf2700 -1 *** Caught signal (Segmentation fault) **
in thread 7f317fdf2700 thread_name:ms_dispatch

Старый
21.10.2016
11:26:28

Михаил
21.10.2016
11:26:30
как-то так
на 9 нод

Старый
21.10.2016
11:27:02
к ceph уже нужен openstack

Dmitry
21.10.2016
11:27:14
оно и само норм
чисто как морда если тока

Старый
21.10.2016
11:27:50
так вот морда и нужна, зашёл в морду, сразу увидел все его показатели

Dmitry
21.10.2016
11:28:03
опенстак не для этого

Старый
21.10.2016
11:29:00
плюс иногда планируется ещё сервак добавляться, и через openstack можно было бы сразу добавить всё

Михаил
21.10.2016
11:29:29
зачем?
ну вообще CEPH заводится в ovirt через cinder. это так.

Dmitry
21.10.2016
11:29:45

Старый
21.10.2016
11:29:57

Google

Михаил
21.10.2016
11:30:29
ээ, уу. нет) cinder вообще не про это.

Старый
21.10.2016
11:30:35
ну вот

Михаил
21.10.2016
11:31:00
про гластер и овирт есть другой чат. извольте не делать мне тут мозга.

Dmitry
21.10.2016
11:38:11
http://docs.ceph.com/docs/hammer/rados/operations/add-or-rm-osds/
тут нет не синдера. не опенстака
все норм добавляется без того чтобы тащить тяжеленные сервисы в инфраструктуру
Мих, а без синдера кейринг не сделать чтоле?

Старый
21.10.2016
11:40:54
из того что мне рассказывали ceph не любит потоковые чтение и запись
вот берёт один процесс и постоянно то пишет то читает по 40-50 гб

Dmitry
21.10.2016
11:41:22
я думаю это тюнится
да и вообще сомневаюсь что так
надо меньше слушать рассказы, а читать доку и гонять тесты

Старый
21.10.2016
11:42:27
гонять неначем

Dmitry
21.10.2016
11:43:01
тогда будут сюрпризы
много сюрпризов

Старый
21.10.2016
11:43:32
в конце января закончат ремонт серверной, вентиляцию, охлаждение и тд, привезут 40 серваков и 9 серваков под gluster/ceph, и дадут 3 дня запустить кластер
после чего он должен будет работать 24/7.365

Dmitry
21.10.2016
11:44:14

Sergey
21.10.2016
11:44:37

Старый
21.10.2016
11:44:53

Google

Dmitry
21.10.2016
11:45:21
начальству надо давать решения

Старый
21.10.2016
11:45:29
давайте в devops это перенесём

Dmitry
21.10.2016
11:45:40
пока не поймешь - будешь работать эникеем

Михаил
21.10.2016
12:41:56

Pavel
21.10.2016
12:51:00

Старый
21.10.2016
12:51:23

Pavel
21.10.2016
13:28:12
ceph-deploy

Старый
21.10.2016
13:31:58
Нахера?
есть задача, 2-4 сервера отдать в отдел с гос тайной, и админа там не будет, сотрудник должен зайти, тыкнуть мышкой пару раз и добавить тем самым новый диск.
Да и вообще было удобнее, если бы можно было войти, посмотреть на каких хостах с ceph сколько занято, какие сообщения у каждого хоста есть для меня и тп, но не в армках захода или сбора логов, а в рамках нажал ceph storage и увидел хосты 1-9 и тд, нажал на хост и увидел от него сообщения


Михаил
21.10.2016
13:33:34
есть задача, 2-4 сервера отдать в отдел с гос тайной, и админа там не будет, сотрудник должен зайти, тыкнуть мышкой пару раз и добавить тем самым новый диск.
Да и вообще было удобнее, если бы можно было войти, посмотреть на каких хостах с ceph сколько занято, какие сообщения у каждого хоста есть для меня и тп, но не в армках захода или сбора логов, а в рамках нажал ceph storage и увидел хосты 1-9 и тд, нажал на хост и увидел от него сообщения
посмотри кальмара
calamari или как его там. мб подойдет для тебя

Старый
21.10.2016
13:35:07
Не рекомендуется применять, если приложение однопоточное, по причине того, что распределенная хэш-таблица вернет ссылку только на один том
вот что про ceph говорят

Михаил
21.10.2016
13:35:42

Старый
21.10.2016
13:36:04
шта? ссылки
ссылку не дам, это сказал человек из крупного института

Михаил
21.10.2016
13:36:19