@pro_openstack

Страница 34 из 117
Старый
19.10.2016
20:41:35
тебя взяли на работу?
уже с 19 сентября работаю

Viktor
19.10.2016
20:41:37
Но недолго
работал с товарищем, который почти год прожил с опенстеком "в наследство", а потом он таки упал...

Alex Milushev
19.10.2016
20:41:48
уже с 19 сентября работаю
мои поздравления

AnswerX
19.10.2016
20:41:54
Все очень индивидуально

Google
AnswerX
19.10.2016
20:42:02
Грацули, да)

Старый
19.10.2016
20:42:14
мои поздравления
спасибо, делаю hpc кластер который впоследсвии хотят замучить виртуалками и пользователями

AnswerX
19.10.2016
20:42:25
Про другому никак

Pavel
19.10.2016
20:42:51
уже с 19 сентября работаю
Опять тестовые задания?)

Старый
19.10.2016
20:43:14
☹️ по факту правда пока только слушаю знакомых из redhat и dell америка/канада, с советами по кластеру, ибо у самого опыта не было

с 1 октября в штате

AnswerX
19.10.2016
20:46:22
С вами тут реально интересно поболтать)

Alexander
19.10.2016
20:55:33
Я скучал по жарким обсуждениям перед сном)

Sergey
19.10.2016
20:55:49
парни, тут есть соседний чатик...

Михаил
19.10.2016
21:33:01
в соседнем чате по опенстеку багородные доны сидят)

Danila
19.10.2016
21:49:49
hi

Dmitry
20.10.2016
05:47:12
http://www.openstack.org/foundation/companies/ я оставлю это здесь просто

Google
Max
21.10.2016
11:12:07
Привет опстековцы!

Danila
21.10.2016
11:14:42
Privet

Max
21.10.2016
11:16:09
А какие у кого схд для iscsi? У меня сейчас стоит решение от synology iscsi работает плохо

Старый
21.10.2016
11:16:25
dell/emc

точнее сейчас это одно и тоже

смотри их решения

Михаил
21.10.2016
11:16:42
А какие у кого схд для iscsi? У меня сейчас стоит решение от synology iscsi работает плохо
если ты притянешь этот вопрос к опенстеку,то я не буду его удалять.

Старый
21.10.2016
11:16:46
iscsi работает прекрасно

если ты притянешь этот вопрос к опенстеку,то я не буду его удалять.
какие схд лучше, для монтирвоания ресурсов к openstack по протоколу iscsi

Max
21.10.2016
11:17:45
если ты притянешь этот вопрос к опенстеку,то я не буду его удалять.
Так ноды опстека бутятся через айсказю у меня, вопрос самый прямой

Max
21.10.2016
11:18:21
звучит то как
Экономи бюджета....

Старый
21.10.2016
11:18:30
решение от сайнолоджи
у меня сейчас 3 их хранилки, мы уже думаем как их убить

Dmitry
21.10.2016
11:19:12
ну сайнолоджи сохо же

Старый
21.10.2016
11:19:50
они адовое говно, я из десктопного компа и федора 26 на rc0 ядре сделаю более надёжное решение

Михаил
21.10.2016
11:24:05
скучные проблемы тут у вас. я вот тестовый CEPH убил в segfault. Походу кривой crushmap

Google
Старый
21.10.2016
11:24:53
скучные проблемы тут у вас. я вот тестовый CEPH убил в segfault. Походу кривой crushmap
ты вроде бы ovirt 4 ковырял, что скажешь про gluster по ощущениям?

Dmitry
21.10.2016
11:25:03
Мих, просто ставь на федоре

и будет ок

Михаил
21.10.2016
11:25:55
ты вроде бы ovirt 4 ковырял, что скажешь про gluster по ощущениям?
я его в 3.6 ковырял. мне понравилось, но не забывай, что у тебя при большом количестве нод уже гластер бесполезен. вот в режиме SOHO он ок.

логи читал?
0> 2016-10-21 13:54:13.060974 7f317fdf2700 -1 *** Caught signal (Segmentation fault) ** in thread 7f317fdf2700 thread_name:ms_dispatch

Старый
21.10.2016
11:27:02
к ceph уже нужен openstack

Dmitry
21.10.2016
11:27:14
оно и само норм

чисто как морда если тока

Старый
21.10.2016
11:27:50
так вот морда и нужна, зашёл в морду, сразу увидел все его показатели

Dmitry
21.10.2016
11:28:03
опенстак не для этого

Старый
21.10.2016
11:29:00
плюс иногда планируется ещё сервак добавляться, и через openstack можно было бы сразу добавить всё

Михаил
21.10.2016
11:29:29
зачем?
ну вообще CEPH заводится в ovirt через cinder. это так.

Dmitry
21.10.2016
11:29:45
Старый
21.10.2016
11:29:57
ну вообще CEPH заводится в ovirt через cinder. это так.
и я смогу добавить osd через эту остнастку в сторендж?

Google
Михаил
21.10.2016
11:30:29
ээ, уу. нет) cinder вообще не про это.

Старый
21.10.2016
11:30:35
ну вот

Михаил
21.10.2016
11:31:00
про гластер и овирт есть другой чат. извольте не делать мне тут мозга.

Dmitry
21.10.2016
11:38:11
http://docs.ceph.com/docs/hammer/rados/operations/add-or-rm-osds/

тут нет не синдера. не опенстака

все норм добавляется без того чтобы тащить тяжеленные сервисы в инфраструктуру

Мих, а без синдера кейринг не сделать чтоле?

Старый
21.10.2016
11:40:54
из того что мне рассказывали ceph не любит потоковые чтение и запись

вот берёт один процесс и постоянно то пишет то читает по 40-50 гб

Dmitry
21.10.2016
11:41:22
я думаю это тюнится

да и вообще сомневаюсь что так

надо меньше слушать рассказы, а читать доку и гонять тесты

Старый
21.10.2016
11:42:27
гонять неначем

Dmitry
21.10.2016
11:43:01
тогда будут сюрпризы

много сюрпризов

Старый
21.10.2016
11:43:32
в конце января закончат ремонт серверной, вентиляцию, охлаждение и тд, привезут 40 серваков и 9 серваков под gluster/ceph, и дадут 3 дня запустить кластер

после чего он должен будет работать 24/7.365

Dmitry
21.10.2016
11:44:14
в конце января закончат ремонт серверной, вентиляцию, охлаждение и тд, привезут 40 серваков и 9 серваков под gluster/ceph, и дадут 3 дня запустить кластер
чувак, если ты не можешь выбить на тесты железо перед покупкой большой партии серверов, то у меня для тебя плохие новости

Sergey
21.10.2016
11:44:37
после чего он должен будет работать 24/7.365
так и будет работать. первую неделю. а потом его что-нибудь убьет.

Google
Dmitry
21.10.2016
11:45:21
я об этом говорил
начальству не надо говорить

начальству надо давать решения

Старый
21.10.2016
11:45:29
давайте в devops это перенесём

Dmitry
21.10.2016
11:45:40
пока не поймешь - будешь работать эникеем

Михаил
21.10.2016
12:41:56
Pavel
21.10.2016
12:51:00
давайте в devops это перенесём
А дайте ссылку на канал

Старый
21.10.2016
12:51:23
А дайте ссылку на канал
https://telegram.me/devops_ru

Старый
21.10.2016
13:31:58
Нахера?
есть задача, 2-4 сервера отдать в отдел с гос тайной, и админа там не будет, сотрудник должен зайти, тыкнуть мышкой пару раз и добавить тем самым новый диск. Да и вообще было удобнее, если бы можно было войти, посмотреть на каких хостах с ceph сколько занято, какие сообщения у каждого хоста есть для меня и тп, но не в армках захода или сбора логов, а в рамках нажал ceph storage и увидел хосты 1-9 и тд, нажал на хост и увидел от него сообщения

Старый
21.10.2016
13:35:07
Не рекомендуется применять, если приложение однопоточное, по причине того, что распределенная хэш-таблица вернет ссылку только на один том

вот что про ceph говорят

Старый
21.10.2016
13:36:04
шта? ссылки
ссылку не дам, это сказал человек из крупного института

Михаил
21.10.2016
13:36:19

Страница 34 из 117