@devops_ru

Страница 1593 из 4568
targitaj
23.11.2016
18:22:43
какие еще блядь драйвера

Aleserche
23.11.2016
18:22:57
Старый, ты федю обновил уже?

Старый
23.11.2016
18:23:14
Старый, ты федю обновил уже?
я на rawhide сижу, у меня 26 уже

Google
Roman
23.11.2016
18:23:15
Че рассказывать - помоги товарищу к которого вся систеиа на рейде

Aleserche
23.11.2016
18:23:28
и зачем я спрашиваю

targitaj
23.11.2016
18:23:47
Че рассказывать - помоги товарищу к которого вся систеиа на рейде
здесь у человека была проблема с ПРОГРАММНЫМ РЕЙДОМ

targitaj
23.11.2016
18:24:26
лично у меня на пролиантах p420 стоят

Roman
23.11.2016
18:24:36
какие еще блядь драйвера
Такие, которые расскажут что диск полетел

targitaj
23.11.2016
18:24:55
Такие, которые расскажут что диск полетел
и как это связано с ребилдом? Передёргивать начинаешь?

то блядь для ребилда надо в биос лезть, то для оповещения дрова нужны

Александр
23.11.2016
18:25:43
Рейд ни нужен

targitaj
23.11.2016
18:25:50
гражданин, вы путаетесь в показаниях

Roman
23.11.2016
18:28:15
и как это связано с ребилдом? Передёргивать начинаешь?
Блять ты перезагружаешь сервер, а он пишет что диску пизда. И ты ждешь потом ребилда. Но я подробностей не помню сейчас. И вобще мне пох Для меня даунтайм 1 час не проблема.

Google
Roman
23.11.2016
18:28:49
А вот даунтайм сутки - это по любому косяк.

Sergey
23.11.2016
18:28:56
все ебанулись (с)

targitaj
23.11.2016
18:29:04
у пролиантов на корзине лампочка даже красным мигает

сказочники, сэр (С)

Roman
23.11.2016
18:30:00
не понял, зачем надо перезагружать сервер?
А зачем надо, например, прыгнуть под машину на перекрестке? Или кирпичу прилететь на голову?

targitaj
23.11.2016
18:30:13
hpacucli ctrl all show config Smart Array P420i in Slot 0 (Embedded) Note: Predictive Spare Activation Mode is enabled, physical drives that are in predictive failure state will not be available for use as data or spare drives. (sn: 50014380284CF5A0) array A (SAS, Unused Space: 0 MB) logicaldrive 1 (1.4 TB, RAID 1+0, OK) physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 300 GB, OK) physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 300 GB, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 300 GB, OK) physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 300 GB, OK) physicaldrive 1I:1:5 (port 1I:box 1:bay 5, SAS, 300 GB, OK) physicaldrive 1I:1:6 (port 1I:box 1:bay 6, SAS, 300 GB, OK) physicaldrive 1I:1:7 (port 1I:box 1:bay 7, SAS, 300 GB, OK) physicaldrive 1I:1:8 (port 1I:box 1:bay 8, SAS, 300 GB, OK) physicaldrive 1I:1:9 (port 1I:box 1:bay 9, SAS, 300 GB, OK) physicaldrive 1I:1:10 (port 1I:box 1:bay 10, SAS, 300 GB, OK) physicaldrive 1I:1:11 (port 1I:box 1:bay 11, SAS, 300 GB, OK, spare) physicaldrive 1I:1:12 (port 1I:box 1:bay 12, SAS, 300 GB, OK, spare) array B (SATA, Unused Space: 0 MB) logicaldrive 2 (3.6 TB, RAID 5, OK) physicaldrive 2I:1:15 (port 2I:box 1:bay 15, SATA, 1 TB, OK) physicaldrive 2I:1:16 (port 2I:box 1:bay 16, SATA, 1 TB, OK) physicaldrive 2I:1:17 (port 2I:box 1:bay 17, SATA, 1 TB, OK) physicaldrive 2I:1:18 (port 2I:box 1:bay 18, SATA, 1 TB, OK) physicaldrive 2I:1:19 (port 2I:box 1:bay 19, SATA, 1 TB, OK) physicaldrive 2I:1:20 (port 2I:box 1:bay 20, SATA, 1 TB, OK, spare) Enclosure SEP (Vendor ID HP, Model Gen8 ServBP 25+2) 377 (WWID: 5001438026ABBE53, Port: 1I, Box: 1) Enclosure SEP (Vendor ID HP, Model Gen8 ServBP 25+2) 377 (WWID: 5001438026ABBE53, Port: 1I, Box: 1) Expander 380 (WWID: 5001438026ABBE40, Port: 1I, Box: 1) Expander 380 (WWID: 5001438026ABBE40, Port: 1I, Box: 1) SEP (Vendor ID PMCSIERA, Model SRCv8x6G) 378 (WWID: 50014380284CF5AF)

куда чего надо перезагружать?

надо будет на этой машине массивы переделать как-нибудь...

выделить под корень отдельную пару дисков в отдельный массив

Старый
23.11.2016
18:31:21
все ебанулись (с)
а что они должны были думать?

Roman
23.11.2016
18:31:47
выделить под корень отдельную пару дисков в отдельный массив
Это противоречит всему спору! Значит ты таки питзнаешь мою правоту?

Sergey
23.11.2016
18:32:01
а что они должны были думать?
кто они? я двумя словами описал вакханалию в чатике, когда несколько участников срача тотально не понимают, что в мире бывают кейсы, которые решаются не теми способами, которыми решаются их кейсы.

targitaj
23.11.2016
18:32:13
Roman
23.11.2016
18:33:05
Моя позиция в том что рейд можно использовать для корня из двух дисков в мирроре

George
23.11.2016
18:33:19
Хелло с оверклокерс.ру ?

Старый
23.11.2016
18:33:23
система обслуживающая рейд может на флешке стоять

а остальное на вируталках уже которые на рейде

Google
Старый
23.11.2016
18:34:26
либо на всяких cehp/gluster/lustre/scaleio

Roman
23.11.2016
18:34:42
нах?
Для повышения надежности, но только при хорошем хардовом контроллере. Но упаси бог заделать софтааре рейд там!

targitaj
23.11.2016
18:35:00
Моя позиция в том что рейд можно использовать для корня из двух дисков в мирроре
ну да, я сам к этому пришел, для чисто корня надо небольшой отдельный рейд1

Старый
23.11.2016
18:35:23
Для повышения надежности, но только при хорошем хардовом контроллере. Но упаси бог заделать софтааре рейд там!
в чём надёжность? по моему надёжнее иметь 6 флешек с копией оси обслуживающей рейд

targitaj
23.11.2016
18:35:27
а остальное на вируталках уже которые на рейде
а что будет с твоими виртуалками если твоя флешка сдохнет?

Sergey
23.11.2016
18:35:48
Roman
23.11.2016
18:35:52
Втрое место рейда для /opt/yourfuckinaplicationdats/

Sergey
23.11.2016
18:36:20
Старый
23.11.2016
18:36:40
а что будет с твоими виртуалками если твоя флешка сдохнет?
пеиегразуиться сервер и снова поднимутся со следующей флешки

Старый
23.11.2016
18:37:27
схрена ли он перезагрузится?
ip-kvm и скрипт на то. отзывается система ил нет

Sergey
23.11.2016
18:37:41
ip-kvm и скрипт на то. отзывается система ил нет
она вполне может отзываться еще сто лет

Roman
23.11.2016
18:38:02
Если с рута убрать всю еботу - var и opt то он вобще никогда не умрет

Viktor
23.11.2016
18:38:39
Много вариантов когда рейд в зеркале единственное адекватное решение

К примеру одиночный удалённый сервер

Старый
23.11.2016
18:39:33
Если с рута убрать всю еботу - var и opt то он вобще никогда не умрет
по сути надо убрать только логи и tmp с флешки и она будет жить оч долго

Roman
23.11.2016
18:39:47
Но безусловно достижением можно считать размещение не разбитого / раздела на пяти говняных SSD в софтварном рейде

Viktor
23.11.2016
18:39:59
Выпал диск, пришло уведомление, попутно обезьянка заехала и поменяла диск

С флешками надо городить костыль для репликации софта, и представьте хватает жоп в мире где нет управления конфигурацией

Google
Старый
23.11.2016
18:43:18
Sergey
23.11.2016
18:43:28
чтот такого ещё не видел
ты еще много не видел.

Старый
23.11.2016
18:43:42
ты еще много не видел.
а я и не говорю что видел всё

Sergey
23.11.2016
18:43:57
описанная тобой система с KVM-виртуалками, кстати, будет идеально жить на tmpfs

_заметно_ лучше, чем на флешке или SATA-DOM.

Viktor
23.11.2016
18:44:56
Кстати, если это гипервизор, зачем ему вообще флешка?

Старый
23.11.2016
18:45:05
_заметно_ лучше, чем на флешке или SATA-DOM.
ну я флешку привёл как нищебродский вариант, кому жалко денег на ssd

Viktor
23.11.2016
18:45:09
Pxe или iscsi boot

Admin
ERROR: S client not available

Старый
23.11.2016
18:45:38
при чем тут SSD?
на них стоит ось на которой гипервизор и рейд настроен

Sergey
23.11.2016
18:45:39
Pxe или iscsi boot
очень весело бывает, когда датацентр выключается целиком, а потом у тебя 4к машин пытаются загрузиться.

Viktor
23.11.2016
18:46:16
Весело следить за 8к флешек

targitaj
23.11.2016
18:46:40
взлетят на другом хосте через 10 секунд
то есть, резерв стоит дешевле дополнительного винта. ОКЭЙ. Не, конечно же, резервный хост есть, но, простите, не от таких угроз.

Sergey
23.11.2016
18:47:20
то есть, резерв стоит дешевле дополнительного винта. ОКЭЙ. Не, конечно же, резервный хост есть, но, простите, не от таких угроз.
на определенном масштабе дешевле перелить хост, чем ебаться с ребилдом рейда, снижать на это время нагрузку и т.д.

targitaj
23.11.2016
18:47:45
пеиегразуиться сервер и снова поднимутся со следующей флешки
да, конечно, всегда можно подождать пока ты подъедешь с новой флешкой и запустишь всё обратно. Надо же тебе как-то работать, верно?

targitaj
23.11.2016
18:48:19
пару часиков всё может и полежать

а, стоп, гемора же больше

Google
targitaj
23.11.2016
18:48:52
ну да, точно, "как скучно жЫть"

всё, я домой

Viktor
23.11.2016
18:49:40
пару часиков всё может и полежать
В ночь с пятницы на субботу

Тефтеля
23.11.2016
18:50:32
что не день, то обсуждают рейды на генту

Дмитрий
23.11.2016
18:51:17
В ночь с пятницы на субботу
С пятницы на понедельник

Viktor
23.11.2016
18:52:37
и чем это отличается от зеркала?
Ещё до автоматической репликации не дошли

Sergey
23.11.2016
18:54:40
Ещё до автоматической репликации не дошли
да зачем ему репликация, он еще пока с серверами спит.

Александр
23.11.2016
18:56:42
Так бы не браал генту лайвсд

Sergey
23.11.2016
18:57:49
Так бы не браал генту лайвсд
я имею в виду, что у него еще есть время пользоваться решениями, которые потенциально юзабельны, но требуют частого ручного вмешательства или не самой простой автоматизации.

Alibek
23.11.2016
18:59:27
вопрос про keepalived - почему при запуске несмотря на провал проверки он переводит своё состояние в MASTER? https://paste.ubuntu.com/23523376/ т.е. на VI_1 например rmq - выключен, а на VI_2 rmq - включен? Однако при запуске или рестарте keepalived на VI_1 он переходит в MASTER (ну и соотвественно поднимает vip), тогда как ожидалось, что он останется в BACKUP

Lattrache
23.11.2016
19:08:58
ввв

кто нибуть на linux готовил файловую систему под хранение больших данных, хотя бы пару десятков тб?

Старый
23.11.2016
19:18:52
кто нибуть на linux готовил файловую систему под хранение больших данных, хотя бы пару десятков тб?
тут вопрос больше в том. какое у тебя железо, какие данные, и какой объём, вопрос в том виде. каком ты задал бессмыслен

Uncel
23.11.2016
19:20:01
Страйп на 400тб, yolo

Alibek
23.11.2016
19:21:10
у вас virtual_router_id разный
А разе они не должны быть разные?

Старый
23.11.2016
19:21:18
Страйп на 400тб, yolo
подробнее о железе, кол-во дисков, проц, оперативы, и по нормальному что там будет храниться

Страница 1593 из 4568