
Eduard
23.10.2018
11:54:42
И пилите Шура - они золотые ! :)

terry
23.10.2018
11:54:52
?
смотрю я на эти стабильности и смеюсь
а естт люди и арч и генту еще держат

Google

terry
23.10.2018
11:55:46
а некоторые и того хуже

Irek
23.10.2018
11:56:19
да многие вообще считают, что enterprise == lts :)

Kirill
23.10.2018
11:56:31
Доброго времени суток. Есть вопрос по oVirt 4.2.6.4-1.el7. На хосте стоит два CPUx16 ядер каждый. ВМ отказывается запускаться, более чем с 16 ядрами

Irek
23.10.2018
11:57:09
количество сокетов увеличь

Dan
23.10.2018
12:23:36
Как на proxmox 4 форсировать чтобы нода была мастером ? старый мастер приказал долго жить...

terry
23.10.2018
12:24:16

Dan
23.10.2018
12:24:29
pveca -m
вобще pvecm но там в хелпе нет такого ключа
я с форумов и пришел
я не могу разрушить существующий кластер, а ноду сломавшуюся добавить надо

Aleks
24.10.2018
07:22:22

Alexey
24.10.2018
07:26:59
Привет человек который не читает документацию, 3,2 это вполне себе норма

Eduard
24.10.2018
07:43:09
size - количество реплик
min size - минимальное количество реплик, при внештатных ситуациях, когда Ceph не блокирует данные.

Google

Nikita
24.10.2018
09:06:57
size - количество?

Alexey
24.10.2018
09:08:02
да

Dmitry
24.10.2018
09:08:41
@ceph_ru

Eduard
24.10.2018
09:13:46
@ceph_ru
Не ходи туда. Там отобьют желание знать Ceph на ухналь.

Dmitry
24.10.2018
09:14:00
я там почти с основания канала ?
нужно понимать с чем имеешь дело сразу - иначе потом - более глубокая боль не только от того, что кластера встал раком, хотя мы крутили их в тхенологии в целом

Irek
24.10.2018
09:30:22

Alexey
24.10.2018
09:33:34

Danila
24.10.2018
13:40:39
Коллеги, поделитесь summary дашборадами в графане, у кого какие интересно

Eduard
24.10.2018
16:34:21
А я все никак до нее не дорасту. Все в забиксе копашусь.

Danila
24.10.2018
16:37:24

Eduard
24.10.2018
16:38:45
mongo + elastics ?

Alexey
24.10.2018
16:52:29

Danila
24.10.2018
16:58:11
Node_exporter + Prometheus )
Ну ещё конечно 2-3 экспортёра доберу, snmp , ceph, openstack, blackbox

Alexey
24.10.2018
17:50:43

Sergey
24.10.2018
18:42:19
через libvit_exporter удобно строить графики по виртуалкам.

Danila
24.10.2018
19:17:31

Andrey
25.10.2018
05:52:49

Artem
25.10.2018
06:01:15
ребятки где в овирте тулза лежит которая грохает подвисшие таски ?

Google

Nikita
25.10.2018
06:19:27

Artem
25.10.2018
06:20:02

terry
25.10.2018
13:22:08
а кто-то юзает/юзал https://wiki.hetzner.de/index.php/Storage_Boxes/en ?
как у них с аптаймом и скоростью скачивания и выгрузки на них ?

Dan
25.10.2018
14:05:14

terry
25.10.2018
14:10:07
видно там ок админам платят и банки себя чувствуют ок

Irek
25.10.2018
14:10:32

Dan
25.10.2018
14:10:36
европейские не трогал с тех пор как rhel6 был актуален, и там он как раз был
обычно нормальные энтерпрайзы мигрируют на новый EL на втором минорном релизе

terry
25.10.2018
14:12:41

Dan
25.10.2018
14:13:10

terry
25.10.2018
14:13:26
я уже тоже так стараюсь, но не всегда получаеться )

Dan
25.10.2018
14:17:32
я уже тоже так стараюсь, но не всегда получаеться )
уже? надо всегда так. Я одно время фрилансил и работал по мелочевке, и тоже постоянно приходилось заниматься херней чтоб в бюджет клиентов мелкого пошиба уместиться. Сбежал оттуда в нормальное IT и внезапно понял какой хуйней я страдал. А после годика в Делл с их топовыми клиентами, вообще стало смешно оглядываться назад на все эти конторки с десятком рабстанций и недосерверочком

terry
25.10.2018
14:23:07

Ruslan
25.10.2018
20:09:29
есть кто живой ?

Vladimir
25.10.2018
20:17:10
Есть но в силу усталости не факт что поомгк да и опыта не так уже и много попробовать стоит

Ruslan
25.10.2018
20:18:14
Пытаюсь подключить на овирт сделанную из сервера хранилку, по iscsi

Google

Ruslan
25.10.2018
20:19:19
и все, не подключает. начинает вроде что-то делать а потом обрывает , говорит что мол ошибка при выполнении операции

Dan
25.10.2018
20:22:12
LUN чистый?

Ruslan
25.10.2018
20:22:35
только что сделали. Но вишь, говорит что не чистый...

Dan
25.10.2018
20:22:44
потому что там есть метадата

Ruslan
25.10.2018
20:23:05
там файловую систему же не надо делать

Dan
25.10.2018
20:23:05
для начала, на хосте овирта, посмотреть iscsiadm -m sessions
и multipath -ll
и сюда

Ruslan
25.10.2018
20:24:18
[root@node1 ~]# iscsiadm -m session
tcp: [2] 10.110.40.12:3260,257 iqn.2018-10.ru.informika:target0 (non-flash)
[root@node1 ~]# multipath -ll
1FREEBSD_STOR1_lun0 dm-17 FREEBSD ,CTLDISK
size=3.6T features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='service-time 0' prio=1 status=active
`- 8:0:0:0 sdc 8:32 active ready running
1FREEBSD_NAS_lun0 dm-16
size=2.3T features='0' hwhandler='0' wp=rw
360030057011e20002189d6ce2b1da5b1 dm-0 LSI ,RAID 5/6 SAS 6G
size=136G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='service-time 0' prio=1 status=active
`- 0:2:0:0 sda 8:0 active ready running
360030057011e20002189d6ce2b1e20e2 dm-1 LSI ,RAID 5/6 SAS 6G
size=3.6T features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='service-time 0' prio=1 status=active
`- 0:2:1:0 sdb 8:16 active ready running

Dan
25.10.2018
20:25:56
это как раз тот самый ЛУН?

Ruslan
25.10.2018
20:28:35
tcp: [2] 10.110.40.12:3260,257 iqn.2018-10.ru.informika:target0 (non-flash)
это да
Откуда другие - не пойму. Ранее пробовал подлючать на удаленную хранилку, но после этого удалил вроде стораж

Dan
25.10.2018
20:38:08
multipath -F
systemctl restart multipathd

Ruslan
25.10.2018
20:40:50
Это надо на всех нода проделать ?

Dan
25.10.2018
20:41:32
на той через которую пытаешься подключить ЛУН

Ruslan
25.10.2018
20:42:59
Oct 25 23:42:19 | 1FREEBSD_STOR1_lun0: map in use
[root@node1 ~]# multipath -F
Oct 25 23:42:19 | 1FREEBSD_STOR1_lun0: map in use
Oct 25 23:42:19 | failed to remove multipath map 1FREEBSD_STOR1_lun0
Oct 25 23:42:19 | 1FREEBSD_NAS_lun0: map in use
Oct 25 23:42:20 | failed to remove multipath map 1FREEBSD_NAS_lun0
Oct 25 23:42:20 | 360030057011e20002189d6ce2b1da5b1p3: map in use
Oct 25 23:42:20 | failed to remove multipath map 360030057011e20002189d6ce2b1da5b1
Oct 25 23:42:20 | 360030057011e20002189d6ce2b1e20e2: map in use
Oct 25 23:42:20 | failed to remove multipath map 360030057011e20002189d6ce2b1e20e2

Google

Ruslan
25.10.2018
20:44:46
Слушай, а если сейчас попробовать сделать импорт домен ?
ну он говорит что домен там есть, попробовать сделать его импорт
Или потом вообще получится непонятно что ?

;)
25.10.2018
20:45:17
vgs сделай
мб он в lvm добавлен

Ruslan
25.10.2018
20:46:42
vgs ?

;)
25.10.2018
20:46:54
pvs
Ага там есть какие нибудь группы?


Ruslan
25.10.2018
20:47:54
что то там вообще страшное
[root@node1 ~]# vgs
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505475584: Ошибка ввода/вывода
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505532928: Ошибка ввода/вывода
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536805376: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536862720: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147418112: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147475456: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
[root@node1 ~]# pvs
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505475584: Ошибка ввода/вывода
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505532928: Ошибка ввода/вывода
/dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536805376: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536862720: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147418112: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147475456: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода
/dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода


;)
25.10.2018
20:48:36
Это какой то лок
Вполне возможно еще где то подцеплен таргет

Ruslan
25.10.2018
20:50:47
а как это все вычистить ?

;)
25.10.2018
20:51:00
На строне таргета смотри

Ruslan
25.10.2018
20:52:42
так локи то на стороне овирта...
на стороне таргета уже рестартовали демон, локов не должно остаться.
и, как я смотрю остались ошметки от того что я пробовал добавлял хранилище на медленной линии. Оно тогда подключилось, мне нужна была только проверка что подключается. я потом этот домен удалил.

Dan
25.10.2018
20:56:22
в маунтах случайно ничего не висит?
и в fstabe ничего не прописано на эти дохлые точки?
если нет то еще можно kpartx -d потереть меппинги

;)
25.10.2018
20:57:20
или dd сделай 1й мегабайт блочного устройства