@pro_kvm

Страница 517 из 521
Eduard
23.10.2018
11:54:42
И пилите Шура - они золотые ! :)

terry
23.10.2018
11:54:52
?

смотрю я на эти стабильности и смеюсь

а естт люди и арч и генту еще держат

Google
terry
23.10.2018
11:55:46
а некоторые и того хуже

Irek
23.10.2018
11:56:19
да многие вообще считают, что enterprise == lts :)

Kirill
23.10.2018
11:56:31
Доброго времени суток. Есть вопрос по oVirt 4.2.6.4-1.el7. На хосте стоит два CPUx16 ядер каждый. ВМ отказывается запускаться, более чем с 16 ядрами

Irek
23.10.2018
11:57:09
количество сокетов увеличь

Dan
23.10.2018
12:23:36
Как на proxmox 4 форсировать чтобы нода была мастером ? старый мастер приказал долго жить...

Dan
23.10.2018
12:24:29
pveca -m

вобще pvecm но там в хелпе нет такого ключа

я с форумов и пришел

я не могу разрушить существующий кластер, а ноду сломавшуюся добавить надо

Aleks
24.10.2018
07:22:22


Alexey
24.10.2018
07:26:59
Привет человек который не читает документацию, 3,2 это вполне себе норма

Eduard
24.10.2018
07:43:09
size - количество реплик min size - минимальное количество реплик, при внештатных ситуациях, когда Ceph не блокирует данные.

Google
Nikita
24.10.2018
09:06:57
size - количество?

Alexey
24.10.2018
09:08:02
да

Dmitry
24.10.2018
09:08:41
@ceph_ru

Eduard
24.10.2018
09:13:46
@ceph_ru
Не ходи туда. Там отобьют желание знать Ceph на ухналь.

Dmitry
24.10.2018
09:14:00
я там почти с основания канала ?

нужно понимать с чем имеешь дело сразу - иначе потом - более глубокая боль не только от того, что кластера встал раком, хотя мы крутили их в тхенологии в целом

Irek
24.10.2018
09:30:22
Привет человек который не читает документацию, 3,2 это вполне себе норма
это рекомендация, причем к ней приходят с опытом и вазелином )

Alexey
24.10.2018
09:33:34
Danila
24.10.2018
13:40:39
Коллеги, поделитесь summary дашборадами в графане, у кого какие интересно

Eduard
24.10.2018
16:34:21
А я все никак до нее не дорасту. Все в забиксе копашусь.

Danila
24.10.2018
16:37:24
А я все никак до нее не дорасту. Все в забиксе копашусь.
Решил наскоком взять. Сложность не в самой графане, а в языке запросов к базе

Eduard
24.10.2018
16:38:45
mongo + elastics ?

Danila
24.10.2018
16:58:11
Node_exporter + Prometheus )

Ну ещё конечно 2-3 экспортёра доберу, snmp , ceph, openstack, blackbox

Alexey
24.10.2018
17:50:43
Node_exporter + Prometheus )
дык там query language докуметированный к прометеусу идёт

Sergey
24.10.2018
18:42:19
через libvit_exporter удобно строить графики по виртуалкам.

Danila
24.10.2018
19:17:31
Andrey
25.10.2018
05:52:49
да многие вообще считают, что enterprise == lts :)
а на самом деле энтерпрайз — это centos 5 с частоколом из костылей и файрволов ?

Artem
25.10.2018
06:01:15
ребятки где в овирте тулза лежит которая грохает подвисшие таски ?

Google
Nikita
25.10.2018
06:19:27
terry
25.10.2018
13:22:08
а кто-то юзает/юзал https://wiki.hetzner.de/index.php/Storage_Boxes/en ?

как у них с аптаймом и скоростью скачивания и выгрузки на них ?

Dan
25.10.2018
14:05:14
а на самом деле энтерпрайз — это centos 5 с частоколом из костылей и файрволов ?
хреновый энтерпрайз однако. Я даже в банках везде вижу семерку

terry
25.10.2018
14:10:07
видно там ок админам платят и банки себя чувствуют ок

Dan
25.10.2018
14:10:36
видно там ок админам платят и банки себя чувствуют ок
ну, как бы... нормальные американские и канадские банки

европейские не трогал с тех пор как rhel6 был актуален, и там он как раз был

обычно нормальные энтерпрайзы мигрируют на новый EL на втором минорном релизе

Dan
25.10.2018
14:13:10
это нормальные))
я с ненормальными дел не имею

terry
25.10.2018
14:13:26
я уже тоже так стараюсь, но не всегда получаеться )

Dan
25.10.2018
14:17:32
я уже тоже так стараюсь, но не всегда получаеться )
уже? надо всегда так. Я одно время фрилансил и работал по мелочевке, и тоже постоянно приходилось заниматься херней чтоб в бюджет клиентов мелкого пошиба уместиться. Сбежал оттуда в нормальное IT и внезапно понял какой хуйней я страдал. А после годика в Делл с их топовыми клиентами, вообще стало смешно оглядываться назад на все эти конторки с десятком рабстанций и недосерверочком

Ruslan
25.10.2018
20:09:29
есть кто живой ?

Vladimir
25.10.2018
20:17:10
Есть но в силу усталости не факт что поомгк да и опыта не так уже и много попробовать стоит

Ruslan
25.10.2018
20:18:14
Пытаюсь подключить на овирт сделанную из сервера хранилку, по iscsi

Google
Ruslan
25.10.2018
20:19:19


и все, не подключает. начинает вроде что-то делать а потом обрывает , говорит что мол ошибка при выполнении операции

Dan
25.10.2018
20:22:12
LUN чистый?

Ruslan
25.10.2018
20:22:35
только что сделали. Но вишь, говорит что не чистый...

Dan
25.10.2018
20:22:44
потому что там есть метадата

Ruslan
25.10.2018
20:23:05
там файловую систему же не надо делать

Dan
25.10.2018
20:23:05
для начала, на хосте овирта, посмотреть iscsiadm -m sessions

и multipath -ll

и сюда

Ruslan
25.10.2018
20:24:18
[root@node1 ~]# iscsiadm -m session tcp: [2] 10.110.40.12:3260,257 iqn.2018-10.ru.informika:target0 (non-flash) [root@node1 ~]# multipath -ll 1FREEBSD_STOR1_lun0 dm-17 FREEBSD ,CTLDISK size=3.6T features='1 queue_if_no_path' hwhandler='0' wp=rw `-+- policy='service-time 0' prio=1 status=active `- 8:0:0:0 sdc 8:32 active ready running 1FREEBSD_NAS_lun0 dm-16 size=2.3T features='0' hwhandler='0' wp=rw 360030057011e20002189d6ce2b1da5b1 dm-0 LSI ,RAID 5/6 SAS 6G size=136G features='1 queue_if_no_path' hwhandler='0' wp=rw `-+- policy='service-time 0' prio=1 status=active `- 0:2:0:0 sda 8:0 active ready running 360030057011e20002189d6ce2b1e20e2 dm-1 LSI ,RAID 5/6 SAS 6G size=3.6T features='1 queue_if_no_path' hwhandler='0' wp=rw `-+- policy='service-time 0' prio=1 status=active `- 0:2:1:0 sdb 8:16 active ready running

Dan
25.10.2018
20:25:56
это как раз тот самый ЛУН?

Ruslan
25.10.2018
20:28:35
tcp: [2] 10.110.40.12:3260,257 iqn.2018-10.ru.informika:target0 (non-flash)

это да

Откуда другие - не пойму. Ранее пробовал подлючать на удаленную хранилку, но после этого удалил вроде стораж

Dan
25.10.2018
20:38:08
multipath -F

systemctl restart multipathd

Ruslan
25.10.2018
20:40:50
Это надо на всех нода проделать ?

Dan
25.10.2018
20:41:32
на той через которую пытаешься подключить ЛУН

Ruslan
25.10.2018
20:42:59
Oct 25 23:42:19 | 1FREEBSD_STOR1_lun0: map in use

[root@node1 ~]# multipath -F Oct 25 23:42:19 | 1FREEBSD_STOR1_lun0: map in use Oct 25 23:42:19 | failed to remove multipath map 1FREEBSD_STOR1_lun0 Oct 25 23:42:19 | 1FREEBSD_NAS_lun0: map in use Oct 25 23:42:20 | failed to remove multipath map 1FREEBSD_NAS_lun0 Oct 25 23:42:20 | 360030057011e20002189d6ce2b1da5b1p3: map in use Oct 25 23:42:20 | failed to remove multipath map 360030057011e20002189d6ce2b1da5b1 Oct 25 23:42:20 | 360030057011e20002189d6ce2b1e20e2: map in use Oct 25 23:42:20 | failed to remove multipath map 360030057011e20002189d6ce2b1e20e2

Google
Ruslan
25.10.2018
20:44:46
Слушай, а если сейчас попробовать сделать импорт домен ?

ну он говорит что домен там есть, попробовать сделать его импорт

Или потом вообще получится непонятно что ?

;)
25.10.2018
20:45:17
vgs сделай

мб он в lvm добавлен

Ruslan
25.10.2018
20:46:42
vgs ?

;)
25.10.2018
20:46:54
pvs

Ага там есть какие нибудь группы?

Ruslan
25.10.2018
20:47:54
что то там вообще страшное

[root@node1 ~]# vgs /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505475584: Ошибка ввода/вывода /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505532928: Ошибка ввода/вывода /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536805376: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536862720: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147418112: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147475456: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода

[root@node1 ~]# pvs /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505475584: Ошибка ввода/вывода /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 2555505532928: Ошибка ввода/вывода /dev/mapper/1FREEBSD_NAS_lun0: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536805376: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 536862720: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/metadata: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/outbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/xleases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147418112: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 2147475456: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/leases: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/ids: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134152192: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 134209536: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/inbox: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 0: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073676288: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 1073733632: Ошибка ввода/вывода /dev/846a930e-f927-4aa5-8f72-5598c5531690/master: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода

;)
25.10.2018
20:48:36
Это какой то лок

Вполне возможно еще где то подцеплен таргет

Ruslan
25.10.2018
20:50:47
а как это все вычистить ?

;)
25.10.2018
20:51:00
На строне таргета смотри

Ruslan
25.10.2018
20:52:42
так локи то на стороне овирта...

на стороне таргета уже рестартовали демон, локов не должно остаться.

и, как я смотрю остались ошметки от того что я пробовал добавлял хранилище на медленной линии. Оно тогда подключилось, мне нужна была только проверка что подключается. я потом этот домен удалил.

Dan
25.10.2018
20:56:22
в маунтах случайно ничего не висит?

и в fstabe ничего не прописано на эти дохлые точки?

если нет то еще можно kpartx -d потереть меппинги

;)
25.10.2018
20:57:20
или dd сделай 1й мегабайт блочного устройства

Страница 517 из 521