Александр
23.09.2017
08:58:27
Хостс везде одинаков
id2 вывалилась из кластера, ее надо перевводить
Alexander
23.09.2017
09:03:13
и да, лог перезапуска неинтересен
интересен именно corosync-овский, с узла id2
Google
Alexander
23.09.2017
09:04:40
journalctl -u corosync -n100
Александр
23.09.2017
09:05:39
Все вроде собрал
все машины онлайн
проблемы была как раз в этом id2
у него какая-та ересь была в corosync
Alexander
23.09.2017
09:07:13
в конфиге?
Александр
23.09.2017
09:07:54
А нет нихуя
Хм
Sep 23 12:05:49 node01 corosync[2113]: [TOTEM ] Failed to receive the leave message. failed: 6 7 8 1 3 4 5
Sep 23 12:05:49 node01 corosync[2113]: [QUORUM] This node is within the non-primary component and will NOT provide any services.
https://pastebin.com/LASPhSds
Ivan
23.09.2017
09:13:19
Александр
23.09.2017
09:13:52
172.16.7.0/24 - не трогал
Google
Александр
23.09.2017
09:14:20
Добавил внешних сетей
На всех нодах одинаковые сети
Ivan
23.09.2017
09:14:37
достаточно добавить мост, чтоб все раломалось
Александр
23.09.2017
09:14:44
Список работающих сетей одинаков
Ivan
23.09.2017
09:15:13
до создания кластера
Александр
23.09.2017
09:15:19
ШТО БЛЯТЬ!?
Ivan
23.09.2017
09:15:23
даже где-то читал про это ?
Александр
23.09.2017
09:15:25
Ты серьезно?!
Ivan
23.09.2017
09:16:12
ну из моих наблюдений. в доках такого не советуют
Александр
23.09.2017
09:16:51
Пиздец
Ivan
23.09.2017
09:17:15
*в доках такого не советуют - в смысле ничего про такое поведение нет
Александр
23.09.2017
09:17:46
Я так понял, на каждой ноде, должно быть одинаковое кол-во сетей и они должны быть похожи типа node0(vmbr0(10.10.10.10) и node01(vmbr0(10.10.10.11) и т.д., в таком ключе
Хм, а может быть такое, что(!)
8 серверов имеют vmbr6
на 5 серверах этот vmbr6 настроен через bridge_ports eth0.6, но 3 настроено через bridge_ports eth1.6
Хотя казалось бы, причем тут сеть кластера и другой бридж
Может это из-за ceph-mon?
Alexander
23.09.2017
10:21:42
я на 4-ке бриджи на паре кластеров делал _после запуска кластера - ничего не ломалось
Александр
23.09.2017
14:18:17
3 сервера из 7
wait for agent lock
Бля
Вообщем дело было в сети, на одном из свичей на порту не было vlan :-/
Google
-_+
23.09.2017
20:53:21
О, я выиграл приз?
Александр
23.09.2017
21:17:29
Только железо свое))))
Dmitry
24.09.2017
07:19:29
Конфигуряешь руками все?
Александр
24.09.2017
07:20:43
Свичи да
И то не я, у нас сетевик есть
Сети занесены в гейбук с ансибла разворачиваю
Ну и там ещё sysctl и по мелочи всякое
Alexey
24.09.2017
08:19:48
парни, подскажите что делать,
есть сервер supermicro, стоит raid контролер lsi mega raid с винтами sas, при попытки поднять виртуализацию не видет винты, даже windows server 2008r2 не видет
Nikita
24.09.2017
08:20:22
В смысле ты ось не можешь поставить?
Alexey
24.09.2017
08:20:44
да
Nikita
24.09.2017
08:21:41
Диски в рейде?
Alexey
24.09.2017
08:22:15
да, raid 1 по 2 диска
контроллер lsi megaraid sas 9341-4i
Nikita
24.09.2017
08:24:46
У меня такая проблема на super micro lsi и sas дисках
Центос ни в какую не видел
Короче, нашёл форум, где там в ручную нужно было разбивку диска сделать, какие-то сложности с метаданными от рейда
Ща попробую топик найти
https://www.centos.org/forums/viewtopic.php?t=49069
Alexey
24.09.2017
08:27:47
Google
Nikita
24.09.2017
08:28:28
Ну либо драйвер руками укажи:)
Для винды
Alexey
24.09.2017
08:28:50
мне proxmox нужно поставить
Alexey
24.09.2017
08:28:54
Nikita
24.09.2017
08:29:31
Alexey
24.09.2017
08:30:08
debian
Nikita
24.09.2017
08:30:39
И винда тоже не видит? А драйвера пытался указать в ручную?
Alexey
24.09.2017
08:31:02
без дров не видет
сейчас попробую вручную указать дрова
Nikita
24.09.2017
08:31:27
А с дровами?
Alexey
24.09.2017
08:31:41
пока не пробовал
Nikita
24.09.2017
08:33:46
Если не поможет попробуй вот это
dd if=/dev/zero of=/dev/sda bs=1024 seek=(<blocks>-20) count=20
Note: <blocks> is the TOTAL number of bytes on the disk, divided by 1024. The number of blocks in a single, whole-disk partition is NOT the right number. You must wipe the 20 last kB of the DISK, not of the PARTITION.
Мне помогло
Александр
24.09.2017
08:33:52
Alexey
24.09.2017
08:34:21
контроллер диски видит нормально
Александр
24.09.2017
08:35:20
Ты прокс 5 берешь?
Alexey
24.09.2017
08:35:31
да
Александр
24.09.2017
08:35:41
Возьми 4, апгред до 5)
Google
Александр
24.09.2017
08:35:49
Ну попробуй всмысле 4
Alexey
24.09.2017
08:36:18
сейчас попробую, скачаю
proxmox 4 диски увидела, на 5 нету поддержки
Alexander
24.09.2017
08:51:38
сдаётся мне, что fakeraid, судя по ссылке. разобрать рейд в биосе, сделать обычный mdraid
Hackru
24.09.2017
09:10:39
+
Alexey
24.09.2017
11:22:35
а кто-то пробрасовал usb в proxmox в виртуальную машину windows ?
Марк ☢
24.09.2017
12:33:42
Alexey
24.09.2017
15:54:00
только мать неподерживает sas диски
terry
25.09.2017
20:53:05
тупой вопрос - если я хочу впилить еще одну сетевуху с 3й подсетью, отличной от 2х, которые есть на проксмоксе, мне получается нужно ребутить сам проксомокс + все виртулаки тушить на время ребута?
захотелось вот такое https://gist.github.com/stump201/fbd25292f656725acafbbc4fed761a08
Roman
25.09.2017
21:05:21
Nikita
26.09.2017
04:56:51
Ребят, привет, никто не сталкивался на ovirt node с такой проблемой при обновлении:
Failed to install Host vnode12. Yum Non-fatal POSTIN scriptlet failure in rpm package ovirt-node-ng-image-update-4.1.6-1.el7.centos.noarch.
?
В гугле чет толкового ничего не нашел
selinux отключал, не помогло
terry
26.09.2017
05:24:07
Марк ☢
26.09.2017
05:28:34
@erzent @erzentd
Налетай
Nikita
26.09.2017
05:33:02
terry
26.09.2017
05:33:09
Марк ☢
26.09.2017
05:33:39
Он дрочит на редхат и овирт в частности