
Александр
23.09.2017
08:58:27
Хостс везде одинаков
id2 вывалилась из кластера, ее надо перевводить

Alexander
23.09.2017
09:03:13
и да, лог перезапуска неинтересен
интересен именно corosync-овский, с узла id2

Google

Alexander
23.09.2017
09:04:40
journalctl -u corosync -n100

Александр
23.09.2017
09:05:39
Все вроде собрал
все машины онлайн
проблемы была как раз в этом id2
у него какая-та ересь была в corosync

Alexander
23.09.2017
09:07:13
в конфиге?

Александр
23.09.2017
09:07:54
А нет нихуя
Хм
Sep 23 12:05:49 node01 corosync[2113]: [TOTEM ] Failed to receive the leave message. failed: 6 7 8 1 3 4 5
Sep 23 12:05:49 node01 corosync[2113]: [QUORUM] This node is within the non-primary component and will NOT provide any services.
https://pastebin.com/LASPhSds

Ivan
23.09.2017
09:13:19

Александр
23.09.2017
09:13:52
172.16.7.0/24 - не трогал

Google

Александр
23.09.2017
09:14:20
Добавил внешних сетей
На всех нодах одинаковые сети

Ivan
23.09.2017
09:14:37
достаточно добавить мост, чтоб все раломалось

Александр
23.09.2017
09:14:44
Список работающих сетей одинаков

Ivan
23.09.2017
09:15:13
до создания кластера

Александр
23.09.2017
09:15:19
ШТО БЛЯТЬ!?

Ivan
23.09.2017
09:15:23
даже где-то читал про это ?

Александр
23.09.2017
09:15:25
Ты серьезно?!

Ivan
23.09.2017
09:16:12
ну из моих наблюдений. в доках такого не советуют

Александр
23.09.2017
09:16:51
Пиздец

Ivan
23.09.2017
09:17:15
*в доках такого не советуют - в смысле ничего про такое поведение нет

Александр
23.09.2017
09:17:46
Я так понял, на каждой ноде, должно быть одинаковое кол-во сетей и они должны быть похожи типа node0(vmbr0(10.10.10.10) и node01(vmbr0(10.10.10.11) и т.д., в таком ключе
Хм, а может быть такое, что(!)
8 серверов имеют vmbr6
на 5 серверах этот vmbr6 настроен через bridge_ports eth0.6, но 3 настроено через bridge_ports eth1.6
Хотя казалось бы, причем тут сеть кластера и другой бридж
Может это из-за ceph-mon?

Alexander
23.09.2017
10:21:42
я на 4-ке бриджи на паре кластеров делал _после запуска кластера - ничего не ломалось

Александр
23.09.2017
14:18:17
3 сервера из 7
wait for agent lock
Бля
Вообщем дело было в сети, на одном из свичей на порту не было vlan :-/

Google

-_+
23.09.2017
20:53:21
О, я выиграл приз?

Александр
23.09.2017
21:17:29
Только железо свое))))

Dmitry
24.09.2017
07:19:29
Конфигуряешь руками все?

Александр
24.09.2017
07:20:43
Свичи да
И то не я, у нас сетевик есть
Сети занесены в гейбук с ансибла разворачиваю
Ну и там ещё sysctl и по мелочи всякое

Alexey
24.09.2017
08:19:48
парни, подскажите что делать,
есть сервер supermicro, стоит raid контролер lsi mega raid с винтами sas, при попытки поднять виртуализацию не видет винты, даже windows server 2008r2 не видет

Nikita
24.09.2017
08:20:22
В смысле ты ось не можешь поставить?

Alexey
24.09.2017
08:20:44
да

Nikita
24.09.2017
08:21:41
Диски в рейде?

Alexey
24.09.2017
08:22:15
да, raid 1 по 2 диска
контроллер lsi megaraid sas 9341-4i

Nikita
24.09.2017
08:24:46
У меня такая проблема на super micro lsi и sas дисках
Центос ни в какую не видел
Короче, нашёл форум, где там в ручную нужно было разбивку диска сделать, какие-то сложности с метаданными от рейда
Ща попробую топик найти
https://www.centos.org/forums/viewtopic.php?t=49069

Alexey
24.09.2017
08:27:47

Google

Nikita
24.09.2017
08:28:28
Ну либо драйвер руками укажи:)
Для винды

Alexey
24.09.2017
08:28:50
мне proxmox нужно поставить

Alexey
24.09.2017
08:28:54

Nikita
24.09.2017
08:29:31

Alexey
24.09.2017
08:30:08
debian

Nikita
24.09.2017
08:30:39
И винда тоже не видит? А драйвера пытался указать в ручную?

Alexey
24.09.2017
08:31:02
без дров не видет
сейчас попробую вручную указать дрова

Nikita
24.09.2017
08:31:27
А с дровами?

Alexey
24.09.2017
08:31:41
пока не пробовал

Nikita
24.09.2017
08:33:46
Если не поможет попробуй вот это
dd if=/dev/zero of=/dev/sda bs=1024 seek=(<blocks>-20) count=20
Note: <blocks> is the TOTAL number of bytes on the disk, divided by 1024. The number of blocks in a single, whole-disk partition is NOT the right number. You must wipe the 20 last kB of the DISK, not of the PARTITION.
Мне помогло

Александр
24.09.2017
08:33:52

Alexey
24.09.2017
08:34:21
контроллер диски видит нормально

Александр
24.09.2017
08:35:20
Ты прокс 5 берешь?

Alexey
24.09.2017
08:35:31
да

Александр
24.09.2017
08:35:41
Возьми 4, апгред до 5)

Google

Александр
24.09.2017
08:35:49
Ну попробуй всмысле 4

Alexey
24.09.2017
08:36:18
сейчас попробую, скачаю
proxmox 4 диски увидела, на 5 нету поддержки

Alexander
24.09.2017
08:51:38
сдаётся мне, что fakeraid, судя по ссылке. разобрать рейд в биосе, сделать обычный mdraid

Hackru
24.09.2017
09:10:39
+

Alexey
24.09.2017
11:22:35
а кто-то пробрасовал usb в proxmox в виртуальную машину windows ?

Марк ☢
24.09.2017
12:33:42

Alexey
24.09.2017
15:54:00
только мать неподерживает sas диски

terry
25.09.2017
20:53:05
тупой вопрос - если я хочу впилить еще одну сетевуху с 3й подсетью, отличной от 2х, которые есть на проксмоксе, мне получается нужно ребутить сам проксомокс + все виртулаки тушить на время ребута?
захотелось вот такое https://gist.github.com/stump201/fbd25292f656725acafbbc4fed761a08

Roman
25.09.2017
21:05:21

Nikita
26.09.2017
04:56:51
Ребят, привет, никто не сталкивался на ovirt node с такой проблемой при обновлении:
Failed to install Host vnode12. Yum Non-fatal POSTIN scriptlet failure in rpm package ovirt-node-ng-image-update-4.1.6-1.el7.centos.noarch.
?
В гугле чет толкового ничего не нашел
selinux отключал, не помогло

terry
26.09.2017
05:24:07

Марк ☢
26.09.2017
05:28:34
@erzent @erzentd
Налетай

Nikita
26.09.2017
05:33:02

terry
26.09.2017
05:33:09

Марк ☢
26.09.2017
05:33:39
Он дрочит на редхат и овирт в частности