@pro_kvm

Страница 225 из 521
Александр
23.09.2017
08:58:27
Хостс везде одинаков

id2 вывалилась из кластера, ее надо перевводить

Alexander
23.09.2017
09:03:13
и да, лог перезапуска неинтересен

интересен именно corosync-овский, с узла id2

Google
Alexander
23.09.2017
09:04:40
journalctl -u corosync -n100

Александр
23.09.2017
09:05:39
Все вроде собрал

все машины онлайн

проблемы была как раз в этом id2

у него какая-та ересь была в corosync

Alexander
23.09.2017
09:07:13
в конфиге?

Александр
23.09.2017
09:07:54
А нет нихуя

Хм

Sep 23 12:05:49 node01 corosync[2113]: [TOTEM ] Failed to receive the leave message. failed: 6 7 8 1 3 4 5 Sep 23 12:05:49 node01 corosync[2113]: [QUORUM] This node is within the non-primary component and will NOT provide any services.

https://pastebin.com/LASPhSds

Ivan
23.09.2017
09:13:19
https://pastebin.com/LASPhSds
сетку не перенастраивал на ноде, случаем ?

Александр
23.09.2017
09:13:52
172.16.7.0/24 - не трогал

Google
Александр
23.09.2017
09:14:20
Добавил внешних сетей

На всех нодах одинаковые сети

Ivan
23.09.2017
09:14:37
достаточно добавить мост, чтоб все раломалось

Александр
23.09.2017
09:14:44
Список работающих сетей одинаков

достаточно добавить мост, чтоб все раломалось
Каким образом тогда мне бриджи добавлять?

Ivan
23.09.2017
09:15:13
до создания кластера

Александр
23.09.2017
09:15:19
ШТО БЛЯТЬ!?

Ivan
23.09.2017
09:15:23
даже где-то читал про это ?

Александр
23.09.2017
09:15:25
Ты серьезно?!

Ivan
23.09.2017
09:16:12
ну из моих наблюдений. в доках такого не советуют

Александр
23.09.2017
09:16:51
Пиздец

Ivan
23.09.2017
09:17:15
*в доках такого не советуют - в смысле ничего про такое поведение нет

Александр
23.09.2017
09:17:46
Я так понял, на каждой ноде, должно быть одинаковое кол-во сетей и они должны быть похожи типа node0(vmbr0(10.10.10.10) и node01(vmbr0(10.10.10.11) и т.д., в таком ключе

Хм, а может быть такое, что(!) 8 серверов имеют vmbr6 на 5 серверах этот vmbr6 настроен через bridge_ports eth0.6, но 3 настроено через bridge_ports eth1.6

Хотя казалось бы, причем тут сеть кластера и другой бридж

Может это из-за ceph-mon?

Alexander
23.09.2017
10:21:42
я на 4-ке бриджи на паре кластеров делал _после запуска кластера - ничего не ломалось

Александр
23.09.2017
14:18:17
3 сервера из 7 wait for agent lock

Бля

Вообщем дело было в сети, на одном из свичей на порту не было vlan :-/

Google
-_+
23.09.2017
20:53:21
О, я выиграл приз?

Dmitry
24.09.2017
07:19:29
Конфигуряешь руками все?

Александр
24.09.2017
07:20:43
Свичи да

И то не я, у нас сетевик есть

Сети занесены в гейбук с ансибла разворачиваю

Ну и там ещё sysctl и по мелочи всякое

Alexey
24.09.2017
08:19:48
парни, подскажите что делать, есть сервер supermicro, стоит raid контролер lsi mega raid с винтами sas, при попытки поднять виртуализацию не видет винты, даже windows server 2008r2 не видет

Nikita
24.09.2017
08:20:22
В смысле ты ось не можешь поставить?

Alexey
24.09.2017
08:20:44
да

Nikita
24.09.2017
08:21:41
Диски в рейде?

Alexey
24.09.2017
08:22:15
да, raid 1 по 2 диска

контроллер lsi megaraid sas 9341-4i

Nikita
24.09.2017
08:24:46
У меня такая проблема на super micro lsi и sas дисках

Центос ни в какую не видел

Короче, нашёл форум, где там в ручную нужно было разбивку диска сделать, какие-то сложности с метаданными от рейда

Ща попробую топик найти

https://www.centos.org/forums/viewtopic.php?t=49069

Google
Nikita
24.09.2017
08:28:28
Ну либо драйвер руками укажи:)

Для винды

Alexey
24.09.2017
08:28:50
мне proxmox нужно поставить

Alexey
24.09.2017
08:28:54
Ну либо драйвер руками укажи:)
ту по ссылке пройди и увидешь драйвер для линуха)

Nikita
24.09.2017
08:29:31
ту по ссылке пройди и увидешь драйвер для линуха)
Не, у меня то именна трабла была, которую я выше описал

мне proxmox нужно поставить
А на какой ОС работает? Я просто с ним ни разу не сталкивался

Alexey
24.09.2017
08:30:08
debian

Nikita
24.09.2017
08:30:39
И винда тоже не видит? А драйвера пытался указать в ручную?

Alexey
24.09.2017
08:31:02
без дров не видет

сейчас попробую вручную указать дрова

Nikita
24.09.2017
08:31:27
А с дровами?

Alexey
24.09.2017
08:31:41
пока не пробовал

Nikita
24.09.2017
08:33:46
Если не поможет попробуй вот это

dd if=/dev/zero of=/dev/sda bs=1024 seek=(<blocks>-20) count=20 Note: <blocks> is the TOTAL number of bytes on the disk, divided by 1024. The number of blocks in a single, whole-disk partition is NOT the right number. You must wipe the 20 last kB of the DISK, not of the PARTITION.

Мне помогло

Alexey
24.09.2017
08:34:21
контроллер диски видит нормально

Александр
24.09.2017
08:35:20
Ты прокс 5 берешь?

Alexey
24.09.2017
08:35:31
да

Александр
24.09.2017
08:35:41
Возьми 4, апгред до 5)

Google
Александр
24.09.2017
08:35:49
Ну попробуй всмысле 4

Alexey
24.09.2017
08:36:18
сейчас попробую, скачаю

proxmox 4 диски увидела, на 5 нету поддержки

Alexander
24.09.2017
08:51:38
сдаётся мне, что fakeraid, судя по ссылке. разобрать рейд в биосе, сделать обычный mdraid

Hackru
24.09.2017
09:10:39
+

Alexey
24.09.2017
11:22:35
а кто-то пробрасовал usb в proxmox в виртуальную машину windows ?

Alexey
24.09.2017
15:54:00
только мать неподерживает sas диски

terry
25.09.2017
20:53:05
тупой вопрос - если я хочу впилить еще одну сетевуху с 3й подсетью, отличной от 2х, которые есть на проксмоксе, мне получается нужно ребутить сам проксомокс + все виртулаки тушить на время ребута?

захотелось вот такое https://gist.github.com/stump201/fbd25292f656725acafbbc4fed761a08

Roman
25.09.2017
21:05:21
тупой вопрос - если я хочу впилить еще одну сетевуху с 3й подсетью, отличной от 2х, которые есть на проксмоксе, мне получается нужно ребутить сам проксомокс + все виртулаки тушить на время ребута?
А вы можете поставить сетевуху без выключения машины? Хотя может у вас USB сетевуха, но это странное решение для сервера с виртуалками. Тушить ничего не надо, настраиваете интерфейс в /etc/network/interfaces делаете ему ifup и готово. Емнип прокс подхватывает нормально новые интерфейсы.

Nikita
26.09.2017
04:56:51
Ребят, привет, никто не сталкивался на ovirt node с такой проблемой при обновлении: Failed to install Host vnode12. Yum Non-fatal POSTIN scriptlet failure in rpm package ovirt-node-ng-image-update-4.1.6-1.el7.centos.noarch.

?

В гугле чет толкового ничего не нашел

selinux отключал, не помогло

Марк ☢
26.09.2017
05:28:34
@erzent @erzentd

Налетай

Nikita
26.09.2017
05:33:02
https://bugzilla.redhat.com/show_bug.cgi?id=1493033
Да читал, но чет решения проблемы я не увидел

terry
26.09.2017
05:33:09
Налетай
и что это?

Марк ☢
26.09.2017
05:33:39
Он дрочит на редхат и овирт в частности

Страница 225 из 521