
Александр
18.09.2017
14:35:16
Я логики не уловил
Или в дефолте все сервера?

Vadim
18.09.2017
14:37:40
оом не случится, если есть свободная память и своп

Google

Александр
18.09.2017
14:40:17

Alex
18.09.2017
14:40:25
что подразумевается под etc ?
Swap 2gb, etc 15%, home 5%, остальное под var

Александр
18.09.2017
14:40:39
под /

Alex
18.09.2017
14:41:06
root ?

Александр
18.09.2017
14:41:17
Бляя, причем тут root?
под /

Alex
18.09.2017
14:42:09
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/cl-root 50G 1.7G 49G 4% /
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 8.9M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/cl-home 157G 35M 157G 1% /home
/dev/sda1 1014M 155M 860M 16% /boot
tmpfs 3.2G 0 3.2G 0% /run/user/0
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223.5G 0 disk
├─sda1 8:1 0 1G 0 part /boot
└─sda2 8:2 0 222.5G 0 part
├─cl-root 253:0 0 50G 0 lvm /
├─cl-swap 253:1 0 15.8G 0 lvm [SWAP]
└─cl-home 253:3 0 156.8G 0 lvm /home
sdb 8:16 0 465.7G 0 disk
└─3600508b1001c9395e0ed270775ebfa19 253:2 0 465.7G 0 mpath

Ivan
18.09.2017
14:43:11
Я логики не уловил
в том то и дело, что логики никакой нет, просто полистай линукс-форумы с болью тех, кто не использует своп. в некоторых случаях выползают странные баги в различных дистрах.

Александр
18.09.2017
14:43:29
Ты еще в пример лор приведи

Mikhail
18.09.2017
14:44:01

Google

Александр
18.09.2017
14:44:17
Я только 3 знаю, а их больше куда больше

Robert
18.09.2017
14:44:25
отсутсвием свопа я был бы озабочен меньше всего, когда система крутиться на stripe

Александр
18.09.2017
14:44:27
даже 4
?

Nick
18.09.2017
14:44:48

Alex
18.09.2017
14:44:54
я не знаю поэтому и спрашиваю

Ivan
18.09.2017
14:49:08

Alex
18.09.2017
14:50:24
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/cl-root 50G 1.7G 49G 4% /
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 8.9M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/cl-home 157G 35M 157G 1% /home
/dev/sda1 1014M 155M 860M 16% /boot
tmpfs 3.2G 0 3.2G 0% /run/user/0
кто сможет пояснить куда что юзается

Viktor
18.09.2017
14:54:26
/dev/sda1 для /boot
/dev/mapper/clroot для /
/dev/mapper/cl-home для /home

Nikita
18.09.2017
14:56:33
etc = /
Немного неправильно выразился

Alex
18.09.2017
15:02:22
а все остальное?
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 8.9M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
tmpfs 3.2G 0 3.2G 0% /run/user/0
что это и зачем
/dev/sda1 для /boot
/dev/mapper/clroot для /
/dev/mapper/cl-home для /home
про это понятно загрузочная область, корень, домашняя папка

Google

Nick
18.09.2017
15:08:45
ЧЯДНТ? у меня 2х нодовый кластер (бейте меня, бейте!) - но нужно, чтобы одну ноду можно было спокойно заребутить и вторая не начинала бы сильно нервничать ?
# pveversion
pve-manager/4.2-18/158720b9 (running kernel: 4.4.16-1-pve)
# pvecm expected 1
# pvecm status
Quorum information
------------------
Date: Mon Sep 18 18:06:40 2017
Quorum provider: corosync_votequorum
Nodes: 2
Node ID: 0x00000001
Ring ID: 2/676
Quorate: Yes
Votequorum information
----------------------
Expected votes: 2
Highest expected: 2
Total votes: 2
Quorum: 2
Flags: Quorate
Membership information
----------------------
Nodeid Votes Name
0x00000002 1 192.168.0.42
0x00000001 1 192.168.0.43 (local)

Nikita
18.09.2017
15:14:01
А в чём проблема?

Nick
18.09.2017
15:14:20
В том, что expected не меняется на 1

Nikita
18.09.2017
15:16:29
Я только с esxi и ovirt работал. Есть возможность перевести ноду в режим обслуживания?
Или это оно и есть?
Виртуалок на ноде нет?

Nick
18.09.2017
15:19:03
Ну вот режим обслуживания, да, погуглю сейчас... а то все кластеры минимум из 3х нод - и проблем нет - а тут редкость такая :)

Nikita
18.09.2017
15:21:00
Суть кластера как мне кажется в кворуме, когда большинство принимает решение
А из 2 нод кворум не сделаешь

Nikita
18.09.2017
15:55:55


тнн Itjunky
18.09.2017
21:02:18
Всем привет. Помогите iso смаунтить
Подскажите по kvm
Пытаюсь подсунуть iso по этому ману http://opensysblog.directorioc.net/2012/06/mounting-and-umounting-cd-rom-iso-in.html
В ответ вижу, что всё окей, но в реальности ни в конфиге, ни при загрузке не видно, что смонтировалась исошка =(
Странно, загрузился в систему, там диск маунтится. Но вот загрузиться с него не удаётся даже через меню F12 и выбор там CD диска
При этом
<os>
<type arch='x86_64' machine='pc'>hvm</type>
<boot dev='cdrom'/>
</os>
Нифига не срабатывает с ошибкой
error: unsupported configuration: per-device boot elements cannot be used together with os/boot elements
Гугление по которой нифига не помогает =(
Победил эту тему через добавление <boot order='1'/> к диску с iso.
Но далее увидел, что диск якобы не пригоден для загрузки, хотя попробовал разные исошки, которые вполне рабочие, но мне пишут ошибку
boot failed: could not read from cdrom (code 0003)
No bootable device


Kirill
19.09.2017
01:51:42
Народ, вопрос такой, у кого нибудь есть успешный опыт проброса видеокарт (относительно новых - radeon 560, nvidia 10**) в proxmox? )

Александр
19.09.2017
03:44:34

Kirill
19.09.2017
03:47:10
Норм запросы, не дошел до такого
Я тоже )) вот есть видюхи - но пока особо мануала на новые видюхи не нашёл - а в нюансах копаться времени нет, в вики про видяхи нвидиа 7хх

Александр
19.09.2017
03:50:26
Я думаю не сильно различаются варианты установки

Google

тнн Itjunky
19.09.2017
07:37:31
А драйвер какой?
<disk type='block' device='cdrom'>
<driver name='qemu' type='raw'/>
<target dev='hda' bus='ide'/>
<readonly/>
<boot order='1'/>
<address type='drive' controller='0' bus='0' target='0' unit='0'/>
</disk>

Александр
19.09.2017
07:49:28
ide? сереьзно?

тнн Itjunky
19.09.2017
07:51:24
А что? virtio поставить?

Александр
19.09.2017
07:52:23
Да

Dmitry
19.09.2017
07:59:23
лол
ваще, в теории не должно быть проблем с пробросом
квм могет

тнн Itjunky
19.09.2017
08:04:44
Да
error: unsupported configuration: virtio only support device address type 'PCI'
raw сменить на pci?
to fix the error the address type needed to be removed – specifically <address type=’drive’ controller=’0′ bus=’0′ target=’0′ unit=’0’/>
Что за шляпа то? Чот меня начинает утомлять эта грабля на грабле у KVM =(
Ну да, удалил эту тему и тут же другая ошибка
error: internal error: process exited while connecting to monitor: qemu-system-x86_64: -drive if=none,media=cdrom,id=drive-virtio-disk0,readonly=on,format=raw: Duplicate ID 'drive-virtio-disk0' for drive
охххх, кажется мне помог локально установленный virt-manager и подключённый к удалённой системе

Nick
19.09.2017
09:38:49
коллеги, подскажите - один ovirt engine может управлять несколькими независимыми гипервизорами?
в смысле вообще никак не связанными между собой
ну и вопрос вдогонку - а несколькими кластерами? ?

Александр
19.09.2017
09:44:53

Nick
19.09.2017
09:45:36
Как это понять?
ну вот просто есть два независимых гипервизора, не в кластере, без шаренных ресурсов

Александр
19.09.2017
09:45:57
И? Добавить их в энджин и будет управляться с него
Разбить на 2 дц и в разные доавить

Google

Александр
19.09.2017
09:46:24
Что б не пересекались ресурсы и тд.

Nick
19.09.2017
09:46:35
ок. спасибо.. это все, что хотел узнать

Александр
19.09.2017
09:46:52
Правда там ебля может быть с хранилищем в engine

Nick
19.09.2017
09:48:25
почему?
смотри - на каждом из гипервизоров примерно по сотне дисков, подаются в виртуалки посредством прямого проброса устройства. т.е. ни о какой миграции речь не идет
просто хочется иметь единую панель управления этим хозяйством

Александр
19.09.2017
09:48:48
Потому что engine нужно хранилище общее для запуска датацентра
Если не ошибаюсь
Там условия есть, для запуска engine
Возможно в новом такого гемора нет.

Nick
19.09.2017
09:49:46
ну концепция "датацентров" в одном энжине как-бы подразумевает, что общее хранилище наверно не нужно )
и "общее" с кем? гипервизорами?

Александр
19.09.2017
09:50:42
Ты не понял, есть понятие "дц" == кластер, что б запустить его, нужно хранилище общее для гиперов, т.е. либо локально либо внешка(cpeh,nfs, etc)
Я как-то ставил его и он ебал мне мозги о том что без хранилища общего нельзя запустить "дц"
Ну дц - это абстрактно кластер

Nick
19.09.2017
09:53:47
а.. ну если в каждом ДЦ по одной ноде - то, наверно, не нужно общее
?
короче поэкспериментирую, надеюсь все удастся

Nikita
19.09.2017
12:58:14
Насколько я знаю, хранилищами может быть только nfs, iscsi или gcluster. Можно nfs сервер поднять на самом гипервизоре и подключить его к самому себе
В пределах одного датацентра можно сделать несколько кластеров
И в каждый добавить по 1 ноде