@pro_kvm

Страница 223 из 521
Александр
18.09.2017
14:35:16
oom, может приходить при наличии свободной памяти, внезапные фризы системы, высокий LA
А как поможет своп при оом, если свободной памяти много?)

Я логики не уловил

Или в дефолте все сервера?

Vadim
18.09.2017
14:37:40
оом не случится, если есть свободная память и своп

Google
Александр
18.09.2017
14:40:17
Alex
18.09.2017
14:40:25
что подразумевается под etc ?

Swap 2gb, etc 15%, home 5%, остальное под var

Александр
18.09.2017
14:40:39
под /

Alex
18.09.2017
14:41:06
root ?

Александр
18.09.2017
14:41:17
Бляя, причем тут root?

под /

Alex
18.09.2017
14:42:09
Filesystem Size Used Avail Use% Mounted on /dev/mapper/cl-root 50G 1.7G 49G 4% / devtmpfs 16G 0 16G 0% /dev tmpfs 16G 0 16G 0% /dev/shm tmpfs 16G 8.9M 16G 1% /run tmpfs 16G 0 16G 0% /sys/fs/cgroup /dev/mapper/cl-home 157G 35M 157G 1% /home /dev/sda1 1014M 155M 860M 16% /boot tmpfs 3.2G 0 3.2G 0% /run/user/0

NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 223.5G 0 disk ├─sda1 8:1 0 1G 0 part /boot └─sda2 8:2 0 222.5G 0 part ├─cl-root 253:0 0 50G 0 lvm / ├─cl-swap 253:1 0 15.8G 0 lvm [SWAP] └─cl-home 253:3 0 156.8G 0 lvm /home sdb 8:16 0 465.7G 0 disk └─3600508b1001c9395e0ed270775ebfa19 253:2 0 465.7G 0 mpath

Ivan
18.09.2017
14:43:11
Я логики не уловил
в том то и дело, что логики никакой нет, просто полистай линукс-форумы с болью тех, кто не использует своп. в некоторых случаях выползают странные баги в различных дистрах.

Александр
18.09.2017
14:43:29
Ты еще в пример лор приведи

Mikhail
18.09.2017
14:44:01
Бляя, причем тут root?
как бы рут=корень=/

Google
Александр
18.09.2017
14:44:17
как бы рут=корень=/
Знаешь рутов сколько в лине?

Я только 3 знаю, а их больше куда больше

Robert
18.09.2017
14:44:25
отсутсвием свопа я был бы озабочен меньше всего, когда система крутиться на stripe

Alex
18.09.2017
14:44:54
я не знаю поэтому и спрашиваю

Ivan
18.09.2017
14:49:08
отсутсвием свопа я был бы озабочен меньше всего, когда система крутиться на stripe
для тестов норм. хотя для тестов не рытаются поднять производительность обычно.

Alex
18.09.2017
14:50:24
Filesystem Size Used Avail Use% Mounted on /dev/mapper/cl-root 50G 1.7G 49G 4% / devtmpfs 16G 0 16G 0% /dev tmpfs 16G 0 16G 0% /dev/shm tmpfs 16G 8.9M 16G 1% /run tmpfs 16G 0 16G 0% /sys/fs/cgroup /dev/mapper/cl-home 157G 35M 157G 1% /home /dev/sda1 1014M 155M 860M 16% /boot tmpfs 3.2G 0 3.2G 0% /run/user/0

кто сможет пояснить куда что юзается

Viktor
18.09.2017
14:54:26
/dev/sda1 для /boot /dev/mapper/clroot для / /dev/mapper/cl-home для /home

Nikita
18.09.2017
14:56:33
etc = /

Немного неправильно выразился

Alex
18.09.2017
15:02:22
а все остальное?

devtmpfs 16G 0 16G 0% /dev tmpfs 16G 0 16G 0% /dev/shm tmpfs 16G 8.9M 16G 1% /run tmpfs 16G 0 16G 0% /sys/fs/cgroup

tmpfs 3.2G 0 3.2G 0% /run/user/0

что это и зачем

/dev/sda1 для /boot /dev/mapper/clroot для / /dev/mapper/cl-home для /home

про это понятно загрузочная область, корень, домашняя папка

Google
Nick
18.09.2017
15:08:45
ЧЯДНТ? у меня 2х нодовый кластер (бейте меня, бейте!) - но нужно, чтобы одну ноду можно было спокойно заребутить и вторая не начинала бы сильно нервничать ? # pveversion pve-manager/4.2-18/158720b9 (running kernel: 4.4.16-1-pve) # pvecm expected 1 # pvecm status Quorum information ------------------ Date: Mon Sep 18 18:06:40 2017 Quorum provider: corosync_votequorum Nodes: 2 Node ID: 0x00000001 Ring ID: 2/676 Quorate: Yes Votequorum information ---------------------- Expected votes: 2 Highest expected: 2 Total votes: 2 Quorum: 2 Flags: Quorate Membership information ---------------------- Nodeid Votes Name 0x00000002 1 192.168.0.42 0x00000001 1 192.168.0.43 (local)

Nikita
18.09.2017
15:14:01
А в чём проблема?

Nick
18.09.2017
15:14:20
В том, что expected не меняется на 1

Nikita
18.09.2017
15:16:29
Я только с esxi и ovirt работал. Есть возможность перевести ноду в режим обслуживания?

Или это оно и есть?

Виртуалок на ноде нет?

Nick
18.09.2017
15:19:03
Ну вот режим обслуживания, да, погуглю сейчас... а то все кластеры минимум из 3х нод - и проблем нет - а тут редкость такая :)

Nikita
18.09.2017
15:21:00
Суть кластера как мне кажется в кворуме, когда большинство принимает решение

А из 2 нод кворум не сделаешь

Nikita
18.09.2017
15:55:55
А из 2 нод кворум не сделаешь
можно посадить арбитра

тнн Itjunky
18.09.2017
21:02:18
Всем привет. Помогите iso смаунтить

Подскажите по kvm Пытаюсь подсунуть iso по этому ману http://opensysblog.directorioc.net/2012/06/mounting-and-umounting-cd-rom-iso-in.html В ответ вижу, что всё окей, но в реальности ни в конфиге, ни при загрузке не видно, что смонтировалась исошка =(

Странно, загрузился в систему, там диск маунтится. Но вот загрузиться с него не удаётся даже через меню F12 и выбор там CD диска

При этом <os> <type arch='x86_64' machine='pc'>hvm</type> <boot dev='cdrom'/> </os> Нифига не срабатывает с ошибкой error: unsupported configuration: per-device boot elements cannot be used together with os/boot elements Гугление по которой нифига не помогает =(

Победил эту тему через добавление <boot order='1'/> к диску с iso. Но далее увидел, что диск якобы не пригоден для загрузки, хотя попробовал разные исошки, которые вполне рабочие, но мне пишут ошибку boot failed: could not read from cdrom (code 0003) No bootable device

Kirill
19.09.2017
01:51:42
Народ, вопрос такой, у кого нибудь есть успешный опыт проброса видеокарт (относительно новых - radeon 560, nvidia 10**) в proxmox? )

Kirill
19.09.2017
03:47:10
Норм запросы, не дошел до такого
Я тоже )) вот есть видюхи - но пока особо мануала на новые видюхи не нашёл - а в нюансах копаться времени нет, в вики про видяхи нвидиа 7хх

Александр
19.09.2017
03:50:26
Я думаю не сильно различаются варианты установки

Google
тнн Itjunky
19.09.2017
07:37:31
А драйвер какой?
<disk type='block' device='cdrom'> <driver name='qemu' type='raw'/> <target dev='hda' bus='ide'/> <readonly/> <boot order='1'/> <address type='drive' controller='0' bus='0' target='0' unit='0'/> </disk>

Александр
19.09.2017
07:49:28
ide? сереьзно?

тнн Itjunky
19.09.2017
07:51:24
А что? virtio поставить?

Александр
19.09.2017
07:52:23
Да

Dmitry
19.09.2017
07:59:23
лол

ваще, в теории не должно быть проблем с пробросом

квм могет

тнн Itjunky
19.09.2017
08:04:44
Да
error: unsupported configuration: virtio only support device address type 'PCI'

raw сменить на pci?

to fix the error the address type needed to be removed – specifically <address type=’drive’ controller=’0′ bus=’0′ target=’0′ unit=’0’/> Что за шляпа то? Чот меня начинает утомлять эта грабля на грабле у KVM =(

Ну да, удалил эту тему и тут же другая ошибка error: internal error: process exited while connecting to monitor: qemu-system-x86_64: -drive if=none,media=cdrom,id=drive-virtio-disk0,readonly=on,format=raw: Duplicate ID 'drive-virtio-disk0' for drive

охххх, кажется мне помог локально установленный virt-manager и подключённый к удалённой системе

Nick
19.09.2017
09:38:49
коллеги, подскажите - один ovirt engine может управлять несколькими независимыми гипервизорами?

в смысле вообще никак не связанными между собой

ну и вопрос вдогонку - а несколькими кластерами? ?

Александр
19.09.2017
09:44:53
ну и вопрос вдогонку - а несколькими кластерами? ?
Может, создаются "датацентры" - и в них разные "кластеры"/ноды

Nick
19.09.2017
09:45:36
Как это понять?
ну вот просто есть два независимых гипервизора, не в кластере, без шаренных ресурсов

Александр
19.09.2017
09:45:57
И? Добавить их в энджин и будет управляться с него

Разбить на 2 дц и в разные доавить

Google
Александр
19.09.2017
09:46:24
Что б не пересекались ресурсы и тд.

Nick
19.09.2017
09:46:35
ок. спасибо.. это все, что хотел узнать

Александр
19.09.2017
09:46:52
Правда там ебля может быть с хранилищем в engine

Nick
19.09.2017
09:48:25
почему? смотри - на каждом из гипервизоров примерно по сотне дисков, подаются в виртуалки посредством прямого проброса устройства. т.е. ни о какой миграции речь не идет

просто хочется иметь единую панель управления этим хозяйством

Александр
19.09.2017
09:48:48
Потому что engine нужно хранилище общее для запуска датацентра

Если не ошибаюсь

Там условия есть, для запуска engine

Возможно в новом такого гемора нет.

Nick
19.09.2017
09:49:46
ну концепция "датацентров" в одном энжине как-бы подразумевает, что общее хранилище наверно не нужно )

и "общее" с кем? гипервизорами?

Александр
19.09.2017
09:50:42
Ты не понял, есть понятие "дц" == кластер, что б запустить его, нужно хранилище общее для гиперов, т.е. либо локально либо внешка(cpeh,nfs, etc)

Я как-то ставил его и он ебал мне мозги о том что без хранилища общего нельзя запустить "дц"

Ну дц - это абстрактно кластер

Nick
19.09.2017
09:53:47
а.. ну если в каждом ДЦ по одной ноде - то, наверно, не нужно общее

?

короче поэкспериментирую, надеюсь все удастся

Nikita
19.09.2017
12:58:14
Насколько я знаю, хранилищами может быть только nfs, iscsi или gcluster. Можно nfs сервер поднять на самом гипервизоре и подключить его к самому себе

В пределах одного датацентра можно сделать несколько кластеров

И в каждый добавить по 1 ноде

Страница 223 из 521