
Юдин Иван [зцрб]
09.11.2017
08:34:05
я как то ссу обновляцца между версиями на продакшене.. часто всякие радости всплывают

Yaroslav
09.11.2017
08:35:16
Тут другой вопрос ))Он уже не подымится, тогда на хост нужно ставить или как-то ещё вылечить можно))

Юдин Иван [зцрб]
09.11.2017
08:37:29

Google

Юдин Иван [зцрб]
09.11.2017
08:38:00
по форуму проксмкса пошукай по своему железу...

Yaroslav
09.11.2017
08:39:18
Да вчера сразу и искал))Думал прийду виртуализация врублю и норм))
Ага))

Юдин Иван [зцрб]
09.11.2017
08:47:27
а как может сбросится виртуализация из биоса приобновление ПО то?? кто такую дичь пишет?

Sergey
09.11.2017
08:47:44
мне кажется там modprobe надо сделать

Georgii
09.11.2017
08:48:16
Подскажите пожалуйста, кто-нибудь lvm thin provisioning использовал ?
как у него с производительностью

Yaroslav
09.11.2017
08:51:41
Да обычный сервер 8 gb ОЗУ и Интел проц.
Ну гиперви на нем не работал))Поставил прокс))
https://forum.proxmox.com/threads/could-not-access-kvm-kernel-module-no-such-file-or-directory.8162/

Sergey
09.11.2017
08:53:58
а lsmod чо кажет?

Roman
09.11.2017
09:05:59

Michael
09.11.2017
09:17:21

Google


Yaroslav
09.11.2017
09:25:06
а lsmod чо кажет?
Module Size Used by
nfsv3 40960 1
nfs_acl 16384 1 nfsv3
nfs 245760 2 nfsv3
lockd 90112 2 nfs,nfsv3
grace 16384 1 lockd
fscache 61440 1 nfs
ip_set 36864 0
ip6table_filter 16384 0
ip6_tables 28672 1 ip6table_filter
iptable_filter 16384 0
softdog 16384 2
nfnetlink_log 20480 1
nfnetlink 16384 3 nfnetlink_log,ip_set
amdkfd 184320 1
amd_iommu_v2 20480 1 amdkfd
radeon 1474560 1
ttm 94208 1 radeon
drm_kms_helper 167936 1 radeon
coretemp 16384 0
drm 356352 4 radeon,ttm,drm_kms_helper
i2c_algo_bit 16384 1 radeon
gpio_ich 16384 0
kvm 581632 0
fb_sys_fops 16384 1 drm_kms_helper
syscopyarea 16384 1 drm_kms_helper
sysfillrect 16384 1 drm_kms_helper
sysimgblt 16384 1 drm_kms_helper
lpc_ich 24576 0
joydev 20480 0
input_leds 16384 0
ppdev 20480 0
snd_pcm 98304 0
irqbypass 16384 1 kvm
snd_timer 32768 1 snd_pcm
snd 81920 2 snd_timer,snd_pcm
shpchp 36864 0
soundcore 16384 1 snd
i5000_edac 20480 0
i5k_amb 16384 0
serio_raw 16384 0
pcspkr 16384 0
parport_pc 32768 0
parport 49152 2 parport_pc,ppdev
mac_hid 16384 0
vhost_net 24576 0
vhost 45056 1 vhost_net
tap 24576 1 vhost_net
ib_iser 49152 0
rdma_cm 57344 1 ib_iser
sunrpc 331776 18 nfs_acl,lockd,nfs,nfsv3
iw_cm 45056 1 rdma_cm
ib_cm 49152 1 rdma_cm
ib_core 212992 4 ib_iser,ib_cm,rdma_cm,iw_cm
iscsi_tcp 20480 0
libiscsi_tcp 20480 1 iscsi_tcp
libiscsi 53248 3 ib_iser,libiscsi_tcp,iscsi_tcp
scsi_transport_iscsi 94208 4 ib_iser,libiscsi,iscsi_tcp
ip_tables 28672 1 iptable_filter
x_tables 40960 4 ip_tables,iptable_filter,ip6table_filter,ip6_tab les
autofs4 40960 2
raid10 49152 0
raid456 143360 0
async_raid6_recov 20480 1 raid456
async_memcpy 16384 2 raid456,async_raid6_recov
async_pq 16384 2 raid456,async_raid6_recov
async_xor 16384 3 async_pq,raid456,async_raid6_recov
async_tx 16384 5 async_xor,async_pq,raid456,async_memcpy,async_ra id6_recov
xor 24576 1 async_xor
raid6_pq 118784 3 async_pq,raid456,async_raid6_recov
libcrc32c 16384 1 raid456
raid0 20480 0
multipath 16384 0
linear 16384 0
hid_generic 16384 0
usbkbd 16384 0
usbhid 49152 0
hid 118784 2 hid_generic,usbhid
raid1 40960 2
i2c_i801 28672 0
pata_acpi 16384 0
aic94xx 77824 0
e1000e 245760 0
libsas 69632 1 aic94xx
scsi_transport_sas 40960 2 libsas,aic94xx
ptp 20480 1 e1000e
pps_core 20480 1 ptp
floppy 77824 0


Sergey
09.11.2017
09:26:09
а если rmmod kvm && modprobe kvm-intel? хз, может проканает. но это скорее пальцем в небо ткнуть


Yaroslav
09.11.2017
09:28:05
modprobe kvm-intel
modprobe: ERROR: could not insert 'kvm_intel': Input/output error
При ручном старте
qm start 100
Could not access KVM kernel module: No such file or directory
failed to initialize KVM: No such file or directory
start failed: command '/usr/bin/kvm -id 100 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=bb990d9e-08ae-4b1a-a4ed-712e18c5a9ca' -name fs-backup -smp '2,sockets=1,cores=2,maxcpus=2' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga std -vnc unix:/var/run/qemu-server/100.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 4096 -k en-us -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:8e262ecb996' -device 'virtio-scsi-pci,id=scsihw0,bus=pci.0,addr=0x5' -drive 'file=/var/lib/vz/images/100/vm-100-disk-1.qcow2,if=none,id=drive-scsi0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=0,drive=drive-scsi0,id=scsi0,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=2E:A9:29:7D:D6:10,netdev=net0,bus=pci.0,addr=0x12,id=


Александр
09.11.2017
09:31:09
/usr/bin/kvm - а он у тебя там есть?

Yaroslav
09.11.2017
09:41:40
в syslog не пойму.
Виртуализация поддерживается)
Походу прокс решил не поддерживать старый хлам))

greydjin
09.11.2017
10:07:44
в биосе то включена поддержка? я проходил когда у меня не стартовала ВМ, модуль kvm подгружен, а в биосе выключен

Юдин Иван [зцрб]
09.11.2017
10:08:13

greydjin
09.11.2017
10:09:01
раньше был включен. во время обновления сдохла батарейка в матери и проблема с электричеством и ибп сбросила настройки МП

Юдин Иван [зцрб]
09.11.2017
10:09:06

Ivan
09.11.2017
10:10:43

terry
09.11.2017
10:11:14
как это они блять так считают, в разных системах исчисления что ле?

Roman
09.11.2017
10:13:48
прокс считает кеши как занятую память, заббикс нет.
вообще картинка из заббикса странная, нормальный график из заббикса выглядит так
http://scr.hatifnatt.ru/shrx/2017-11-09_1313_4gNLYayH.png

terry
09.11.2017
10:14:30

Google

terry
09.11.2017
10:14:39
применены на саму Vm ?
+ тригеры
у меня тупо стандартный темплейт

Roman
09.11.2017
10:15:02
обычный заббикс, конкретно это 3.4 обновленный с 3. Но такой темплейт аж с 2.2 или раньше был.

terry
09.11.2017
10:16:02
темплейт линукса?

Roman
09.11.2017
10:16:11
Да.

terry
09.11.2017
10:16:20
Template App HTTP Service
Template App SSH Service
Template OS Linux
эм

Roman
09.11.2017
10:17:37
Хм, а может быть я обновил темплейт, просто так давно что забыл :D
Тогда извиняюсь :)

terry
09.11.2017
10:19:03
у меня 2 заббикса
один 3.4.1
второй 3.4.2
разные сервера на разные вещи
но график рисует одинаково - тупо занят ои свободно
а вот в 2 да ,я помню такое было...
эм
лан щас выясним
скорей всего у тебя на графике еще доп тригеры вынесены
что у тебя стоит на отрисовке, можешь показать?

Google

Roman
09.11.2017
10:24:12
Да, я сейчас вспоминаю что график памяти я переделал давно. Извиняюсь за дезинформацию с заббиксом.
http://scr.hatifnatt.ru/shrx/2017-11-09_1323_0z9TxV72.png

Georgii
09.11.2017
11:28:06
Подскажите, а кто нибудь юзал zfs в проксмоксе?
Хочется динамических дисков
Lvm это не поддерживает
Thinlvm не может быть шаред (

Yaroslav
09.11.2017
11:58:37
никто не в курсе как вернуться в предыдущее pve ядро ?

Ivan
09.11.2017
11:59:05
apt install kernelblabla
apt install pve-kernel-4.10.11-1-pve
вот точный пример

Yaroslav
09.11.2017
12:02:37
нагуглил и вы)

Roman
09.11.2017
12:05:49
только это не гарантирует что загрузится это ядро.

Georgii
09.11.2017
12:14:14
неужели никто не использует zfs или lvmthin (((

Yaroslav
09.11.2017
12:15:21

Arseniy
09.11.2017
12:20:39
угу
Когда ЛС прочитаете? ?

Georgii
10.11.2017
08:55:40
подскажите пожалуйста. есть полка по iscsi и 3 ноды proxmoc, если мапить её на нода и потом по lvm раздавать раздавать разделы то всё работает, но нет снапштов и динамик диска. Я решил форматнуть раздел iscsi в ext4 , замонтировал его на каждую ноду и потом указал его как шаред сторедж для кластера. Хочу хранить файлы там в qcow2. Но создав файлы на одной ноде в точке монтирования, другая y нода их не видит. Вообще такое будет рабоать ?

Mystray
10.11.2017
09:00:32
не будет, конечно же. ext4 ни разу не кластерная ФС, об изменениях на стореджеиз одной ноды другие ноды не узнают никак — тупо нет механизмов.

Georgii
10.11.2017
09:06:31
то есть только поверх наятнуть lvm и раздавать всё как блочное устройсво ?
с кластерной фс как я понимаю геморрой
?

Google

Stanislav
10.11.2017
09:07:52
Нфс
Хранилка умеет его отдавать?

Georgii
10.11.2017
09:08:28
нет,только iscsi (

Александр
10.11.2017
09:08:28
clvm, nfs

Georgii
10.11.2017
09:19:19
clvm, nfs
clvm это только блочное же, а для nfs нужен ещё 1 сервер. а если gfs2 ?
clvm, nfs
Apart from this you, IMHO, have two choices:
1) LVM (thick): Expose LUN's through both controllers of the Storwize and connect using multipath. On top of multipath create you pv and vg for lvm volumes. This is the recommended proven way. Means only raw images and no snapshot.
2) GlusterFS: Expose LUN's through both controllers of the Storwize and connect using multipath. On top of multipath create your gluster bricks volumes. This is the recommended but lessor proven way. Raw and Qcow2 images. Snapshot available if using Qcow2 image.
кстате можно в гластер фс
и тогда всё будет

Denis
10.11.2017
09:48:31
Гластер - это про другое немножко

terry
10.11.2017
09:50:05
и ок

Denis
10.11.2017
09:50:43
У него задача из 1й СХД, отдающей все по iSCSI получить шареную хранилку для гипервизоров
Так что гластер не про него

terry
10.11.2017
09:51:15
аа
я подумал, что гластер не для кластера)

Denis
10.11.2017
09:51:54
И да, у меня на 40 гипервизорах и 20 серверах с дисками был опыт с гластером. Производительность оказалась недостаточна для наших задач.

terry
10.11.2017
09:52:18