@pro_kvm

Страница 245 из 521
Юдин Иван [зцрб]
09.11.2017
08:34:05
я как то ссу обновляцца между версиями на продакшене.. часто всякие радости всплывают

Yaroslav
09.11.2017
08:35:16
какое железо.. было уже такое...железо неподдерживается просто новым ведром
Да железо старое.Там файлопомойка крутилась и как раз для всяких таких тестов.А тут обновился и улетел))

Тут другой вопрос ))Он уже не подымится, тогда на хост нужно ставить или как-то ещё вылечить можно))

Юдин Иван [зцрб]
09.11.2017
08:37:29
Тут другой вопрос ))Он уже не подымится, тогда на хост нужно ставить или как-то ещё вылечить можно))
проксмокс то работает.. не стартует именно виртуалка.. прокс не дает ей виртуализацию.. думает что проц не поддерживает ее..

Google
Юдин Иван [зцрб]
09.11.2017
08:38:00
по форуму проксмкса пошукай по своему железу...

Yaroslav
09.11.2017
08:39:18
Да вчера сразу и искал))Думал прийду виртуализация врублю и норм)) Ага))

Юдин Иван [зцрб]
09.11.2017
08:47:27
а как может сбросится виртуализация из биоса приобновление ПО то?? кто такую дичь пишет?

Sergey
09.11.2017
08:47:44
мне кажется там modprobe надо сделать

Georgii
09.11.2017
08:48:16
Подскажите пожалуйста, кто-нибудь lvm thin provisioning использовал ?

как у него с производительностью

Yaroslav
09.11.2017
08:51:41
Да обычный сервер 8 gb ОЗУ и Интел проц. Ну гиперви на нем не работал))Поставил прокс))

https://forum.proxmox.com/threads/could-not-access-kvm-kernel-module-no-such-file-or-directory.8162/

Sergey
09.11.2017
08:53:58
а lsmod чо кажет?

Roman
09.11.2017
09:05:59
я имею ввиду, что разница в показателдях озу и цпу
цпу на графике нет. а память просто считают по-разному

Google
Yaroslav
09.11.2017
09:25:06
а lsmod чо кажет?
Module Size Used by nfsv3 40960 1 nfs_acl 16384 1 nfsv3 nfs 245760 2 nfsv3 lockd 90112 2 nfs,nfsv3 grace 16384 1 lockd fscache 61440 1 nfs ip_set 36864 0 ip6table_filter 16384 0 ip6_tables 28672 1 ip6table_filter iptable_filter 16384 0 softdog 16384 2 nfnetlink_log 20480 1 nfnetlink 16384 3 nfnetlink_log,ip_set amdkfd 184320 1 amd_iommu_v2 20480 1 amdkfd radeon 1474560 1 ttm 94208 1 radeon drm_kms_helper 167936 1 radeon coretemp 16384 0 drm 356352 4 radeon,ttm,drm_kms_helper i2c_algo_bit 16384 1 radeon gpio_ich 16384 0 kvm 581632 0 fb_sys_fops 16384 1 drm_kms_helper syscopyarea 16384 1 drm_kms_helper sysfillrect 16384 1 drm_kms_helper sysimgblt 16384 1 drm_kms_helper lpc_ich 24576 0 joydev 20480 0 input_leds 16384 0 ppdev 20480 0 snd_pcm 98304 0 irqbypass 16384 1 kvm snd_timer 32768 1 snd_pcm snd 81920 2 snd_timer,snd_pcm shpchp 36864 0 soundcore 16384 1 snd i5000_edac 20480 0 i5k_amb 16384 0 serio_raw 16384 0 pcspkr 16384 0 parport_pc 32768 0 parport 49152 2 parport_pc,ppdev mac_hid 16384 0 vhost_net 24576 0 vhost 45056 1 vhost_net tap 24576 1 vhost_net ib_iser 49152 0 rdma_cm 57344 1 ib_iser sunrpc 331776 18 nfs_acl,lockd,nfs,nfsv3 iw_cm 45056 1 rdma_cm ib_cm 49152 1 rdma_cm ib_core 212992 4 ib_iser,ib_cm,rdma_cm,iw_cm iscsi_tcp 20480 0 libiscsi_tcp 20480 1 iscsi_tcp libiscsi 53248 3 ib_iser,libiscsi_tcp,iscsi_tcp scsi_transport_iscsi 94208 4 ib_iser,libiscsi,iscsi_tcp ip_tables 28672 1 iptable_filter x_tables 40960 4 ip_tables,iptable_filter,ip6table_filter,ip6_tab les autofs4 40960 2 raid10 49152 0 raid456 143360 0 async_raid6_recov 20480 1 raid456 async_memcpy 16384 2 raid456,async_raid6_recov async_pq 16384 2 raid456,async_raid6_recov async_xor 16384 3 async_pq,raid456,async_raid6_recov async_tx 16384 5 async_xor,async_pq,raid456,async_memcpy,async_ra id6_recov xor 24576 1 async_xor raid6_pq 118784 3 async_pq,raid456,async_raid6_recov libcrc32c 16384 1 raid456 raid0 20480 0 multipath 16384 0 linear 16384 0 hid_generic 16384 0 usbkbd 16384 0 usbhid 49152 0 hid 118784 2 hid_generic,usbhid raid1 40960 2 i2c_i801 28672 0 pata_acpi 16384 0 aic94xx 77824 0 e1000e 245760 0 libsas 69632 1 aic94xx scsi_transport_sas 40960 2 libsas,aic94xx ptp 20480 1 e1000e pps_core 20480 1 ptp floppy 77824 0

Sergey
09.11.2017
09:26:09
а если rmmod kvm && modprobe kvm-intel? хз, может проканает. но это скорее пальцем в небо ткнуть

Yaroslav
09.11.2017
09:28:05
modprobe kvm-intel modprobe: ERROR: could not insert 'kvm_intel': Input/output error

При ручном старте qm start 100 Could not access KVM kernel module: No such file or directory failed to initialize KVM: No such file or directory start failed: command '/usr/bin/kvm -id 100 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=bb990d9e-08ae-4b1a-a4ed-712e18c5a9ca' -name fs-backup -smp '2,sockets=1,cores=2,maxcpus=2' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga std -vnc unix:/var/run/qemu-server/100.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 4096 -k en-us -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:8e262ecb996' -device 'virtio-scsi-pci,id=scsihw0,bus=pci.0,addr=0x5' -drive 'file=/var/lib/vz/images/100/vm-100-disk-1.qcow2,if=none,id=drive-scsi0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=0,drive=drive-scsi0,id=scsi0,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=2E:A9:29:7D:D6:10,netdev=net0,bus=pci.0,addr=0x12,id=

Александр
09.11.2017
09:31:09
/usr/bin/kvm - а он у тебя там есть?

Yaroslav
09.11.2017
09:41:40
в syslog не пойму.



Виртуализация поддерживается)



Походу прокс решил не поддерживать старый хлам))

greydjin
09.11.2017
10:07:44
в биосе то включена поддержка? я проходил когда у меня не стартовала ВМ, модуль kvm подгружен, а в биосе выключен

Юдин Иван [зцрб]
09.11.2017
10:08:13
greydjin
09.11.2017
10:09:01
раньше был включен. во время обновления сдохла батарейка в матери и проблема с электричеством и ибп сбросила настройки МП

Юдин Иван [зцрб]
09.11.2017
10:09:06
Походу прокс решил не поддерживать старый хлам))
в общем.. открывай топ на формуме проксмокса и скидывай туда полностью всею инфу... незачем здесь из пустого в порожнее переживать

Ivan
09.11.2017
10:10:43
раньше был включен. во время обновления сдохла батарейка в матери и проблема с электричеством и ибп сбросила настройки МП
докажи что виртаулизация включена сейчас. на некоторых матерниках после включения в bios требуется выключить сервер.

terry
09.11.2017
10:11:14
цпу на графике нет. а память просто считают по-разному
хуясе по разному, проксомкс говорит 5,60 занято, а по факту до 3 исходя из заббикса и htop

как это они блять так считают, в разных системах исчисления что ле?

Roman
09.11.2017
10:13:48
прокс считает кеши как занятую память, заббикс нет. вообще картинка из заббикса странная, нормальный график из заббикса выглядит так http://scr.hatifnatt.ru/shrx/2017-11-09_1313_4gNLYayH.png

Google
terry
09.11.2017
10:14:39
применены на саму Vm ?

+ тригеры

у меня тупо стандартный темплейт

Roman
09.11.2017
10:15:02
обычный заббикс, конкретно это 3.4 обновленный с 3. Но такой темплейт аж с 2.2 или раньше был.

terry
09.11.2017
10:16:02
темплейт линукса?

Roman
09.11.2017
10:16:11
Да.

terry
09.11.2017
10:16:20
Template App HTTP Service Template App SSH Service Template OS Linux

эм

Roman
09.11.2017
10:17:37
Хм, а может быть я обновил темплейт, просто так давно что забыл :D Тогда извиняюсь :)

terry
09.11.2017
10:19:03
у меня 2 заббикса

один 3.4.1

второй 3.4.2

разные сервера на разные вещи

но график рисует одинаково - тупо занят ои свободно

а вот в 2 да ,я помню такое было...

эм

лан щас выясним

скорей всего у тебя на графике еще доп тригеры вынесены

что у тебя стоит на отрисовке, можешь показать?

Google
Roman
09.11.2017
10:24:12
Да, я сейчас вспоминаю что график памяти я переделал давно. Извиняюсь за дезинформацию с заббиксом. http://scr.hatifnatt.ru/shrx/2017-11-09_1323_0z9TxV72.png

Georgii
09.11.2017
11:28:06
Подскажите, а кто нибудь юзал zfs в проксмоксе?

Хочется динамических дисков

Lvm это не поддерживает

Thinlvm не может быть шаред (

Yaroslav
09.11.2017
11:58:37
никто не в курсе как вернуться в предыдущее pve ядро ?

Ivan
09.11.2017
11:59:05
apt install kernelblabla

apt install pve-kernel-4.10.11-1-pve

вот точный пример

Yaroslav
09.11.2017
12:02:37
нагуглил и вы)

Roman
09.11.2017
12:05:49
только это не гарантирует что загрузится это ядро.

Georgii
09.11.2017
12:14:14
неужели никто не использует zfs или lvmthin (((

Yaroslav
09.11.2017
12:15:21
apt install pve-kernel-4.10.11-1-pve
Откатился до предыдущего ядра)виртуалка поднялась)

Arseniy
09.11.2017
12:20:39
угу
Когда ЛС прочитаете? ?

Georgii
10.11.2017
08:55:40
подскажите пожалуйста. есть полка по iscsi и 3 ноды proxmoc, если мапить её на нода и потом по lvm раздавать раздавать разделы то всё работает, но нет снапштов и динамик диска. Я решил форматнуть раздел iscsi в ext4 , замонтировал его на каждую ноду и потом указал его как шаред сторедж для кластера. Хочу хранить файлы там в qcow2. Но создав файлы на одной ноде в точке монтирования, другая y нода их не видит. Вообще такое будет рабоать ?

Mystray
10.11.2017
09:00:32
не будет, конечно же. ext4 ни разу не кластерная ФС, об изменениях на стореджеиз одной ноды другие ноды не узнают никак — тупо нет механизмов.

Georgii
10.11.2017
09:06:31
то есть только поверх наятнуть lvm и раздавать всё как блочное устройсво ?

с кластерной фс как я понимаю геморрой

?

Google
Stanislav
10.11.2017
09:07:52
Нфс

Хранилка умеет его отдавать?

Georgii
10.11.2017
09:08:28
нет,только iscsi (

Александр
10.11.2017
09:08:28
clvm, nfs

Georgii
10.11.2017
09:19:19
clvm, nfs
clvm это только блочное же, а для nfs нужен ещё 1 сервер. а если gfs2 ?

clvm, nfs
Apart from this you, IMHO, have two choices: 1) LVM (thick): Expose LUN's through both controllers of the Storwize and connect using multipath. On top of multipath create you pv and vg for lvm volumes. This is the recommended proven way. Means only raw images and no snapshot. 2) GlusterFS: Expose LUN's through both controllers of the Storwize and connect using multipath. On top of multipath create your gluster bricks volumes. This is the recommended but lessor proven way. Raw and Qcow2 images. Snapshot available if using Qcow2 image.

кстате можно в гластер фс

и тогда всё будет

Denis
10.11.2017
09:48:31
Гластер - это про другое немножко

terry
10.11.2017
09:50:05
Гластер - это про другое немножко
эм например? я знаю человека, который поднял кластер в 5 проксмоксов на гластере

и ок

Denis
10.11.2017
09:50:43
У него задача из 1й СХД, отдающей все по iSCSI получить шареную хранилку для гипервизоров

Так что гластер не про него

terry
10.11.2017
09:51:15
аа

я подумал, что гластер не для кластера)

Denis
10.11.2017
09:51:54
И да, у меня на 40 гипервизорах и 20 серверах с дисками был опыт с гластером. Производительность оказалась недостаточна для наших задач.

Страница 245 из 521