Daniel
09.02.2017
18:32:57
ни с чего
либвирт - не самый рвотный из продуктов
та же вмварь - куда забористей
Kirill
09.02.2017
18:46:15
та же вмварь - куда забористей
ну вот я из вмвари пробовал workstation pro. лучше для десктопа я не видел. а вот для сервера — в чем заключается забористость вмвари?
Google
Andrey
09.02.2017
19:09:09
ну, давайте, ещё опенстек сюда притяните :)
Igor
17.02.2017
06:13:39
Тю
не группа, а проходной двор кокойто
Artem
27.02.2017
18:46:08
Правильно, нечего нарушать идиллию чата
Andrey
27.02.2017
18:53:52
А то, прийдут тут, шумят
Philip
02.03.2017
08:51:46
Пипл туда - пипл сюда, люблю тусовку (с)
Andrey
02.03.2017
09:04:47
так движение, жизть
Artem
12.03.2017
14:12:06
членские взносы не внес?
))
Phil
12.03.2017
14:13:11
Наоборот. Занес много куда, поэтому его сразу превентивно режут
Igor
24.04.2017
01:39:29
— Охуенная тут октивность
Andrey
24.04.2017
01:40:31
а то
кстати, а кто нибудь курил доки насчйт того, что нибудь насчёт настроек скорости ресильверенга не завозилили?
Google
Artem
10.05.2017
18:11:45
На OmniOS + RSF-1 были такие настройки
*FILE: /etc/system*
* Disable cpu c-state
* Change scheduler frequency
set idle_cpu_prefer_mwait = 0
set idle_cpu_no_deep_c = 1
set hires_tick=1
* Scanning for iBFT may conflict with devices which use memory
* in 640-1024KB of physical address space. The iBFT
* specification suggests use of low RAM method - scanning
* physical memory 512-1024 KB for iBFT table.
* Disable low RAM method.
set ibft_noprobe=1
* SECURITY PARAMETERS
set noexec_user_stack=1
set noexec_user_stack_log=1
* IP / TCP Parameters
set ip:ip_squeue_fanout=1
set ndd:tcp_wscale_always = 1
set ndd:tstamp_if_wscale = 1
set ndd:tcp_max_buf = 166777216
* APIC
set pcplusmp:apic_panic_on_nmi=1
set apix:apic_panic_on_nmi=1
* Kernel DUMP
set dump_plat_mincpu=0
set dump_bzip2_level=1
set dump_metrics_on=1
* SATA
set sata:sata_auto_online=1
* SAS
set sd:sd_io_time=20
**
* NFS Tunning
**
set nfs:nfs_allow_preepoch_time = 1
** Tunning nfs client for data migration from NetApp
* Maximum io threads. client.
set nfs:nfs3_max_threads = 256
set nfs:nfs4_max_threads = 256
* Read ahead operations by the NFS client.
set nfs:nfs3_nra = 32
set nfs:nfs4_nra = 32
* Logical block size used by the NFS client
set nfs:nfs3_bsize = 1048576
set nfs:nfs4_bsize = 1048576
* Controls the maximum size of the data portion of an NFS client
set nfs3:max_transfer_size = 1048576
set nfs4:max_transfer_size = 1048576
* Controls the mix of asynchronous requests that are generated by the NFS
version 4 client
set nfs:nfs4_async_clusters = 256
* RPC Tunning
* Sets the size of the kernel stack for kernel RPC service threads
set rpcmod:svc_default_stksize=0x6000
* Controls the size of the duplicate request cache that detects RPC
* level retransmissions on connection oriented transports
set rpcmod:cotsmaxdupreqs = 4096
* Controls the size of the duplicate request cache that detect RPC
* level retransmissions on connectionless transports
set rpcmod:maxdupreqs = 4096
* Controls the number of TCP connections that the NFS client uses when
* communicating with each
* NFS server. The kernel RPC is constructed so that it can multiplex RPCs
* over a single connection
set rpcmod:clnt_max_conns = 8
* ZFS Tunning
set zfs:zfs_dirty_data_max = 0x300000000
set zfs:zfs_txg_timeout = 0xa
set zfs:zfs_dirty_data_sync = 0x200000000
set zfs:zfs_arc_max = 0x3480000000
set zfs:zfs_arc_shrink_shift=11
set zfs:l2arc_write_max = 0x9600000
set zfs:l2arc_write_boost = 0xC800000
set zfs:l2arc_headroom = 12
set zfs:l2arc_norw=0
set zfs:zfs_arc_shrink_shift=11
********************************************
* Prefetch
set zfs:zfs_vdev_async_read_max_active = 10
set zfs:zfs_vdev_async_read_min_active = 1
* TXG Writes
set zfs:zfs_vdev_async_write_max_active = 15
set zfs:zfs_vdev_async_write_min_active = 1
* Read Ops
set zfs:zfs_vdev_sync_read_max_active = 20
set zfs:zfs_vdev_sync_read_min_active = 10
* Writes into SLOG device
set zfs:zfs_vdev_sync_write_max_active = 32
set zfs:zfs_vdev_sync_write_min_active = 10
* Resilvering
set zfs:zfs_vdev_scrub_min_active = 5
set zfs:zfs_vdev_scrub_max_active = 15
но zfs от Oracle показывает более высокую производительность как при замене диска (scrub)
так и при записи в slog.
как я понимаю за счет
35 Sequential resilver
36 Efficient log block allocation
Но есть огромный минус у оригенального solaris, у него нет фишки по асинхронному удалению датасетов.
Если на OmniOS датасет в 40тб удаляется за 15-20минут
то на Solaris данный процесс занимает 2-3 дня.
Andrey
10.05.2017
18:52:13
фенкс, надо поразбираться и потестить на досуге, а то вдруг чего опять приспичит :)
Artem
10.05.2017
18:52:59
ну если используешь как NAS для vmware или для БД, по мне так лучше юзать Solaris 11.3 + SunCluster
если конечно не напрягает момент с удалением больших датасетов.
Slog у нас на PX05SHB020
очень рекомендую
Andrey
10.05.2017
19:10:16
не, у нас именно гипервизор
просто диски как оказалось всё же немного смертны, а Тбты уже оченно заметный объём
Artem
10.05.2017
19:12:41
у вас все приложения облочные? я к тому что помер гипервизор и вы не паритесь?
Andrey
10.05.2017
19:13:38
не, просто гипервизор для пачки виртуалок, в общем смерть его не то что бы критична, но будет неприятна
Artem
10.05.2017
19:14:16
smartos научился уже производить миграцию машин через zfs send/recv ?
Andrey
10.05.2017
19:14:37
а вот утилизация по памяти и обращениям к диску, в обзем получается и без ресильверинга очень неплохая, хорошо оно ещё на празники выпало :)
надо что то поделать, можно остановить и всё такое
Artem
10.05.2017
19:16:47
понятно
Andrey
10.05.2017
19:16:47
но полностью нагрузку на долго снимать не желательно, да и растягивать процесс когда в зеркале один диск, как то не самое приятное
вот предыдущий аптайм что то около полугода или больше, для ноды продержался, тем более нынче смартос стагнирует :(
Google
Andrey
10.05.2017
19:18:38
так что особо поводов обновлятся и ребутатся то и нет
Artem
10.05.2017
19:18:47
Да весь Illumos стагнирует
Admin
Artem
10.05.2017
19:18:55
как бы это прескорбно небыло
Пидары из Oracle убили OpenSolaris и загубили Solaris.
Andrey
10.05.2017
19:19:42
ну илюмос он и был не то чтоб очень бодрым, а смартось то бодренько начали, но скисли на взлёте
Artem
10.05.2017
19:20:18
я про все форки OpenSolaris
Andrey
10.05.2017
19:20:22
это да, ни себе не людям, благо на ZFS всё же не полностью забили
Artem
10.05.2017
19:22:30
по мне так zfs нормально работает только в Solaris/OpenSolaris
Пробывал эксперементировать с Linux и BSD, не то это с точки зрения производительности.
Comstar + ZFS или NFS + ZFS тащат хорошо только в Солярисе, ну или я просто не умею готовить.
а так и Crossbow ваще огонь проект и solaris zones крутая штука, SunCluster, AVS
но все просрали
dtrace тот же
Andrey
10.05.2017
19:24:34
ну у фряхи проблема, что другой менеджер памяти, адаптируют в меру сил, но и сил не так уж много, поэтому при нагрузке может чего и вылазит, да и бестпрактикс по ней фигово и в общем инфраструктуры по интеграции не так чтоб много, это да беда
Artem
10.05.2017
19:24:52
да и в линуксе тоже самое
Andrey
10.05.2017
19:24:55
ну а NFS он тоже не в лучшем своём состоянии нынче и всеми забит
Artem
10.05.2017
19:25:19
в bsd там через opensolaris.ko
а в линуксе через spl
Andrey
10.05.2017
19:25:30
ну в линуксе толпа разрабов и бабки, где то проплывало, что у них сейчас наибольшее количество разрабов ZFS
Artem
10.05.2017
19:25:50
Ну почему же, развивается и достаточно хорош. Netapp - основной транспорт это NFS
Andrey
10.05.2017
19:25:58
но с лицензией их знатно затролили
Artem
10.05.2017
19:29:44
set zfs:zfs_resilver_delay = 0
set zfs:zfs_scrub_delay = 0
set zfs:zfs_top_maxinflight = 64
set zfs:zfs_resilver_min_time_ms = 5000
Google
Artem
10.05.2017
19:30:01
попробуй вот так поставить, будет очень агрессивный ресилверинг
Andrey
10.05.2017
19:34:00
да очень агресивный тоже бы не нужен, оно же ещё бы и работать должно, да там нада снапшотиков почистить, а то что то я распоясался и их уже поднакопилось, а нефиг :)
Artem
16.06.2017
12:21:55
Привет. Кто нибудь использует RSF-1