@smartos_ru

Страница 7 из 13
Daniel
09.02.2017
18:32:57
ни с чего

либвирт - не самый рвотный из продуктов

та же вмварь - куда забористей

Kirill
09.02.2017
18:46:15
та же вмварь - куда забористей
ну вот я из вмвари пробовал workstation pro. лучше для десктопа я не видел. а вот для сервера — в чем заключается забористость вмвари?

Google
Andrey
09.02.2017
19:09:09
ну, давайте, ещё опенстек сюда притяните :)

Igor
17.02.2017
06:13:39
Тю

не группа, а проходной двор кокойто

Artem
27.02.2017
18:46:08
Правильно, нечего нарушать идиллию чата

Andrey
27.02.2017
18:53:52
А то, прийдут тут, шумят

Philip
02.03.2017
08:51:46
Пипл туда - пипл сюда, люблю тусовку (с)

Andrey
02.03.2017
09:04:47
так движение, жизть

Artem
12.03.2017
14:12:06
членские взносы не внес?

))

Phil
12.03.2017
14:13:11
Наоборот. Занес много куда, поэтому его сразу превентивно режут

Igor
24.04.2017
01:39:29
— Охуенная тут октивность

Andrey
24.04.2017
01:40:31
а то

кстати, а кто нибудь курил доки насчйт того, что нибудь насчёт настроек скорости ресильверенга не завозилили?

Google
Artem
10.05.2017
18:11:45
На OmniOS + RSF-1 были такие настройки *FILE: /etc/system* * Disable cpu c-state * Change scheduler frequency set idle_cpu_prefer_mwait = 0 set idle_cpu_no_deep_c = 1 set hires_tick=1 * Scanning for iBFT may conflict with devices which use memory * in 640-1024KB of physical address space. The iBFT * specification suggests use of low RAM method - scanning * physical memory 512-1024 KB for iBFT table. * Disable low RAM method. set ibft_noprobe=1 * SECURITY PARAMETERS set noexec_user_stack=1 set noexec_user_stack_log=1 * IP / TCP Parameters set ip:ip_squeue_fanout=1 set ndd:tcp_wscale_always = 1 set ndd:tstamp_if_wscale = 1 set ndd:tcp_max_buf = 166777216 * APIC set pcplusmp:apic_panic_on_nmi=1 set apix:apic_panic_on_nmi=1 * Kernel DUMP set dump_plat_mincpu=0 set dump_bzip2_level=1 set dump_metrics_on=1 * SATA set sata:sata_auto_online=1 * SAS set sd:sd_io_time=20 ** * NFS Tunning ** set nfs:nfs_allow_preepoch_time = 1 ** Tunning nfs client for data migration from NetApp * Maximum io threads. client. set nfs:nfs3_max_threads = 256 set nfs:nfs4_max_threads = 256 * Read ahead operations by the NFS client. set nfs:nfs3_nra = 32 set nfs:nfs4_nra = 32 * Logical block size used by the NFS client set nfs:nfs3_bsize = 1048576 set nfs:nfs4_bsize = 1048576 * Controls the maximum size of the data portion of an NFS client set nfs3:max_transfer_size = 1048576 set nfs4:max_transfer_size = 1048576 * Controls the mix of asynchronous requests that are generated by the NFS version 4 client set nfs:nfs4_async_clusters = 256 * RPC Tunning * Sets the size of the kernel stack for kernel RPC service threads set rpcmod:svc_default_stksize=0x6000 * Controls the size of the duplicate request cache that detects RPC * level retransmissions on connection oriented transports set rpcmod:cotsmaxdupreqs = 4096 * Controls the size of the duplicate request cache that detect RPC * level retransmissions on connectionless transports set rpcmod:maxdupreqs = 4096 * Controls the number of TCP connections that the NFS client uses when * communicating with each * NFS server. The kernel RPC is constructed so that it can multiplex RPCs * over a single connection set rpcmod:clnt_max_conns = 8 * ZFS Tunning set zfs:zfs_dirty_data_max = 0x300000000 set zfs:zfs_txg_timeout = 0xa set zfs:zfs_dirty_data_sync = 0x200000000 set zfs:zfs_arc_max = 0x3480000000 set zfs:zfs_arc_shrink_shift=11 set zfs:l2arc_write_max = 0x9600000 set zfs:l2arc_write_boost = 0xC800000 set zfs:l2arc_headroom = 12 set zfs:l2arc_norw=0 set zfs:zfs_arc_shrink_shift=11 ******************************************** * Prefetch set zfs:zfs_vdev_async_read_max_active = 10 set zfs:zfs_vdev_async_read_min_active = 1 * TXG Writes set zfs:zfs_vdev_async_write_max_active = 15 set zfs:zfs_vdev_async_write_min_active = 1 * Read Ops set zfs:zfs_vdev_sync_read_max_active = 20 set zfs:zfs_vdev_sync_read_min_active = 10 * Writes into SLOG device set zfs:zfs_vdev_sync_write_max_active = 32 set zfs:zfs_vdev_sync_write_min_active = 10 * Resilvering set zfs:zfs_vdev_scrub_min_active = 5 set zfs:zfs_vdev_scrub_max_active = 15

но zfs от Oracle показывает более высокую производительность как при замене диска (scrub) так и при записи в slog.

как я понимаю за счет 35 Sequential resilver 36 Efficient log block allocation

Но есть огромный минус у оригенального solaris, у него нет фишки по асинхронному удалению датасетов. Если на OmniOS датасет в 40тб удаляется за 15-20минут то на Solaris данный процесс занимает 2-3 дня.

Andrey
10.05.2017
18:52:13
фенкс, надо поразбираться и потестить на досуге, а то вдруг чего опять приспичит :)

Artem
10.05.2017
18:52:59
ну если используешь как NAS для vmware или для БД, по мне так лучше юзать Solaris 11.3 + SunCluster

если конечно не напрягает момент с удалением больших датасетов.

Slog у нас на PX05SHB020

очень рекомендую

Andrey
10.05.2017
19:10:16
не, у нас именно гипервизор

просто диски как оказалось всё же немного смертны, а Тбты уже оченно заметный объём

Artem
10.05.2017
19:12:41
у вас все приложения облочные? я к тому что помер гипервизор и вы не паритесь?

Andrey
10.05.2017
19:13:38
не, просто гипервизор для пачки виртуалок, в общем смерть его не то что бы критична, но будет неприятна

Artem
10.05.2017
19:14:16
smartos научился уже производить миграцию машин через zfs send/recv ?

Andrey
10.05.2017
19:14:37
а вот утилизация по памяти и обращениям к диску, в обзем получается и без ресильверинга очень неплохая, хорошо оно ещё на празники выпало :)

smartos научился уже производить миграцию машин через zfs send/recv ?
ну вот это совсем не надь, у нас скромно камерно, под кнутренние нужды

надо что то поделать, можно остановить и всё такое

Artem
10.05.2017
19:16:47
понятно

Andrey
10.05.2017
19:16:47
но полностью нагрузку на долго снимать не желательно, да и растягивать процесс когда в зеркале один диск, как то не самое приятное

вот предыдущий аптайм что то около полугода или больше, для ноды продержался, тем более нынче смартос стагнирует :(

Google
Andrey
10.05.2017
19:18:38
так что особо поводов обновлятся и ребутатся то и нет

Artem
10.05.2017
19:18:47
Да весь Illumos стагнирует

Admin


Artem
10.05.2017
19:18:55
как бы это прескорбно небыло

Пидары из Oracle убили OpenSolaris и загубили Solaris.

Andrey
10.05.2017
19:19:42
ну илюмос он и был не то чтоб очень бодрым, а смартось то бодренько начали, но скисли на взлёте

Artem
10.05.2017
19:20:18
я про все форки OpenSolaris

Andrey
10.05.2017
19:20:22
это да, ни себе не людям, благо на ZFS всё же не полностью забили

Artem
10.05.2017
19:22:30
по мне так zfs нормально работает только в Solaris/OpenSolaris Пробывал эксперементировать с Linux и BSD, не то это с точки зрения производительности. Comstar + ZFS или NFS + ZFS тащат хорошо только в Солярисе, ну или я просто не умею готовить.

а так и Crossbow ваще огонь проект и solaris zones крутая штука, SunCluster, AVS

но все просрали

dtrace тот же

Andrey
10.05.2017
19:24:34
ну у фряхи проблема, что другой менеджер памяти, адаптируют в меру сил, но и сил не так уж много, поэтому при нагрузке может чего и вылазит, да и бестпрактикс по ней фигово и в общем инфраструктуры по интеграции не так чтоб много, это да беда

Artem
10.05.2017
19:24:52
да и в линуксе тоже самое

Andrey
10.05.2017
19:24:55
ну а NFS он тоже не в лучшем своём состоянии нынче и всеми забит

Artem
10.05.2017
19:25:19
в bsd там через opensolaris.ko а в линуксе через spl

Andrey
10.05.2017
19:25:30
ну в линуксе толпа разрабов и бабки, где то проплывало, что у них сейчас наибольшее количество разрабов ZFS

Artem
10.05.2017
19:25:50
Ну почему же, развивается и достаточно хорош. Netapp - основной транспорт это NFS

Andrey
10.05.2017
19:25:58
но с лицензией их знатно затролили

Artem
10.05.2017
19:29:44
set zfs:zfs_resilver_delay = 0 set zfs:zfs_scrub_delay = 0 set zfs:zfs_top_maxinflight = 64 set zfs:zfs_resilver_min_time_ms = 5000

Google
Artem
10.05.2017
19:30:01
попробуй вот так поставить, будет очень агрессивный ресилверинг

Andrey
10.05.2017
19:34:00
да очень агресивный тоже бы не нужен, оно же ещё бы и работать должно, да там нада снапшотиков почистить, а то что то я распоясался и их уже поднакопилось, а нефиг :)

Artem
16.06.2017
12:21:55
Привет. Кто нибудь использует RSF-1

Страница 7 из 13