@ru_hyper

Страница 227 из 234
Yes
17.07.2019
16:46:12
Карпыч, ты чёт путаешь
Ну ок до 2009 було )

?
Премия была получена - так что работает )

Ilia
17.07.2019
16:47:12
Вернёмся к виндам Нахуха нужон нетбиос?

Google
Александр
17.07.2019
16:47:32
Выпиливаем

Даём имя 19216811

Ilia
17.07.2019
16:48:06
Из центоса? А кто туда его впилил?

Yes
17.07.2019
16:48:19
Из центоса? А кто туда его впилил?
Кстати оттуда его того...

Ilia
17.07.2019
16:49:12
не нужен ) Но что делать ?
Стругать тачки по uid деплой конфига

Короче надо тестить

Александр
17.07.2019
16:49:32
Мля

А потом когда тебе надо будет узнать его имя

Александр
17.07.2019
16:50:01
DNS !!!
Нахуй дес

Yes
17.07.2019
16:50:04
И ipv6

Google
Александр
17.07.2019
16:50:04
Днём

Днс

Тоже

Aleksandr
17.07.2019
16:50:43
Че тут порисходит?

Ilia
17.07.2019
16:50:54
DNS !!!
Ну-ка ну-ка плыви сюда быро

Yes
17.07.2019
16:52:31
Ну-ка ну-ка плыви сюда быро
поплыл за пивом. А вообще тут почти по моей улице Неглинка река проходит - только под землёй (теперь) сегодня писец было...

Dack
17.07.2019
16:55:04
И что было?

Дома поплыли?

Der
17.07.2019
16:55:17
Yes
17.07.2019
16:55:49
Дома поплыли?
Не, но муссорный бак пытался.

Ща фото найду

Der
17.07.2019
16:56:31
Дома поплыли?
На Савеловской сегодня текло выше щиколотки

Ощутимо так

Dack
17.07.2019
16:57:31
Ну сегодня хорошо так пролилось. Даже курить пришлось бросить часа на 3

Kamil
17.07.2019
16:59:20
норм так поплыло

Ivan
18.07.2019
12:52:59
Добрый день. Ребят, а файловер кластер в хиперви только из хостов одной версии можно делать?

например 2016 и 2012 нельзя объединить?

я особо вообще с ними мало работал., в основном vmware. Задачка просто есть поднять.

Sergey
18.07.2019
12:57:24
возможно разное
Тут Томас напиздел чутка )

Google
Sergey
18.07.2019
12:57:29
Нет уровня 11 )

Kamil
18.07.2019
12:58:09
Нет уровня 11 )
кстатиа как он так? в самой стате в тексте у него 2019 имеет 10.х уровень..а пчоему на скринах 11?

Sergey
18.07.2019
12:58:36
Я думаю это в превьюхах было, а потом выпилили )

Ilia
18.07.2019
12:59:02
мне чтото казалось что смешаный режим работы - для онлайн обнолвения придуман

Kamil
18.07.2019
12:59:42
любопытная ссылка, mc_id=THOMASMAURER-blog-thmaure ?

Sergey
18.07.2019
13:02:58
=)

Ivan
18.07.2019
13:07:28
ясно) спасибо) как всегда везде нюансы и приколы) в этом и кайф

буду разбираться+курсик есть

Ivan
19.07.2019
06:59:07
Ребята всем привет. Подскажите пожалуйста, может кто-то сталкивался с подобной проблемой. Есть 2 хоста hyper-v core 2016 c интеом 1Gbit/s - проблема в скорости репликаций ВМ. Одна ВМ реплицируется со скростью не больше 50-100Mbit/s, при репликации 2-3 ВМ может разогнаться до 300Mbit/s. Тоесть идет ограничение на 1 поток переадчи данных по SMB между хостами. Проверяли IPerf3 между хостами - многопоточный тест утилизирует весь гигабитный какнал по tcp как на загрузку так и на отдачу. IPerf3 однопоточный тест утилизиирует канал в 50Mbit/s. latency ping между хостами time=26ms. Сеть сконфигурирована без Nic Teaming. Скорость хренова как с настроенным virtual Switch-External так и без него. В инете есть инфа как ограничить скорость реплики ... а мне нужно наооборот увеличить скорость реплики. Ковыряли конфиги хоста но без результатно: Performance tuning for file servers EnableBandwidthThrottling: False EnableMultiChannel: True Performance optimization of Hyper-V Replica MaximumActiveTransfers: от 0 до 100 (ниче не меняется) Включали/выключали Auto-Tuning сетевого адаптера: autotuninglevel=disabled | autotuninglevel=normal Включали/выключали Large Send Offload and Network Performance Включали/выключали Vmq, SR-IOV Включали/выключали Jumbo Frames 'Jumbo Packet=9014 Bytes' И самое интересное что на хостах есть линуксовые ВМ и между ними тест IPerf3 в 1 поток утилизирует весь гигабитный канал. Что может ограничивать скорость в 1 поток на хостах hyper-v? Заранее спасибо за свежие идеи ))

Sergey
19.07.2019
07:00:51
sbm encryption отключите

это самая большая боль в сценариях виртуализации

Ivan
19.07.2019
07:01:43
вот это еще не пробовал ... спс за идею

по дефолту выключенна на хостах EncryptData : False

Get-SmbServerConfiguration AnnounceComment : AnnounceServer : False AsynchronousCredits : 512 AuditSmb1Access : False AutoDisconnectTimeout : 15 AutoShareServer : True AutoShareWorkstation : True CachedOpenLimit : 10 DurableHandleV2TimeoutInSeconds : 180 EnableAuthenticateUserSharing : False EnableDownlevelTimewarp : False EnableForcedLogoff : True EnableLeasing : True EnableMultiChannel : True EnableOplocks : True EnableSecuritySignature : False EnableSMB1Protocol : False EnableSMB2Protocol : True EnableStrictNameChecking : True EncryptData : False IrpStackSize : 15 KeepAliveTime : 2 MaxChannelPerSession : 32 MaxMpxCount : 50 MaxSessionPerConnection : 16384 MaxThreadsPerQueue : 20 MaxWorkItems : 1 NullSessionPipes : NullSessionShares : OplockBreakWait : 35 PendingClientTimeoutInSeconds : 120 RejectUnencryptedAccess : True RequireSecuritySignature : False ServerHidden : True Smb2CreditsMax : 8192 Smb2CreditsMin : 512 SmbServerNameHardeningLevel : 0 TreatHostAsStableStorage : False ValidateAliasNotCircular : True ValidateShareScope : True ValidateShareScopeNotAliased : True ValidateTargetName : True

Alex
19.07.2019
07:07:32
Ребята всем привет. Подскажите пожалуйста, может кто-то сталкивался с подобной проблемой. Есть 2 хоста hyper-v core 2016 c интеом 1Gbit/s - проблема в скорости репликаций ВМ. Одна ВМ реплицируется со скростью не больше 50-100Mbit/s, при репликации 2-3 ВМ может разогнаться до 300Mbit/s. Тоесть идет ограничение на 1 поток переадчи данных по SMB между хостами. Проверяли IPerf3 между хостами - многопоточный тест утилизирует весь гигабитный какнал по tcp как на загрузку так и на отдачу. IPerf3 однопоточный тест утилизиирует канал в 50Mbit/s. latency ping между хостами time=26ms. Сеть сконфигурирована без Nic Teaming. Скорость хренова как с настроенным virtual Switch-External так и без него. В инете есть инфа как ограничить скорость реплики ... а мне нужно наооборот увеличить скорость реплики. Ковыряли конфиги хоста но без результатно: Performance tuning for file servers EnableBandwidthThrottling: False EnableMultiChannel: True Performance optimization of Hyper-V Replica MaximumActiveTransfers: от 0 до 100 (ниче не меняется) Включали/выключали Auto-Tuning сетевого адаптера: autotuninglevel=disabled | autotuninglevel=normal Включали/выключали Large Send Offload and Network Performance Включали/выключали Vmq, SR-IOV Включали/выключали Jumbo Frames 'Jumbo Packet=9014 Bytes' И самое интересное что на хостах есть линуксовые ВМ и между ними тест IPerf3 в 1 поток утилизирует весь гигабитный канал. Что может ограничивать скорость в 1 поток на хостах hyper-v? Заранее спасибо за свежие идеи ))
может в систему хранения упирается ?

Ivan
19.07.2019
07:08:14
нет riad10 SSD enterprises из 16 дисков

1,9 гб на чтение и запись

Реплика между хсотами в локлаьной сети без ограничений .. через инет с каналом на 1 хосте 1Гбит на другом 3Гбит ограниченна в 1 поток от 50 до 100Мбит.

Google
Ivan
19.07.2019
07:14:30
Черт возьми почему ВМ линуховые на этих хостах в 1 поток могут общаться без ограничений, а Windows ВМ на хэтих хостах с той же проблемой

неужели latency time=26ms ограничивает скорость tcp в 1 поток. Грешили на провайдеров - но линукс доказвает то что пров не ограничивает скорость в 1 поток

Sergey
19.07.2019
07:17:34
может в систему хранения упирается ?
если по смб лить файл с хоста на хост сколько кажет?

Ivan
19.07.2019
07:18:05
С такой же скоростью от 50 до 100 мбит

я вкурсе что реплика пашет через SMB

Ivan
19.07.2019
07:20:52
дошли до абсурда .. поднимали на хостах Mikrotik CHR делали VPN между хостами и тестили через VPN

Sergey
19.07.2019
07:21:22
я вкурсе что реплика пашет через SMB
я про то чтобы отсечь всякие гипервизоры

rss настраивали?

vmq/vmmq?

ну скажем что-то одно из двух на самом деле

Ivan
19.07.2019
07:21:58
нет rss не трогали ... просто смушает то что по локалке все ок - но через WAN херня

vmmq отпадает Get-VMNetworkAdapter -ManagementOS | select *VMMQ*, *VRSS* VmmqEnabled : False VmmqEnabledRequested : False VmmqQueuePairs : 0 VmmqQueuePairsRequested : 16 VrssEnabled : False VrssEnabledRequested : True VmmqEnabled : False VmmqEnabledRequested : False VmmqQueuePairs : 0 VmmqQueuePairsRequested : 16 VrssEnabled : False VrssEnabledRequested : True

а вот за rss спс ... есть что еще ковырнуть ))

нашли инфу про Window Scale и прямую зависимость от RRT (ms) Window Scale is set to 8, which translates to 2^8, which is 256. Multiply the 8K window by 256 to get a total size of 2048K before an ACK must be sent. Over a high-latency link, that can really add up. Without scaling factor enabled/supported, the higher the latency, the worse the impact. Take a look at these charts from Microsoft, which show the theoretical maximum throughput over a 1Gbps link across various latency values. RTT (ms) Maximum Throughput (Mbit/sec) 300 1.71 200 2.56 100 5.12 50 10.24 25 20.48 10 51.20 5 102.40 1 512.00 And here’s the same 1Gbps link with scaling enabled. RTT (ms) Maximum Throughput (Mbit/sec) 300 447.36 200 655.32 100 1310.64 50 2684.16 25 5368.32 10 13420.80 5 26841.60 1 134208.00

Sergey
19.07.2019
08:47:11
ну и профиль datacenter наложи

new-nettransportfilter

Google
Yes
19.07.2019
08:48:39
ну и профиль datacenter наложи
Думаешь у него Datacenter ?

Ivan
19.07.2019
08:48:54
))) hyper-v core 2016 Free

Sergey
19.07.2019
08:49:03
ну йоба\

Ivan
19.07.2019
08:49:08
get-nettransportfilter SettingName : Automatic Protocol : TCP LocalPortStart : 0 LocalPortEnd : 65535 RemotePortStart : 0 RemotePortEnd : 65535 DestinationPrefix : *

Sergey
19.07.2019
08:49:13
это никакого отношения не имеет к редакции

читайте про TCP Templates

CUBIC, LEDBAT

Ivan
19.07.2019
08:50:22
ну так congenstion window поставь 64к
где это значение можно настроить?

Sergey
19.07.2019
08:50:51
Ivan
19.07.2019
08:50:52
значит всетаки дело в tcp, дистанции и в латенси между хостами?

Sergey
19.07.2019
08:51:28
трудно гадать на кофейной гуще )

Sergey
19.07.2019
08:51:52

Страница 227 из 234