@configmgr

Страница 562 из 1071
Sergey
17.07.2017
11:33:09
Госпада, давайте вы с чангой в чат по чанге будете писать?

Kamil
17.07.2017
11:33:40
если нет онприма, тогда нафига покупали? идите в о365
легаси? остпалось он тучных времен когда было 100 человек и хотели задачи в аутлуке?

Денис
17.07.2017
11:34:00
а нафиг там чанга?
а что им, на маил ру сидеть?)

а админ все это смотрящий?
еще раз, если захотели держать ексч онпрем, то наверное надо соображать и понимать, что любому онпрем нужна поддержка

Google
System Center Bot
17.07.2017
13:00:06
Хотите размять мозги? Помогите коллегам найти выход из сложной ситуации. Вопросы без ответов с social.technet.microsoft.com/Forums/ru-RU/home?forum=smsru - sccm заблокировать перезагрузку на windows server 2012 r2 - Временные папки от WindowsUpdateAgent30-x64.exe - WSUS+SCCM 2012 buid 1702 - Удаленное подключение консоли к configuratin manager server - Неправильное отображение количества элементов ограничивающей коллекции - SCCM Capture ONline IMage - SCCM Enpoint Protection блокирует admin$ - SCCM 2012 +WSUS+DMZ

Kamil
17.07.2017
17:14:42
кто вмвару знает, описали ща такое Платформа vmware esx. С контрактом. Несколько серваков с процессорными мощностями и 64 оперативки на каждом. И один сервак с небольшим процессором и 800 гигами оперативки. И дисковое хранилище. все соединено 40 оптикой подскажите, такое возможно?

Pavel
17.07.2017
17:19:23
Возможно у жизни?

Или в реализации?

Kamil
17.07.2017
17:20:41
умеет ли это esx, то что возможно в жизни я не сомневаюсь

Kamil
17.07.2017
17:22:09
Возможно и ESXi поддерживает кроме разве что 40й оптики
а как называется это расшаривание оперативной памяти?

demon_sl
17.07.2017
17:22:29
То есть LR

И проц не ниже 2011v3 сокетов

Если имеете ввиду NUMA то она межу нодами работать не будет (только на одной многосокетной системе )

Kamil
17.07.2017
17:27:16
Если имеете ввиду NUMA то она межу нодами работать не будет (только на одной многосокетной системе )
там речь о том, что вычислительные ядра на одной машине. а оперативка на другой

Google
demon_sl
17.07.2017
17:32:47
Не реально, скорость сети слишком маленькая, по сравнению с шиной памяти да и практического смысла ни какого - латентность так возрастёт что память просто будет самым слабым звеном + коррекции ошибок и балансировка, управлением Кеша - технология утопична по своей архитектуре

demon_sl
17.07.2017
17:36:47
Возможно тот кто рассказал, не так поняли технологию, в esxi есть балансировка нагрузки на cpu которая распределяется между несколькими нодами, но озушки должно быть равное кол-во и столько что каждая нода умела держать 100% машин обеих хвостов

Kamil
17.07.2017
17:37:31
да нечего гуглить, эт просто глупость
ну есть же VMware Fault Tolerance, черт его знает че там еще есть

Денис
17.07.2017
17:38:16
ну есть же VMware Fault Tolerance, черт его знает че там еще есть
ну и что?) у гипер-в тоже самое есть, это просто миграция стэйта вместе с содержимым оперативки машины с одной ноды на другую

demon_sl
17.07.2017
17:38:27
И отдельно iSCSI, + virtual flash очень хорошая штука особенно на без дисковых нодах

Денис
17.07.2017
17:39:42
и это на самом деле не в случае фолт толлеранс происходит, а в случае мэйнтанца

при фолте стэйт не мигрирует, а просто запускается с нуля на новой ноде

обычный кластер высокой доступности

Kamil
17.07.2017
17:41:07
ну и что?) у гипер-в тоже самое есть, это просто миграция стэйта вместе с содержимым оперативки машины с одной ноды на другую
позволяющих в случае отказа хоста с основной виртуальной машиной мгновенно переключиться на ее "теневую" работющую копию нет такого в hyper v

Kamil
17.07.2017
17:42:23
при фолте стэйт не мигрирует, а просто запускается с нуля на новой ноде
при отказе ноды вмваре утверждает что машина будет работать непрерывно

Google
Kamil
17.07.2017
17:42:54
Но ресурсов в 2 раза больше кушает
угу, по факту то две машины работает, плюс куча ограничений

Да, такое есть
а у Hyper v нет

demon_sl
17.07.2017
17:43:22
Есть такое, в основном озушки только кушает

Денис
17.07.2017
17:43:31
сомнительная необходимость, если честно)

demon_sl
17.07.2017
17:43:47
а у Hyper v нет
В HV и виртуал флеш нету

Денис
17.07.2017
17:43:51
сервисы, которым такое надо - обычно сами умеет в фолт толлеранс

Kamil
17.07.2017
17:43:57
ну возможно
возможно блоки памяти и процессоры вынимать наживую, но эт уже не вмваре и hyper v

Денис
17.07.2017
17:44:39
demon_sl
17.07.2017
17:44:51
сомнительная необходимость, если честно)
Ограничения как раз полутому и есть что бы Пигги были минимальные и общий доступ к хранилищу, кроме того та же OVH юзает

Денис
17.07.2017
17:45:09
угу, а тут типа че угодно
да хъерня все это, все упадлет на разрыве TCP

demon_sl
17.07.2017
17:46:01
а это что?)
Это когда нода подключена к схд по сети или имеет локальный рейд а для горячих данных у неё локальных кэш на SSD или группе SSD

да хъерня все это, все упадлет на разрыве TCP
Не рвётся, маки то же переезжают

Денис
17.07.2017
17:47:17
Не рвётся, маки то же переезжают
а кто об этом расскажет свичам и роутерам?)

Kamil
17.07.2017
17:48:13
demon_sl
17.07.2017
17:49:20
Денис
17.07.2017
17:49:30
Не рвётся, маки то же переезжают
при миграции машины в кластере тоже маки переезжают, но соединения все ранво рвутся.. при том, что машина фактически не выключается

Google
Денис
17.07.2017
17:49:44
Что такое CSV ?
кластер шаред волюм

Денис
17.07.2017
17:50:50
А при чем тут виртуал флеш ?
тогда я не понимаю в чем назначение локального кэша

что именно в нем хранится

персистентные данные один фиг должны хранится в цсв, не персистентные для фол толлеранс нет смысл держать в локальном кэше, ибо все умрет вместе с нодой

demon_sl
17.07.2017
17:53:27
Например когда у вас насколько десятков нод и кажды раз не обращаетесь к схд, а берёте данные из Кеша, а затем esxi оптимально компанует данные для передачи на схд, либо когда латентность и/или скорость схд не такая быстрая в случае удалённости или нагрузки на схд

Admin
ERROR: S client not available

Денис
17.07.2017
17:54:27
оно того стоит?

demon_sl
17.07.2017
17:54:34
И там несколько режимов работы в зависимости от потребностей на чтение / запись и тд

Денис
17.07.2017
17:56:08
сейчас реально нет никаких проблем со скоростью доступа в схд и к ее дискам, 10гбит устроить можно легко, локальный кэш скорее всего работать будет даже медленнее

какое то бесмысленное усложнение

demon_sl
17.07.2017
17:56:29
но тогда возникает вопрос консистентности данных на разных нодах при отказе, например.. или при рассогласовании
В зависимости от задач, кодой виртуалке можно выделять или не выделять пространство vflash, ранее в место неё использовался механизм кеширования

demon_sl
17.07.2017
17:57:00
10Gbps это мало :((

Ssd работают гораздо быстрее и выдают огромные iopsы

Google
demon_sl
17.07.2017
17:57:51
И дешевле чем 70-100 sas дисков

Денис
17.07.2017
17:58:10
ссд можно и в схд запихнуть

просто это как бы губит всю идею независимости машин от нод

10Gbps это мало :((
ок, есть оптика

уверен, что есть кейсы для таких вещей, но например в случае с БД - это совершенно смертельно

у вас со стороны машины транзакция фиксанется, нода упадет и привет.. вы про эту транзакцию никогда больше не узнаете

а если прилетит часть кэша, то и роллбэк не сработает

в кейсах с cdn это наверное имеет профит

Kamil
17.07.2017
20:03:48
Ssd работают гораздо быстрее и выдают огромные iopsы
Смотря какая нагрузка, пропускная способность и задержка разные вещи

И дешевле чем 70-100 sas дисков
А 15к диски все вроде, новые модели делать не будут, но ентерпрайз ссд дюже дороги

Денис
17.07.2017
20:06:59
Синхронная реплика схд же
ну два таких места отказных - в два раза больше риска)

Kamil
17.07.2017
20:08:17
ну два таких места отказных - в два раза больше риска)
Они независимо работают, шанс файла одного и второго 50%, а шанс файла обоих уже 25%

Где тут больше риска?

Денис
17.07.2017
20:08:45
сначала кэш реплика на схд, потом еще и между схд

Kamil
17.07.2017
20:09:49
сначала кэш реплика на схд, потом еще и между схд
Там может быть кеш тока на чтение

Хз, тонкости не знаю

System Center Bot
17.07.2017
20:09:59
¯\_(ツ)_/¯

Денис
17.07.2017
20:10:14
И там несколько режимов работы в зависимости от потребностей на чтение / запись и тд

речь идет про кэширование данных на локальном ссд ноды перех их отправкой в персистентное хранилище

если одна нода закоммитит транзакцию, а другие ноды об этом никогда не узнают, из за того, что кэш не дойдет до схд

Kamil
17.07.2017
20:12:06
Угу

Страница 562 из 1071