
Pink
24.09.2018
11:41:31
Век живи -- век учись...

Vladimir
24.09.2018
11:41:47
а нет, вру
не актуальная
http://php.net/manual/ru/memcached.configuration.php#ini.memcached.sess-locking

Google

Vladimir
24.09.2018
11:41:56
вот что нагуглилось

Sergey
24.09.2018
11:42:54
крч проблема в том, что продукт - веб-игра
которая общается с базой и редисом
и чтобы чувак приходил туда же куда пришел, он привязывается к тому бэкенду куда он в первый раз попал, на тот же вебсокет
если он попадет на другой, то начнет все с начала
проблема в том что балансировка изза этого страдает и одна из нод иногда потребляет 50% памяти(коннектов) со всего кластера
что ухудшает ситуацию, так это то что все среды кроме баз на LXC, и память шарится за ядро
а жестко ограничить низя, если люди придут на тот бэк где нет ресурсов, они будут получать 404 и все поломается

Konstantin
24.09.2018
11:46:06
Ну сессии же выносить, это ещё в 20м веке делалось

Pink
24.09.2018
11:52:09

Sergei
24.09.2018
11:57:03
Кто подскажет, пытаюсь к гитлабу прикрутить runner, но во время регистрации этого самого раннера ошибка. С сетью видимых проблем нет, единственно что есть корпоративный прокси, который прописан в etc/environment

Denis
24.09.2018
12:20:57
Ребят, подскажите, есть ли смысл брать физ сервер под продакшен проект или надежнее и проще купить облачные серверы?
Если брать физ сервер, есть ли смысл делить его на виртуалки и разносить сервер для БД и App сервер?

Alexey
24.09.2018
12:23:27

Sergey
24.09.2018
12:23:30

Alexey
24.09.2018
12:25:09

Google

Sergey
24.09.2018
12:25:38
если проект завязанный на секурности то явно не в облака

Denis
24.09.2018
12:26:14
Да обычный такой веб-проект. Сейчас хостимся на FirstVDS, три виртуальных сервера по 8 ядер и 16 ОЗУ.
Только вот у них постоянно проблемы с сетью. И мы ложимся в этим моменты.
Цель: минимум даунтайма, максимум производительности за свои деньги.

Konstantin
24.09.2018
12:26:15
Всё не то, главное - бэкапы!

Alexey
24.09.2018
12:26:37

Denis
24.09.2018
12:26:48
Бекапы 3 раза в день шифруются по gpg и летят в S3, но я уже понял что этого мало и надо держать реплику в другом ДЦ
Т.к. потеря 8 часов тоже такое себе решение

Alexey
24.09.2018
12:28:10

Konstantin
24.09.2018
12:28:32
Облако - проще в обслуживании, имхо лучше. Тебе 3 сервака дороже выйдут + обслуживание

Denis
24.09.2018
12:28:40
Просто, я боюсь как бы уборщица там кабель не задела и наша физическая железка не легла ? Облачные внушали всегда больше доверия и админить их не надо, по крайней мере доверие внушал амазон. А сейчас пришлось уехать в РФ и начались проблемы.

Konstantin
24.09.2018
12:29:05
Всё падает, и облака тоже)

Denis
24.09.2018
12:30:49
Облака в теории не должны падать, но как-то везде где Ceph на практике они падают чаще чем обычные виртуалки ? Поэтому я и решил, что возьмем обычные виртуалки на KVM в FirstVDS. Но у них постоянные траблы с сетью.
Думаю, как быть, может просто у какого-то другого провайдера купить виртуалку и один из слейвов туда перенести, чтобы в случае чего можно было весь трафик перенаправить туда, а не сидеть и смотреть как “они чинят сеть”, пока клиенты нас проклинают ?

Konstantin
24.09.2018
12:34:23
Я бы свалил полностью, проблемы с сетью в облаке - такое ненужно
Если это регулярно конечно

Sergey
24.09.2018
12:35:00

Denis
24.09.2018
12:35:42
А куда валить (only Russia)? Может кто посоветовать альтернативу? VPS вроде у ihor неплохие были. А что касается облака, у того же vscale макс конфигурация это 8 гиг озу, хочется 16 хотя бы, т.к. приложение прожорливое

Sergey
24.09.2018
12:36:02
скажу куда никогда не валить
в OVH

Konstantin
24.09.2018
12:36:47
Я в селектел только на дедиках был, облако не юзал, но думаю там сеть не хуже

?
24.09.2018
12:42:08

Sergey
24.09.2018
12:43:05
почему?
потому что там сеть гавно, диски меняют через пень-колоду
на данный момент проект является его заложником, потому что инвестору дорого переезжать
недавно 3 среды упали изза разрабов

Google

Konstantin
24.09.2018
12:43:39
Лол, 1996й год?

Sergey
24.09.2018
12:43:45
два диска на цефе они меняли неделю
потом оказалось что они не ведут учет по дискам, изза этого пришлось выводить из строя всю полку

Denis
24.09.2018
12:44:37

Konstantin
24.09.2018
12:44:58
Нет конечно, это про VZ наверное речь

?
24.09.2018
12:45:05

Sergey
24.09.2018
12:45:06
диск из строя выпал
цеф ушел на ребалансировку
вырос нагруз на ЦП по всему кластеру
изза ребалансировки помер второй диск
крч весело

Denis
24.09.2018
12:45:33

?
24.09.2018
12:45:34
а online.net как?

Aleksey
24.09.2018
12:45:38

Konstantin
24.09.2018
12:45:44

Sergey
24.09.2018
12:45:52
чему я научился?
это выставлять триггеры на QPS к базам на запись

Konstantin
24.09.2018
12:46:27
У вас цеф с дефолтным конфигом?

Sergey
24.09.2018
12:46:51

Konstantin
24.09.2018
12:47:21
Я в проде каждый день игрался/ребалансил ?
У меня ещё и лоукост сборка
Я скраббинг не мог натюнить, долго искал причину и часто на горячую пересобирал

Denis
24.09.2018
12:49:10
Чтобы с цефом не было проблем, нужен спец который уже много раз прошел все грабли и научился их решать.

Sergey
24.09.2018
12:49:13
просто даже когда все хорошо
держите руку на пульсе
разрабы ударят туда откуда не ждали

Google

Konstantin
24.09.2018
12:49:55

Sergey
24.09.2018
12:49:57
"Серег мы оптимизировали SQL"
в день программиста

Aleksey
24.09.2018
13:05:16

Denis
24.09.2018
13:07:25
Предложу селектел
Брать дедик, ставить KVM и делить его на App Server + DB Server? VPS у них нет вроде, либо облака либо дедики. На самом деле просто не хотелось возиться с настройками дедика, не было опыта работы с KVM еще.

Sergey
24.09.2018
13:07:47
я бы на гиперы с виртуалками разнес

Aleksey
24.09.2018
13:07:50

Gor
24.09.2018
13:08:08
скажу куда никогда не валить
в OVH
Работаю с ними много лет. Но я беру железки а не виртуалки любого вида. Там меняют все быстро. Есть железный рейд. Прямые руки и все хорошо. Квм для всех задач возможных проблем ос, и диски достаточно быстро меняют без даунтайм на рейде. Но надо звонить. На тикеты тормозят отвечать

Denis
24.09.2018
13:08:13
У ihor смотрю приятные тарифы на VPS, 10 ядер, 24 ОЗУ, 110 SSD за 4к в месяц
у нас в облаке
Это которое приватное частное облако? Там конечно цены совсем другие уже

Stefan
24.09.2018
13:09:02

Sergey
24.09.2018
13:09:03
постоянно ложится тонель до деплоя
то что диски они не учитывали это вообще мне кажется финиш для хостера

Aleksey
24.09.2018
13:10:06
да именно оно. оно хорошо подходит до какогото уровня нагрузки а дальше дешевле аренда сервера с выкупом.

Sergey
24.09.2018
13:11:24
хотим переезжать в https://www.leaseweb.com/ и двигаться в кросс-дц после стабилизации проекта

Denis
24.09.2018
13:11:41

Aleksey
24.09.2018
13:12:59

Denis
24.09.2018
13:17:07

Konstantin
24.09.2018
13:17:53

Google

Sergey
24.09.2018
13:18:29

Алексей
24.09.2018
13:23:30

Gor
24.09.2018
13:31:29

Sergey
24.09.2018
13:32:59

Aleksey
24.09.2018
13:33:08
Привет, чятик! А тут есть смысл спрашивать про travis ci? Или есть более профильный чат?

Gor
24.09.2018
13:33:09
У них там были перестановки - их толи купили , толи новый сео решил сэкономить на тех поддержке

Sergey
24.09.2018
13:33:24

Gor
24.09.2018
13:34:16

Aleksey
24.09.2018
13:34:28
Есть ли в трависе опция, чтоб последующие стейджи не запускались, если этот зафейлился? Или наоборот, чоб стейдж запускался, если конкретный предыдущий отработал успешно?

Sergey
24.09.2018
13:35:33

Gor
24.09.2018
13:37:11
Я у них cerh или как его там правильно, не юзаю. Но с железом если брать сервер - полёт нормальный.
Вопрос, как правильно выше сказали, в наличии своих админов на решение поточных проблем и направки заявок на замену железа
У них новая услуга вот недавно вышла - load balancer, по нему полёт пока норм. Но были траблы с бетой.
Бета уже пару лет как доступна была. Сначало работала, потом косяки пошли как сделали платный релиз


Vladimir
24.09.2018
13:39:25
хотим переезжать в https://www.leaseweb.com/ и двигаться в кросс-дц после стабилизации проекта
Если есть возможность выбирать, не советую этого хостера. Несколько лет администрирую там с десяток серверов. Каждое обращение в ТП как рулетка. Делают все очень безответственно. БУквально на днях начала сбоить память на сервере. Через ilo это увидел, сделал запрос в ТП на замену. Замена длилась 1 час 10 минут. В моем понимании это очень долго для замены планки памяти.
А уж когда я заказывал у них приватную сеть, это был финиш. Для этого они переставляли сервера по стойкам. Кучу всего напутали. Дня 3 потом собирал все в одну сеть. Сейчас надо расширить приватную сеть, но я даже не буду начинать это делать. Все развалится.