
Sergey
11.01.2018
15:32:30
а то вдруг у вас гугл

terry
11.01.2018
15:32:40
вернее все

Sergey
11.01.2018
15:32:43
нет

Google

Sergey
11.01.2018
15:32:47
я серьезно спрашиваю

terry
11.01.2018
15:32:50
high load

Sergey
11.01.2018
15:32:53
кому-то высокая нагрузка - это когда больше одного сервера
кому-то - когда больше 5000

terry
11.01.2018
15:33:11
100 контейнеров в скелинге
на ноду

Fike
11.01.2018
15:33:15

terry
11.01.2018
15:33:17
или больше
в будущем больше

Sergey
11.01.2018
15:33:29
короче лучше сразу вопросы задавайте

terry
11.01.2018
15:33:31
по нарастающей
говорят кубик умеет скелить микросервисы

Sergey
11.01.2018
15:34:07
умеет, но это не отменяет требования понимать как именно должно скейлиться ваше приложение

Google

Denis
11.01.2018
15:35:04

terry
11.01.2018
15:35:19
что бы выдерживать много rps

Denis
11.01.2018
15:35:35
это сколько?

Max
11.01.2018
15:35:42
100 контейнеров в скелинге
главное чтоб не сто подов на ноду, это точно не работает хорошо. Изучите вот это https://kubernetes.io/docs/admin/cluster-large/

Sergey
11.01.2018
15:35:48

Fike
11.01.2018
15:35:50

Denis
11.01.2018
15:36:10

terry
11.01.2018
15:36:11

Sergey
11.01.2018
15:36:20
midload )
понятно, а 3000 - это хорошая зарплата?
заметьте, я не сказал чего 3000

Denis
11.01.2018
15:36:32
я заметил

Maksim
11.01.2018
15:36:35
///////////

Denis
11.01.2018
15:37:12
it depends

Carrol
11.01.2018
15:40:14
3000 мало rps и з/п спорная, github заработал

Sergey
11.01.2018
15:41:14

Fike
11.01.2018
15:41:14
We've addressed the source of the exceptions [x]

Sergey
11.01.2018
15:41:17
маленькая зп?

Alexander
11.01.2018
15:41:24
Сервим 400к рпс на gke, задавайте ваши ответы

Carrol
11.01.2018
15:41:29

Dmitry
11.01.2018
15:42:58

Google

Alexey B
11.01.2018
15:44:14
сетка бабахнет или дискавери или днс

Maksim
11.01.2018
15:44:22

Carrol
11.01.2018
15:45:01
3000 BTC
недолго такую з/п смогут платить, биткойнов всего около 16 миллионов

Maksim
11.01.2018
15:45:35

Fike
11.01.2018
15:46:15
раньше была шутка про argumentum ad hitler, теперь можно считать, за сколько минут любая беседа сводится к обсуждению биткойнов

Maksim
11.01.2018
15:46:34
Ну тут долго шло

Fike
11.01.2018
15:46:59
oh please

Max
11.01.2018
15:51:58
Почему? А если у меня 24 ядра/64гб памяти на каждой ноде?
ну вы почитайте вот там по ссылке. У нас на практике была нода 256Г и 12 ядер. После 100 подов на ноде (по 3-4 контейнера) нода переставала работать, отваливался докер демон. Тогда правда был докер не последний (1.13). Но в общем потом нарыли в доке что так лучше не делать, предположительно упиралось в пропускную способность сокета демона.

Sergey
11.01.2018
15:53:08
может кастыльчик в виде нарезания большой железной ноды на VM ? )

Andor
11.01.2018
15:53:14
у нас было 40 ядер и 256гб памяти и симптомы ровно те же были

Max
11.01.2018
15:53:54
на конфе цепанул рецепт в виде нарезания жирной ноды на виртуалке kvm'ом

Andor
11.01.2018
15:54:08
это как раз наши красавчики придумали костылик

Max
11.01.2018
15:54:12

Andor
11.01.2018
15:54:15
я правда там уже не работаю
(не авито)

Max
11.01.2018
15:55:08
но мы решили по пути удешевения железок и отказа от дополнительных слоев для поддержки

Andor
11.01.2018
15:56:53
верным путём пошли :)

Max
11.01.2018
15:58:15
ну и это только для тестовой среды актуально, ибо в проде ограниченное количество неймспейсов. Это только на тестовой среде у нас девы и тестеры деплоят стопятьсот окружений и всем нужно их придержать на недельку-другую

Alexey B
11.01.2018
15:59:15
ummutable infrastructure рулит для такого

Max
11.01.2018
15:59:40
но с дешевым мжелезом на тестовой среде пришли падения нод, с которыми я собсно и пришел в этот канал)

Google

Maksim
11.01.2018
15:59:41
Ну 2 из 3х у вас падение на свапе
Так что ищет ошибки памяти

Max
11.01.2018
16:07:47
Так что ищет ошибки памяти
ага, только что извлекли ноду и запустили мемтест, завтра будет. Конечно красиво кубер перераспределил пропавшие поды на другие ноды..)

Admin
ERROR: S client not available

Maksim
11.01.2018
16:10:06
А вы его тюнили? или используете дефолтовые значения?

Max
11.01.2018
16:10:43

Maksim
11.01.2018
16:10:57
скорость переспределения нод

Max
11.01.2018
16:11:06
нет, дефолтное все

Nikita
11.01.2018
16:52:23
Теперь не нужно ломать голову в поисках фильма.Ежедневная подборка фильмов, достойных просмотра. Живые рекомендации,ссылки,трейлеры, описания, кадры, оценки. Только хорошее кино! Присоединяйтесь!
https://t.me/whatmovies

Anton
11.01.2018
16:54:13
1. Запускаю вот такой деплоймент и попадаю в sh alpine:
$ kubectl run sh --image=alpine -it --command -- sh
2. Выхожу (exit) и вижу такую подсказку:
Session ended, resume using 'kubectl attach sh-69f846b4b7-8cxr5 -c sh -i -t' command when the pod is running
3. Выполняю подсказку, и действительно опять попадаю в sh alpine.
4. Опять выхожу (exit) и опять вижу ту же подсказку.
5. Выполняю подсказку, но второй раз вот такое:
error: unable to upgrade connection: container sh not found in pod sh-69f846b4b7-8cxr5_default
и
$ kubectl get po
NAME READY STATUS RESTARTS AGE
sh-69f846b4b7-8cxr5 0/1 Completed 1 25s
Что такое Completed и почему первый раз я смог вернуться, а второй — нет?


Alexey B
11.01.2018
19:52:55
Есть несколько интерфейсов:
eth0 Link encap:Ethernet HWaddr 36:f5:64:24:c5:a7
inet addr:202.154.192.122 Bcast:207.154.207.255 Mask:255.255.240.0
eth1 Link encap:Ethernet HWaddr 3e:03:d1:5c:2c:96
inet addr:10.135.78.185 Bcast:10.135.255.255 Mask:255.255.0.0
КАК повесить nginx на public ip?
Вот сервис
...Type: LoadBalancer
IP: 10.106.169.46
Port: <unset> 443/TCP
TargetPort: 443/TCP
NodePort: <unset> 32481/TCP
Endpoints: 192.168.217.249:443,192.168.82.166:443
Session Affinity: None
External Traffic Policy: Cluster
Events: <none>
...
экспорт
...
ports:
- nodePort: 32481
port: 443
protocol: TCP
targetPort: 443
selector:
io.kompose.service: front
sessionAffinity: None
type: LoadBalancer
status:
...

MOXHATOE
11.01.2018
20:04:38
А что, ExternalIP не прокатило?

Let Eat
11.01.2018
20:04:52

Alexey B
11.01.2018
20:50:57
заработало, только не могу понять, почему с таким конфигом и двумя nginx (реплика: 2)
ports:
- name: http
port: 80
targetPort: 80
protocol: TCP
- name: https
nodePort: 32481
port: 443
protocol: TCP
targetPort: 443
selector:
io.kompose.service: front
sessionAffinity: None
externalIPs:
- y.y.y.y
- x.x.x.x
- z.z.z.z
type: LoadBalancer
делаю
curl y.y.y.y
и убиваю одну из под, запросы виснут, на вторую поду не идут.... why?
почему LoadBalancer не отрабатывает?

MOXHATOE
11.01.2018
21:02:17
Так а лоадбалансер есть вообще?

Anton
11.01.2018
21:17:12

Maksim
11.01.2018
21:43:02
Потому что фигня подходит тодько длч малого окркжения

John
11.01.2018
23:20:48
New Year Sale! Every Programming Course is 93% off!
https://reactdom.com/sale

Google

Andrey
12.01.2018
06:27:14
helm template | istioctl | kubectl apply :)

Anatoliy
12.01.2018
06:31:26

Maksim
12.01.2018
06:53:44
complited значит команда в контейнеры выполнилась и вернула 0
-)

Anton
12.01.2018
06:55:02

Anatoliy
12.01.2018
06:55:18

Nikita
12.01.2018
09:06:36
Ребят, а кто как решает HA для докер регистри?

Denis
12.01.2018
09:08:46
Сейчас ислледуем Ceph для PV и видимо будем запускать registry в кубе

Andor
12.01.2018
09:09:18
для бутстрапа режистри надо будет запустить режистри

Denis
12.01.2018
09:09:54
Ну это в ситуации если нет других реджистри

Nikita
12.01.2018
09:21:48

Denis
12.01.2018
09:22:13
Ну делайте резервную копию на другой сервак
в случае факапа - просто другой инстанс за DNS

Anatoliy
12.01.2018
09:22:42

Let Eat
12.01.2018
09:22:48
Еще поищу истрию и объеденю под тагом #helmговно для будущих поколений