Sergey
11.01.2018
15:32:30
а то вдруг у вас гугл
terry
11.01.2018
15:32:40
вернее все
Sergey
11.01.2018
15:32:43
нет
Google
Sergey
11.01.2018
15:32:47
я серьезно спрашиваю
terry
11.01.2018
15:32:50
high load
Sergey
11.01.2018
15:32:53
кому-то высокая нагрузка - это когда больше одного сервера
кому-то - когда больше 5000
terry
11.01.2018
15:33:11
100 контейнеров в скелинге
на ноду
Fike
11.01.2018
15:33:15
terry
11.01.2018
15:33:17
или больше
в будущем больше
Sergey
11.01.2018
15:33:29
короче лучше сразу вопросы задавайте
terry
11.01.2018
15:33:31
по нарастающей
говорят кубик умеет скелить микросервисы
Sergey
11.01.2018
15:34:07
умеет, но это не отменяет требования понимать как именно должно скейлиться ваше приложение
Google
Denis
11.01.2018
15:35:04
terry
11.01.2018
15:35:19
что бы выдерживать много rps
Denis
11.01.2018
15:35:35
это сколько?
Max
11.01.2018
15:35:42
100 контейнеров в скелинге
главное чтоб не сто подов на ноду, это точно не работает хорошо. Изучите вот это https://kubernetes.io/docs/admin/cluster-large/
Sergey
11.01.2018
15:35:48
Fike
11.01.2018
15:35:50
Denis
11.01.2018
15:36:10
terry
11.01.2018
15:36:11
Sergey
11.01.2018
15:36:20
midload )
понятно, а 3000 - это хорошая зарплата?
заметьте, я не сказал чего 3000
Denis
11.01.2018
15:36:32
я заметил
Maksim
11.01.2018
15:36:35
///////////
Denis
11.01.2018
15:37:12
it depends
Carrol
11.01.2018
15:40:14
3000 мало rps и з/п спорная, github заработал
Sergey
11.01.2018
15:41:14
Fike
11.01.2018
15:41:14
We've addressed the source of the exceptions [x]
Sergey
11.01.2018
15:41:17
маленькая зп?
Alexander
11.01.2018
15:41:24
Сервим 400к рпс на gke, задавайте ваши ответы
Carrol
11.01.2018
15:41:29
Dmitry
11.01.2018
15:42:58
Google
Alexey B
11.01.2018
15:44:14
сетка бабахнет или дискавери или днс
Maksim
11.01.2018
15:44:22
Carrol
11.01.2018
15:45:01
3000 BTC
недолго такую з/п смогут платить, биткойнов всего около 16 миллионов
Maksim
11.01.2018
15:45:35
Fike
11.01.2018
15:46:15
раньше была шутка про argumentum ad hitler, теперь можно считать, за сколько минут любая беседа сводится к обсуждению биткойнов
Maksim
11.01.2018
15:46:34
Ну тут долго шло
Fike
11.01.2018
15:46:59
oh please
Max
11.01.2018
15:51:58
Почему? А если у меня 24 ядра/64гб памяти на каждой ноде?
ну вы почитайте вот там по ссылке. У нас на практике была нода 256Г и 12 ядер. После 100 подов на ноде (по 3-4 контейнера) нода переставала работать, отваливался докер демон. Тогда правда был докер не последний (1.13). Но в общем потом нарыли в доке что так лучше не делать, предположительно упиралось в пропускную способность сокета демона.
Sergey
11.01.2018
15:53:08
может кастыльчик в виде нарезания большой железной ноды на VM ? )
Andor
11.01.2018
15:53:14
у нас было 40 ядер и 256гб памяти и симптомы ровно те же были
Max
11.01.2018
15:53:54
на конфе цепанул рецепт в виде нарезания жирной ноды на виртуалке kvm'ом
Andor
11.01.2018
15:54:08
это как раз наши красавчики придумали костылик
Max
11.01.2018
15:54:12
Andor
11.01.2018
15:54:15
я правда там уже не работаю
(не авито)
Max
11.01.2018
15:55:08
но мы решили по пути удешевения железок и отказа от дополнительных слоев для поддержки
Andor
11.01.2018
15:56:53
верным путём пошли :)
Max
11.01.2018
15:58:15
ну и это только для тестовой среды актуально, ибо в проде ограниченное количество неймспейсов. Это только на тестовой среде у нас девы и тестеры деплоят стопятьсот окружений и всем нужно их придержать на недельку-другую
Alexey B
11.01.2018
15:59:15
ummutable infrastructure рулит для такого
Max
11.01.2018
15:59:40
но с дешевым мжелезом на тестовой среде пришли падения нод, с которыми я собсно и пришел в этот канал)
Google
Maksim
11.01.2018
15:59:41
Ну 2 из 3х у вас падение на свапе
Так что ищет ошибки памяти
Max
11.01.2018
16:07:47
Так что ищет ошибки памяти
ага, только что извлекли ноду и запустили мемтест, завтра будет. Конечно красиво кубер перераспределил пропавшие поды на другие ноды..)
Maksim
11.01.2018
16:10:06
А вы его тюнили? или используете дефолтовые значения?
Max
11.01.2018
16:10:43
Maksim
11.01.2018
16:10:57
скорость переспределения нод
Max
11.01.2018
16:11:06
нет, дефолтное все
Nikita
11.01.2018
16:52:23
Теперь не нужно ломать голову в поисках фильма.Ежедневная подборка фильмов, достойных просмотра. Живые рекомендации,ссылки,трейлеры, описания, кадры, оценки. Только хорошее кино! Присоединяйтесь!
https://t.me/whatmovies
Anton
11.01.2018
16:54:13
1. Запускаю вот такой деплоймент и попадаю в sh alpine:
$ kubectl run sh --image=alpine -it --command -- sh
2. Выхожу (exit) и вижу такую подсказку:
Session ended, resume using 'kubectl attach sh-69f846b4b7-8cxr5 -c sh -i -t' command when the pod is running
3. Выполняю подсказку, и действительно опять попадаю в sh alpine.
4. Опять выхожу (exit) и опять вижу ту же подсказку.
5. Выполняю подсказку, но второй раз вот такое:
error: unable to upgrade connection: container sh not found in pod sh-69f846b4b7-8cxr5_default
и
$ kubectl get po
NAME READY STATUS RESTARTS AGE
sh-69f846b4b7-8cxr5 0/1 Completed 1 25s
Что такое Completed и почему первый раз я смог вернуться, а второй — нет?
Alexey B
11.01.2018
19:52:55
Есть несколько интерфейсов:
eth0 Link encap:Ethernet HWaddr 36:f5:64:24:c5:a7
inet addr:202.154.192.122 Bcast:207.154.207.255 Mask:255.255.240.0
eth1 Link encap:Ethernet HWaddr 3e:03:d1:5c:2c:96
inet addr:10.135.78.185 Bcast:10.135.255.255 Mask:255.255.0.0
КАК повесить nginx на public ip?
Вот сервис
...Type: LoadBalancer
IP: 10.106.169.46
Port: <unset> 443/TCP
TargetPort: 443/TCP
NodePort: <unset> 32481/TCP
Endpoints: 192.168.217.249:443,192.168.82.166:443
Session Affinity: None
External Traffic Policy: Cluster
Events: <none>
...
экспорт
...
ports:
- nodePort: 32481
port: 443
protocol: TCP
targetPort: 443
selector:
io.kompose.service: front
sessionAffinity: None
type: LoadBalancer
status:
...
MOXHATOE
11.01.2018
20:04:38
А что, ExternalIP не прокатило?
Let Eat
11.01.2018
20:04:52
Alexey B
11.01.2018
20:50:57
заработало, только не могу понять, почему с таким конфигом и двумя nginx (реплика: 2)
ports:
- name: http
port: 80
targetPort: 80
protocol: TCP
- name: https
nodePort: 32481
port: 443
protocol: TCP
targetPort: 443
selector:
io.kompose.service: front
sessionAffinity: None
externalIPs:
- y.y.y.y
- x.x.x.x
- z.z.z.z
type: LoadBalancer
делаю
curl y.y.y.y
и убиваю одну из под, запросы виснут, на вторую поду не идут.... why?
почему LoadBalancer не отрабатывает?
MOXHATOE
11.01.2018
21:02:17
Так а лоадбалансер есть вообще?
Anton
11.01.2018
21:17:12
Maksim
11.01.2018
21:43:02
Потому что фигня подходит тодько длч малого окркжения
John
11.01.2018
23:20:48
New Year Sale! Every Programming Course is 93% off!
https://reactdom.com/sale
Andrey
12.01.2018
06:27:14
helm template | istioctl | kubectl apply :)
Google
Andrey
12.01.2018
06:30:59
Anatoliy
12.01.2018
06:31:26
Maksim
12.01.2018
06:53:44
complited значит команда в контейнеры выполнилась и вернула 0
-)
Anton
12.01.2018
06:55:02
Anatoliy
12.01.2018
06:55:18
Nikita
12.01.2018
09:06:36
Ребят, а кто как решает HA для докер регистри?
Denis
12.01.2018
09:08:46
Сейчас ислледуем Ceph для PV и видимо будем запускать registry в кубе
Andor
12.01.2018
09:09:18
для бутстрапа режистри надо будет запустить режистри
Denis
12.01.2018
09:09:54
Ну это в ситуации если нет других реджистри
Nikita
12.01.2018
09:21:48
Denis
12.01.2018
09:22:13
Ну делайте резервную копию на другой сервак
в случае факапа - просто другой инстанс за DNS
Anatoliy
12.01.2018
09:22:42
Let Eat
12.01.2018
09:22:48
Еще поищу истрию и объеденю под тагом #helmговно для будущих поколений