@kubernetes_ru

Страница 381 из 958
Sergey
11.01.2018
15:32:30
а то вдруг у вас гугл

terry
11.01.2018
15:32:40
вернее все

Sergey
11.01.2018
15:32:43
нет

Google
Sergey
11.01.2018
15:32:47
я серьезно спрашиваю

terry
11.01.2018
15:32:50
high load

Sergey
11.01.2018
15:32:53
кому-то высокая нагрузка - это когда больше одного сервера

кому-то - когда больше 5000

terry
11.01.2018
15:33:11
100 контейнеров в скелинге

на ноду

Fike
11.01.2018
15:33:15
вопрос как бы я задал
это встречный вопрос, на который необходимо ответить, чтобы понять, кто вам нужен

terry
11.01.2018
15:33:17
или больше

в будущем больше

Sergey
11.01.2018
15:33:29
короче лучше сразу вопросы задавайте

terry
11.01.2018
15:33:31
по нарастающей

говорят кубик умеет скелить микросервисы

Sergey
11.01.2018
15:34:07
умеет, но это не отменяет требования понимать как именно должно скейлиться ваше приложение

Google
Denis
11.01.2018
15:35:04
terry
11.01.2018
15:35:19
что бы выдерживать много rps

Denis
11.01.2018
15:35:35
это сколько?

Max
11.01.2018
15:35:42
100 контейнеров в скелинге
главное чтоб не сто подов на ноду, это точно не работает хорошо. Изучите вот это https://kubernetes.io/docs/admin/cluster-large/

Sergey
11.01.2018
15:35:48
это сколько?
а 3000 рпс это много или мало?

Fike
11.01.2018
15:35:50
что бы выдерживать много rps
Мы опять возвращаемся к тому же, много - это сколько? Вон гитхаб реально редис использует и живет.

Denis
11.01.2018
15:36:10
Sergey
11.01.2018
15:36:20
midload )
понятно, а 3000 - это хорошая зарплата?

заметьте, я не сказал чего 3000

Denis
11.01.2018
15:36:32
я заметил

Maksim
11.01.2018
15:36:35
///////////

Denis
11.01.2018
15:37:12
it depends

Carrol
11.01.2018
15:40:14
3000 мало rps и з/п спорная, github заработал

Fike
11.01.2018
15:41:14
We've addressed the source of the exceptions [x]

Sergey
11.01.2018
15:41:17
маленькая зп?

Alexander
11.01.2018
15:41:24
Сервим 400к рпс на gke, задавайте ваши ответы

Carrol
11.01.2018
15:41:29
Google
Alexey B
11.01.2018
15:44:14
сетка бабахнет или дискавери или днс

Maksim
11.01.2018
15:44:22
Carrol
11.01.2018
15:45:01
3000 BTC
недолго такую з/п смогут платить, биткойнов всего около 16 миллионов

Maksim
11.01.2018
15:45:35
Fike
11.01.2018
15:46:15
раньше была шутка про argumentum ad hitler, теперь можно считать, за сколько минут любая беседа сводится к обсуждению биткойнов

Maksim
11.01.2018
15:46:34
Ну тут долго шло

Fike
11.01.2018
15:46:59
oh please

Max
11.01.2018
15:51:58
Почему? А если у меня 24 ядра/64гб памяти на каждой ноде?
ну вы почитайте вот там по ссылке. У нас на практике была нода 256Г и 12 ядер. После 100 подов на ноде (по 3-4 контейнера) нода переставала работать, отваливался докер демон. Тогда правда был докер не последний (1.13). Но в общем потом нарыли в доке что так лучше не делать, предположительно упиралось в пропускную способность сокета демона.

Sergey
11.01.2018
15:53:08
может кастыльчик в виде нарезания большой железной ноды на VM ? )

Andor
11.01.2018
15:53:14
у нас было 40 ядер и 256гб памяти и симптомы ровно те же были

Max
11.01.2018
15:53:54
на конфе цепанул рецепт в виде нарезания жирной ноды на виртуалке kvm'ом

Andor
11.01.2018
15:54:08
это как раз наши красавчики придумали костылик

Max
11.01.2018
15:54:12
Andor
11.01.2018
15:54:15
я правда там уже не работаю

(не авито)

Max
11.01.2018
15:55:08
но мы решили по пути удешевения железок и отказа от дополнительных слоев для поддержки

Andor
11.01.2018
15:56:53
верным путём пошли :)

Max
11.01.2018
15:58:15
ну и это только для тестовой среды актуально, ибо в проде ограниченное количество неймспейсов. Это только на тестовой среде у нас девы и тестеры деплоят стопятьсот окружений и всем нужно их придержать на недельку-другую

Alexey B
11.01.2018
15:59:15
ummutable infrastructure рулит для такого

Max
11.01.2018
15:59:40
но с дешевым мжелезом на тестовой среде пришли падения нод, с которыми я собсно и пришел в этот канал)

Google
Max
11.01.2018
16:07:47
ummutable infrastructure рулит для такого
ну да, но клауд дорого пока для нас

Так что ищет ошибки памяти
ага, только что извлекли ноду и запустили мемтест, завтра будет. Конечно красиво кубер перераспределил пропавшие поды на другие ноды..)

Maksim
11.01.2018
16:10:06
А вы его тюнили? или используете дефолтовые значения?

Maksim
11.01.2018
16:10:57
скорость переспределения нод

Max
11.01.2018
16:11:06
нет, дефолтное все

Nikita
11.01.2018
16:52:23
Теперь не нужно ломать голову в поисках фильма.Ежедневная подборка фильмов, достойных просмотра. Живые рекомендации,ссылки,трейлеры, описания, кадры, оценки. Только хорошее кино! Присоединяйтесь! https://t.me/whatmovies

Anton
11.01.2018
16:54:13
1. Запускаю вот такой деплоймент и попадаю в sh alpine: $ kubectl run sh --image=alpine -it --command -- sh 2. Выхожу (exit) и вижу такую подсказку: Session ended, resume using 'kubectl attach sh-69f846b4b7-8cxr5 -c sh -i -t' command when the pod is running 3. Выполняю подсказку, и действительно опять попадаю в sh alpine. 4. Опять выхожу (exit) и опять вижу ту же подсказку. 5. Выполняю подсказку, но второй раз вот такое: error: unable to upgrade connection: container sh not found in pod sh-69f846b4b7-8cxr5_default и $ kubectl get po NAME READY STATUS RESTARTS AGE sh-69f846b4b7-8cxr5 0/1 Completed 1 25s Что такое Completed и почему первый раз я смог вернуться, а второй — нет?

Alexey B
11.01.2018
19:52:55
Есть несколько интерфейсов: eth0 Link encap:Ethernet HWaddr 36:f5:64:24:c5:a7 inet addr:202.154.192.122 Bcast:207.154.207.255 Mask:255.255.240.0 eth1 Link encap:Ethernet HWaddr 3e:03:d1:5c:2c:96 inet addr:10.135.78.185 Bcast:10.135.255.255 Mask:255.255.0.0 КАК повесить nginx на public ip? Вот сервис ...Type: LoadBalancer IP: 10.106.169.46 Port: <unset> 443/TCP TargetPort: 443/TCP NodePort: <unset> 32481/TCP Endpoints: 192.168.217.249:443,192.168.82.166:443 Session Affinity: None External Traffic Policy: Cluster Events: <none> ... экспорт ... ports: - nodePort: 32481 port: 443 protocol: TCP targetPort: 443 selector: io.kompose.service: front sessionAffinity: None type: LoadBalancer status: ...

MOXHATOE
11.01.2018
20:04:38
А что, ExternalIP не прокатило?

Alexey B
11.01.2018
20:50:57
заработало, только не могу понять, почему с таким конфигом и двумя nginx (реплика: 2) ports: - name: http port: 80 targetPort: 80 protocol: TCP - name: https nodePort: 32481 port: 443 protocol: TCP targetPort: 443 selector: io.kompose.service: front sessionAffinity: None externalIPs: - y.y.y.y - x.x.x.x - z.z.z.z type: LoadBalancer делаю curl y.y.y.y и убиваю одну из под, запросы виснут, на вторую поду не идут.... why? почему LoadBalancer не отрабатывает?

MOXHATOE
11.01.2018
21:02:17
Так а лоадбалансер есть вообще?

Anton
11.01.2018
21:17:12
Повторю еще раз, мне не сложно. Бегите с хелма, максимум что можно - helm template | kubectl apply -f -
Буду всячески благодарен, если есть аргументы или кто-то статью написал про это. Сейчас как раз решаем за хелм, я постоянно слышу про "максимум helm template | kubectl apply -f -", но в итоге понимания, а почему же, так и нет.

Maksim
11.01.2018
21:43:02
Потому что фигня подходит тодько длч малого окркжения

John
11.01.2018
23:20:48
New Year Sale! Every Programming Course is 93% off! https://reactdom.com/sale

Andrey
12.01.2018
06:27:14
helm template | istioctl | kubectl apply :)

Google
Maksim
12.01.2018
06:53:44
complited значит команда в контейнеры выполнилась и вернула 0

-)

а куда бежать?)
ни куда. ручками делать и свои системы придумывать

Anton
12.01.2018
06:55:02
Ежемесячный опрос: кто что и как для централизованного логирования использует?
logentries (никому не рекомендую, прост общее наследованное решение по логгингу)

Anatoliy
12.01.2018
06:55:18
ни куда. ручками делать и свои системы придумывать
а в чем причина что хелм не стиот пользовать?

Nikita
12.01.2018
09:06:36
Ребят, а кто как решает HA для докер регистри?

Denis
12.01.2018
09:08:46
Сейчас ислледуем Ceph для PV и видимо будем запускать registry в кубе

Andor
12.01.2018
09:09:18
для бутстрапа режистри надо будет запустить режистри

Denis
12.01.2018
09:09:54
Ну это в ситуации если нет других реджистри

Nikita
12.01.2018
09:21:48
Сейчас ислледуем Ceph для PV и видимо будем запускать registry в кубе
с сефом да, мы тоже смотрим, но в прод мы выйдем раньше чем с сефом разберемся, а как-то стремно на продакшне с кубернетесом и без HA регистри

Denis
12.01.2018
09:22:13
Ну делайте резервную копию на другой сервак

в случае факапа - просто другой инстанс за DNS

Let Eat
12.01.2018
09:22:48
Еще поищу истрию и объеденю под тагом #helmговно для будущих поколений

Страница 381 из 958