
Anatoliy
13.12.2017
13:30:40
они же 0/0

Maksim
13.12.2017
13:31:06
Они нужны для rollout...

Sergey
13.12.2017
13:31:13

Anatoliy
13.12.2017
13:31:34
ага, т.е. шибко много их все равно не будет, так?

Google

Sergey
13.12.2017
13:31:59
емнип 5 по умолчанию

Maksim
13.12.2017
13:32:26
у меня тут 53-)

Sergey
13.12.2017
13:34:37
наврал (видимо с чем-то спутал)
You can set .spec.revisionHistoryLimit field in a Deployment to specify how many old ReplicaSets for this Deployment you want to retain. The rest will be garbage-collected in the background. By default, all revision history will be kept. In a future version, it will default to switch to 2.
Note: Explicitly setting this field to 0, will result in cleaning up all the history of your Deployment thus that Deployment will not be able to roll back.

Maksim
13.12.2017
13:35:48
Ну я же говорю это rollout -)

Sergey
13.12.2017
13:36:13
я и не спорил (:

Anton
13.12.2017
13:36:38

Dmytro
13.12.2017
13:45:01
этот вариант видел, чуть подробнее можно про "Виртуальный айпи указывает на сервис ингриса"
сначала деплой стандратного ингреса nginx, со сервисом ("clusterIP": "None", "type": "ClusterIP",) он позваляет получить список айпи подов. Потом разварачиваем кипелив, он деплоется как демонсет на ноды. И через конфиг указываем виртуальный айпи со сылкой на наш сервис (10.1.61.1: ingress-nginx). Этот виртуальный айпи будет привязан к интерфесу ноды где есть под ингреса. А потом я через внешний шлюз запускаю весь трафик на виртуальный айпи через маскарандинг

Anton
13.12.2017
13:48:35
воу, даже не думал в таком ключе его использовать

Dmytro
13.12.2017
13:57:43
моя цель была отвязатся от апаратной части, чтобы сисадмины не думали что находится на сервере (фрон или бекенд) чтобы в любой момент могли просто отключить сервак и подключить новый. Как с дисками в рейдах

Anton
13.12.2017
14:59:54
Идея ясна. Но все же даже в рейде обычно диск сначала исключают. Так и тут ноду пометить сначала нужно

Google

Andrey
13.12.2017
17:09:45
а есть где-нибудь набор *.proto для куберовского API в одном месте, или они раскиданы по репам?

Sergey
13.12.2017
18:14:09

Let Eat
13.12.2017
21:15:40


Sergey
13.12.2017
21:45:23
Сдампите все ресурсы в yaml и восстановите в новом
Да там кроме самого кубернетса еще хватает Г в VPC, типа эластиков, которое, как водится, не автоматизировано, да еще и выведены дополнительные инстансы типа FTP со статическим ИП и nfs-сервер. Вообщем день работы точно все это пересоздать
Но в целом я понял месседж :)

Dmitry
14.12.2017
03:52:04
https://github.com/smpio/kubernator

Eugene
14.12.2017
06:00:50
Кто нибудь знает альтернативу https://brigade.sh/ , только не поганую поделку от поганого майкрософта? Какой то сервис который поллит ивенты/объекты по аннотации в кубернетесе и выполняет кастомный скрипт/или дергает url?

Let Eat
14.12.2017
07:06:07
можете на баше: kubectl get --watch | while read event; do .... ; done

Вася
14.12.2017
10:13:27
Привет котоны, сталкивался кто с проблемой резольвинга имен внутри подов? Не резольвяться dns имена внутри подов, куда смотреть в таких случаях?

Denis
14.12.2017
10:14:17
kube-proxy?

Вася
14.12.2017
10:18:10
не резольвят внешние имена, внутр работаю

Dmitry
14.12.2017
10:20:38
Настройки Kube-dns

Вася
14.12.2017
10:21:29

Dmitry
14.12.2017
10:23:44
Найти pod kube-dns в неймспейсе kube-system и сделать dedcribe

Anton
14.12.2017
14:40:31
https://github.com/kubernetes/kubernetes/pull/53553

Dmitry
14.12.2017
15:00:59
Что такого? Виндодокер я уже в проде (почти) использую, всё окей.

Anton
14.12.2017
15:08:31
не не, все норм. ну вернее ожидаемо, никто не хочет мимо к8с хайпа проходить =)

Google

Andrey
14.12.2017
15:08:44
Я просто не в теме, а искать долго

Dmitry
14.12.2017
15:09:17
Ну да, обычный докер под обычной виндой

Сергей
14.12.2017
15:09:28
https://docs.docker.com/docker-for-windows/

Andrey
14.12.2017
15:09:52
Я его тыкал когда хайп несколько лет назад поднимался

Сергей
14.12.2017
15:09:55
тип анативный докер для венды
с двумя типами контейнеров для нее

Andrey
14.12.2017
15:11:47
Еще тогда альтернативу в виде lxc потыкал. Печально что без установки промежуточной системы нельзя сделать несколько одинаковых сервисов. Но недавно почитал про systemd nspawn - полностью меня устроило

Сергей
14.12.2017
15:12:27
с инит системой и тп
ему в обед 100 лет

Сергей
14.12.2017
15:13:00
его стоит сравнивать с openvz
у меня стейтфул сервисы в lxc жили еще до того, как докер вообще замаячил

Andrey
14.12.2017
15:13:38
Угу. У меня просто и задача стояла на одном сервере запустить десяток приложений, каждому дать по сетевому интерфейсу и рулить из хост системы

Сергей
14.12.2017
15:13:52
да и пока не запилили либконтейнер в докер, lxc был движком для докера

Andrey
14.12.2017
15:14:29
У lxc на тот момент разворачивали только полностью ОС, а пример с приложением был 1 - для ssh ?

Сергей
14.12.2017
15:15:27
ну это очень грубу

Vlad
14.12.2017
15:17:35

Google

Сергей
14.12.2017
15:18:17
это тот что встроенный?
а оно разве не в платной версии?

Vlad
14.12.2017
15:18:29
да, встроенный
вроде как во всех версиях должен быть

Сергей
14.12.2017
15:19:49

Andrey
14.12.2017
15:25:37

Сергей
14.12.2017
15:26:55
да когад они поменли формат образов - на обновлении было немного неудобно

Admin
ERROR: S client not available

Сергей
14.12.2017
15:28:24
aufs выдрачивал

vladget
14.12.2017
15:29:04
привет! какие-то странные проблемы с weave на kops на AWS, под с weave тупо крашиться
Warning Unhealthy 3m (x17 over 11m) kubelet, ip-172-20-32-221.eu-central-1.compute.internal Liveness probe failed: Get http://127.0.0.1:6784/status: dial tcp 127.0.0.1:6784: getsockopt: connection refused
Normal Killing 3m (x8 over 11m) kubelet, ip-172-20-32-221.eu-central-1.compute.internal Killing container with id docker://weave:pod "weave-net-lvmxp_kube-system(f88647d8-e0df-11e7-b639-02a40c078a7c)" container "weave" is unhealthy, it will be killed and re-created.
Warning BackOff 10s (x34 over 8m) kubelet, ip-172-20-32-221.eu-cent
никто не сталкивался?

Сергей
14.12.2017
15:29:38


vladget
14.12.2017
15:30:12
INFO: 2017/12/14 15:26:18.925805 Found address 100.127.128.38/11 for ID _
INFO: 2017/12/14 15:26:19.025271 Found address 100.127.128.38/11 for ID _
INFO: 2017/12/14 15:26:19.121646 Found address 100.127.128.38/11 for ID _
INFO: 2017/12/14 15:26:19.129396 Found address 100.127.128.41/11 for ID _
это в weave контейнере
weave-npc просто ивенты
EVENT UpdatePod. там в основном кронджобы

Сергей
14.12.2017
15:31:39
малоинформативно

vladget
14.12.2017
15:33:10
ну уж простите

Сергей
14.12.2017
15:41:01
а к логам

Google


vladget
14.12.2017
15:41:20
[Thu Dec 14 15:31:25 2017] eth0: renamed from vethwepg5e087ca
[Thu Dec 14 15:31:25 2017] IPv6: ADDRCONF(NETDEV_UP): vethwepl5e087ca: link is not ready
[Thu Dec 14 15:31:25 2017] weave: port 20(vethwepl5e087ca) entered forwarding state
[Thu Dec 14 15:31:25 2017] weave: port 20(vethwepl5e087ca) entered forwarding state
[Thu Dec 14 15:31:25 2017] IPv6: ADDRCONF(NETDEV_CHANGE): vethwepl5e087ca: link becomes ready
[Thu Dec 14 15:31:26 2017] IPv6: eth0: IPv6 duplicate address fe80::4ccc:b1ff:fe11:6939 detected!
[Thu Dec 14 15:31:40 2017] weave: port 20(vethwepl5e087ca) entered forwarding state
[Thu Dec 14 15:31:46 2017] weave: port 20(vethwepl5e087ca) entered disabled state
[Thu Dec 14 15:31:46 2017] device vethwepl5e087ca left promiscuous mode
[Thu Dec 14 15:31:46 2017] weave: port 20(vethwepl5e087ca) entered disabled state
[Thu Dec 14 15:31:47 2017] device vethwepl553bb29 entered promiscuous mode
[Thu Dec 14 15:31:47 2017] eth0: renamed from vethwepg553bb29
[Thu Dec 14 15:31:47 2017] IPv6: ADDRCONF(NETDEV_UP): vethwepl553bb29: link is not ready
[Thu Dec 14 15:31:47 2017] weave: port 20(vethwepl553bb29) entered forwarding state
[Thu Dec 14 15:31:47 2017] weave: port 20(vethwepl553bb29) entered forwarding state
[Thu Dec 14 15:31:47 2017] IPv6: ADDRCONF(NETDEV_CHANGE): vethwepl553bb29: link becomes ready
[Thu Dec 14 15:31:48 2017] IPv6: eth0: IPv6 duplicate address fe80::a84f:e7ff:fe6e:5fd1 detected!
[Thu Dec 14 15:32:02 2017] weave: port 20(vethwepl553bb29) entered forwarding state
[Thu Dec 14 15:32:07 2017] weave: port 20(vethwepl553bb29) entered disabled state
[Thu Dec 14 15:32:07 2017] device vethwepl553bb29 left promiscuous mode
[Thu Dec 14 15:32:07 2017] weave: port 20(vethwepl553bb29) entered disabled state
вот такое на ноде
между нодами есть коннект
я наверно поменяю все на calicio


Сергей
14.12.2017
15:45:08
[Thu Dec 14 15:31:25 2017] eth0: renamed from vethwepg5e087ca
это барэ метал?
ну железка?

vladget
14.12.2017
15:45:52
не, EC2
kops же

Сергей
14.12.2017
15:47:22
kops же
я на всяк случаи, ибо там есть движение в сторону баре метал, чет пилили, но не суть
меня что смущает
[Thu Dec 14 15:31:25 2017] eth0: renamed from vethwepg5e087ca тут видно что был ренейм интерфейса
мож где-то отсюда ноги растут?

vladget
14.12.2017
15:49:53
может и растут, я хз, я бы такой что свалил бы на другой CNI и забыл
кто что юзает?
calicio?

Сергей
14.12.2017
15:50:24
я вообще жду поддержку в копс плагина от авс с поддержкой их eni

vladget
14.12.2017
15:51:01
там какие-то ограничение по выбору сетки
типа можно только эту подсеть
у фланнела