@kubernetes_ru

Страница 357 из 958
Anatoliy
13.12.2017
13:30:40
они же 0/0

Maksim
13.12.2017
13:31:06
Они нужны для rollout...

Sergey
13.12.2017
13:31:13
Anatoliy
13.12.2017
13:31:34
ага, т.е. шибко много их все равно не будет, так?

Google
Sergey
13.12.2017
13:31:59
емнип 5 по умолчанию

Maksim
13.12.2017
13:32:26
у меня тут 53-)

Sergey
13.12.2017
13:34:37
наврал (видимо с чем-то спутал)

You can set .spec.revisionHistoryLimit field in a Deployment to specify how many old ReplicaSets for this Deployment you want to retain. The rest will be garbage-collected in the background. By default, all revision history will be kept. In a future version, it will default to switch to 2. Note: Explicitly setting this field to 0, will result in cleaning up all the history of your Deployment thus that Deployment will not be able to roll back.

Maksim
13.12.2017
13:35:48
Ну я же говорю это rollout -)

Sergey
13.12.2017
13:36:13
я и не спорил (:

Dmytro
13.12.2017
13:45:01
этот вариант видел, чуть подробнее можно про "Виртуальный айпи указывает на сервис ингриса"
сначала деплой стандратного ингреса nginx, со сервисом ("clusterIP": "None", "type": "ClusterIP",) он позваляет получить список айпи подов. Потом разварачиваем кипелив, он деплоется как демонсет на ноды. И через конфиг указываем виртуальный айпи со сылкой на наш сервис (10.1.61.1: ingress-nginx). Этот виртуальный айпи будет привязан к интерфесу ноды где есть под ингреса. А потом я через внешний шлюз запускаю весь трафик на виртуальный айпи через маскарандинг

Anton
13.12.2017
13:48:35
воу, даже не думал в таком ключе его использовать

Dmytro
13.12.2017
13:57:43
моя цель была отвязатся от апаратной части, чтобы сисадмины не думали что находится на сервере (фрон или бекенд) чтобы в любой момент могли просто отключить сервак и подключить новый. Как с дисками в рейдах

Anton
13.12.2017
14:59:54
Идея ясна. Но все же даже в рейде обычно диск сначала исключают. Так и тут ноду пометить сначала нужно

Google
Andrey
13.12.2017
17:09:45
а есть где-нибудь набор *.proto для куберовского API в одном месте, или они раскиданы по репам?

Sergey
13.12.2017
21:45:23
Сдампите все ресурсы в yaml и восстановите в новом
Да там кроме самого кубернетса еще хватает Г в VPC, типа эластиков, которое, как водится, не автоматизировано, да еще и выведены дополнительные инстансы типа FTP со статическим ИП и nfs-сервер. Вообщем день работы точно все это пересоздать

Но в целом я понял месседж :)

Dmitry
14.12.2017
03:52:04
https://github.com/smpio/kubernator

Eugene
14.12.2017
06:00:50
Кто нибудь знает альтернативу https://brigade.sh/ , только не поганую поделку от поганого майкрософта? Какой то сервис который поллит ивенты/объекты по аннотации в кубернетесе и выполняет кастомный скрипт/или дергает url?

Вася
14.12.2017
10:13:27
Привет котоны, сталкивался кто с проблемой резольвинга имен внутри подов? Не резольвяться dns имена внутри подов, куда смотреть в таких случаях?

Denis
14.12.2017
10:14:17
kube-proxy?

Вася
14.12.2017
10:18:10
не резольвят внешние имена, внутр работаю

Dmitry
14.12.2017
10:20:38
Настройки Kube-dns

Вася
14.12.2017
10:21:29
Настройки Kube-dns
Где их глянуть?

Dmitry
14.12.2017
10:23:44
Найти pod kube-dns в неймспейсе kube-system и сделать dedcribe

Anton
14.12.2017
14:40:31
https://github.com/kubernetes/kubernetes/pull/53553

Dmitry
14.12.2017
15:00:59
Что такого? Виндодокер я уже в проде (почти) использую, всё окей.

Anton
14.12.2017
15:08:31
не не, все норм. ну вернее ожидаемо, никто не хочет мимо к8с хайпа проходить =)

Google
Andrey
14.12.2017
15:08:44
Я просто не в теме, а искать долго

Dmitry
14.12.2017
15:09:17
Ну да, обычный докер под обычной виндой

Сергей
14.12.2017
15:09:28
Я просто не в теме, а искать долго
что-то докер хайп мимо вас прошол

https://docs.docker.com/docker-for-windows/

Andrey
14.12.2017
15:09:52
Я его тыкал когда хайп несколько лет назад поднимался

Сергей
14.12.2017
15:09:55
тип анативный докер для венды

с двумя типами контейнеров для нее

Andrey
14.12.2017
15:11:47
Еще тогда альтернативу в виде lxc потыкал. Печально что без установки промежуточной системы нельзя сделать несколько одинаковых сервисов. Но недавно почитал про systemd nspawn - полностью меня устроило

Сергей
14.12.2017
15:13:00
его стоит сравнивать с openvz

у меня стейтфул сервисы в lxc жили еще до того, как докер вообще замаячил

Andrey
14.12.2017
15:13:38
Угу. У меня просто и задача стояла на одном сервере запустить десяток приложений, каждому дать по сетевому интерфейсу и рулить из хост системы

Сергей
14.12.2017
15:13:52
да и пока не запилили либконтейнер в докер, lxc был движком для докера

Andrey
14.12.2017
15:14:29
У lxc на тот момент разворачивали только полностью ОС, а пример с приложением был 1 - для ssh ?

Сергей
14.12.2017
15:15:27
У lxc на тот момент разворачивали только полностью ОС, а пример с приложением был 1 - для ssh ?
в докере тоже полностью окружение идет какой-то из ос ( ну с определеными модификациями) одно что в докер можно переиспользовать слой

ну это очень грубу

Vlad
14.12.2017
15:17:35


Google
Сергей
14.12.2017
15:18:17
это тот что встроенный?

а оно разве не в платной версии?

Vlad
14.12.2017
15:18:29
да, встроенный

вроде как во всех версиях должен быть

Сергей
14.12.2017
15:19:49
да, встроенный
и оно в бесплатной версии?

Andrey
14.12.2017
15:25:37
в докере тоже полностью окружение идет какой-то из ос ( ну с определеными модификациями) одно что в докер можно переиспользовать слой
Да - я знаю. Но в дальнейшем - с завидной регулярностью сломанная совместимость и регулярные страдания людей, пользовавшихся докером - убедили что не связываться с докером было правильно

Admin
ERROR: S client not available

Сергей
14.12.2017
15:28:24
aufs выдрачивал

vladget
14.12.2017
15:29:04
привет! какие-то странные проблемы с weave на kops на AWS, под с weave тупо крашиться Warning Unhealthy 3m (x17 over 11m) kubelet, ip-172-20-32-221.eu-central-1.compute.internal Liveness probe failed: Get http://127.0.0.1:6784/status: dial tcp 127.0.0.1:6784: getsockopt: connection refused Normal Killing 3m (x8 over 11m) kubelet, ip-172-20-32-221.eu-central-1.compute.internal Killing container with id docker://weave:pod "weave-net-lvmxp_kube-system(f88647d8-e0df-11e7-b639-02a40c078a7c)" container "weave" is unhealthy, it will be killed and re-created. Warning BackOff 10s (x34 over 8m) kubelet, ip-172-20-32-221.eu-cent никто не сталкивался?

vladget
14.12.2017
15:30:12
INFO: 2017/12/14 15:26:18.925805 Found address 100.127.128.38/11 for ID _ INFO: 2017/12/14 15:26:19.025271 Found address 100.127.128.38/11 for ID _ INFO: 2017/12/14 15:26:19.121646 Found address 100.127.128.38/11 for ID _ INFO: 2017/12/14 15:26:19.129396 Found address 100.127.128.41/11 for ID _

это в weave контейнере

weave-npc просто ивенты

EVENT UpdatePod. там в основном кронджобы

Сергей
14.12.2017
15:31:39
малоинформативно

vladget
14.12.2017
15:33:10
ну уж простите

Сергей
14.12.2017
15:41:01
ну уж простите
да это же не к вам притензии

а к логам

Google
vladget
14.12.2017
15:41:20
[Thu Dec 14 15:31:25 2017] eth0: renamed from vethwepg5e087ca [Thu Dec 14 15:31:25 2017] IPv6: ADDRCONF(NETDEV_UP): vethwepl5e087ca: link is not ready [Thu Dec 14 15:31:25 2017] weave: port 20(vethwepl5e087ca) entered forwarding state [Thu Dec 14 15:31:25 2017] weave: port 20(vethwepl5e087ca) entered forwarding state [Thu Dec 14 15:31:25 2017] IPv6: ADDRCONF(NETDEV_CHANGE): vethwepl5e087ca: link becomes ready [Thu Dec 14 15:31:26 2017] IPv6: eth0: IPv6 duplicate address fe80::4ccc:b1ff:fe11:6939 detected! [Thu Dec 14 15:31:40 2017] weave: port 20(vethwepl5e087ca) entered forwarding state [Thu Dec 14 15:31:46 2017] weave: port 20(vethwepl5e087ca) entered disabled state [Thu Dec 14 15:31:46 2017] device vethwepl5e087ca left promiscuous mode [Thu Dec 14 15:31:46 2017] weave: port 20(vethwepl5e087ca) entered disabled state [Thu Dec 14 15:31:47 2017] device vethwepl553bb29 entered promiscuous mode [Thu Dec 14 15:31:47 2017] eth0: renamed from vethwepg553bb29 [Thu Dec 14 15:31:47 2017] IPv6: ADDRCONF(NETDEV_UP): vethwepl553bb29: link is not ready [Thu Dec 14 15:31:47 2017] weave: port 20(vethwepl553bb29) entered forwarding state [Thu Dec 14 15:31:47 2017] weave: port 20(vethwepl553bb29) entered forwarding state [Thu Dec 14 15:31:47 2017] IPv6: ADDRCONF(NETDEV_CHANGE): vethwepl553bb29: link becomes ready [Thu Dec 14 15:31:48 2017] IPv6: eth0: IPv6 duplicate address fe80::a84f:e7ff:fe6e:5fd1 detected! [Thu Dec 14 15:32:02 2017] weave: port 20(vethwepl553bb29) entered forwarding state [Thu Dec 14 15:32:07 2017] weave: port 20(vethwepl553bb29) entered disabled state [Thu Dec 14 15:32:07 2017] device vethwepl553bb29 left promiscuous mode [Thu Dec 14 15:32:07 2017] weave: port 20(vethwepl553bb29) entered disabled state

вот такое на ноде

между нодами есть коннект

я наверно поменяю все на calicio

Сергей
14.12.2017
15:45:08
[Thu Dec 14 15:31:25 2017] eth0: renamed from vethwepg5e087ca

это барэ метал?

ну железка?

vladget
14.12.2017
15:45:52
не, EC2

kops же

Сергей
14.12.2017
15:47:22
kops же
я на всяк случаи, ибо там есть движение в сторону баре метал, чет пилили, но не суть

меня что смущает

[Thu Dec 14 15:31:25 2017] eth0: renamed from vethwepg5e087ca тут видно что был ренейм интерфейса

мож где-то отсюда ноги растут?

vladget
14.12.2017
15:49:53
может и растут, я хз, я бы такой что свалил бы на другой CNI и забыл

кто что юзает?

calicio?

Сергей
14.12.2017
15:50:24
я вообще жду поддержку в копс плагина от авс с поддержкой их eni

vladget
14.12.2017
15:51:01
там какие-то ограничение по выбору сетки

типа можно только эту подсеть

у фланнела

Страница 357 из 958