@kubernetes_ru

Страница 653 из 958
Алексей
29.06.2018
13:02:15
Чем же я Вас так задел?)
Просто не зашло)) ничего личного

Михаил
29.06.2018
13:02:17
Просто не зашло)) ничего личного
насколько я помню контент не зашёл или и форма его подачи?

Алексей
29.06.2018
13:03:36
насколько я помню контент не зашёл или и форма его подачи?
Скорей форма подачи) Слишком много надменности) Но за это вас и хвалили перед выступлением) так что мой случай - это скорей частность

Google
Михаил
29.06.2018
13:05:53
вообще я ожидал, что с такой формой подачи меня закидают контр аргументами)

Andor
29.06.2018
13:06:42
А про что был доклад?

Andrey
29.06.2018
13:07:09
"Надменность в российском Kubernetes сообществе"

Vadim
29.06.2018
13:07:10
можно ссылку?

Mikhail
29.06.2018
13:07:13
А про что был доклад?
как сетапить кубернетес! )

без кубеадм

Михаил
29.06.2018
13:07:26
как сетапить кубернетес! )
на бареметал, если ты наркоман и нет денег на BGP

Andor
29.06.2018
13:07:28
Спреем?

Sergey
29.06.2018
13:07:31
Что плохого в vvrp в л2 сети?
то что он использует шаренное пространство айдишников и мультикаст.

Михаил
29.06.2018
13:07:36
Спреем?
обижаешь

Andrey
29.06.2018
13:07:45
Михаил
29.06.2018
13:08:06
А про что был доклад?
чуть чуть про то какой говно все эти инсталяторы чуть чуть про то, что L3 сети рулят чуть чуть про то, что свои плейбуки ближе к телу и это не дорого чуть чуть про нахера baremetal

Google
Михаил
29.06.2018
13:09:09
можно ссылку?
ну как будет запись

Vadim
29.06.2018
13:09:38
окей, спасибо

Stanislav
29.06.2018
13:09:45
kubeadm?
Рабочее решение

Dmitry
29.06.2018
13:11:15
В 1.10 деплой HA мастеров через kubeadm это как половинка kubernetes the hard way правда

Vadim
29.06.2018
13:11:16
Vadim
29.06.2018
13:11:37
ну как будет запись
Могу дать ссылку на запись доклада Чистякова по Куберу (как лучше управлять его конфигурацией, и почему это не надо делать), кстати, только там почти нет тех деталей. Есть также запись ведущего нашего вебинара (и оффлайн курса), только не по куберу.

Serg
29.06.2018
13:13:06
потому что докер контролирует одна компания? потому что k8s на порядки сложнее?
Даже обьективные причины плохой документации не сделают ее лучше.

Михаил
29.06.2018
13:15:16
потому что докер контролирует одна компания? потому что k8s на порядки сложнее?
вообще есть подозрение, что многим бы хватило простого Nomad

Vadim
29.06.2018
13:16:07
вообще есть подозрение, что многим бы хватило простого Nomad
стандартизация, однако. Где по нему спецов найдешь?

Михаил
29.06.2018
13:16:32
стандартизация, однако. Где по нему спецов найдешь?
ну тут да при том, что Nomad несколько проще

Andor
29.06.2018
13:18:33
вообще есть подозрение, что многим бы хватило простого Nomad
То же подозрение, но мне кажется что это примерно в 99% случаев

Михаил
29.06.2018
13:20:33
То же подозрение, но мне кажется что это примерно в 99% случаев
скорее правильно ставить вопрос "а на сколько люди используют всю силу кубовых абстракций?"

Vadim
29.06.2018
13:21:07
о, заценим
Чистяков: https://youtu.be/C-RrYip_UDU?t=22 А Селиванова пока не залили, позже.

Rostyslav
29.06.2018
13:32:18
всем привет. есть вопрос какой параметр в деплоймент ямле задает поду имя в сети кластера???

Caffeine
29.06.2018
13:34:41
Оу, это контейнеру, сорян

Поду человеческое имя ты дашь только если без деплоймента его создаешь

Rostyslav
29.06.2018
13:35:51
тогда обясни откуда он берет имя когда я заходжу в под и там пробую nslookup и мне возвращается ип по имени но ето лейдл или что

Google
Caffeine
29.06.2018
13:35:51
Ну или в стейфул сете

Pavel
29.06.2018
13:36:25
Notice that the name of the ReplicaSet is always formatted as [DEPLOYMENT-NAME]-[POD-TEMPLATE-HASH-VALUE]. The hash value is automatically generated when the Deployment is created.

Rostyslav
29.06.2018
13:36:53
хм что то не понимаю к чемук ето

Ivan
29.06.2018
13:37:14
нет конечно, полностью докеризированного докера нет и не будет - ему нужен настоящий сокет с хоста
всё есть )) разобрался )) после старта контейнера docker dind надо запустить демон докера внутри контейнера /usr/local/bin/dockerd

Mikhail
29.06.2018
13:37:35
хм что то не понимаю к чемук ето
имя формируется динамически в деплойменте

Rostyslav
29.06.2018
13:37:59
интересует откуда он берет имя для днс

Mikhail
29.06.2018
13:38:42
интересует откуда он берет имя для днс
ну вот же Notice that the name of the ReplicaSet is always formatted as [DEPLOYMENT-NAME]-[POD-TEMPLATE-HASH-VALUE]. The hash value is automatically generated when the Deployment is created.

Ivan
29.06.2018
13:39:08
ты туда монтируешь /var/lib/docker?
не монтирую вообще

Mikhail
29.06.2018
13:39:11
там примерно так же

Vadim
29.06.2018
13:39:56
не монтирую вообще
/var/lib/docker в контейнере получается тогда тоже в оверлее? Ну и ладненько

Mikhail
29.06.2018
13:40:15
kind: Deployment metadata: name: get-photos-from-vk-deployment $ kubectl get pod NAME READY STATUS RESTARTS AGE get-photos-from-vk-deployment-55dffddb4-mwndx 5/5 Running 0 16d

Mikhail
29.06.2018
13:41:12
начните с описания задачи )

Артамонов Игорь
29.06.2018
13:46:51
Да, в сервисе. В контейнере и сервисе, сорри.
А не вкурсе ли, часом, можно ли как-то в рамках одного ПОДа задать разные IP контейнерам? Или это в разрез с логикой кубера пойдет?

Andrey
29.06.2018
13:47:11
На самом деле, концептуально-то легко это всё сделать. Вроде, CNI поддерживает.

Google
Andrey
29.06.2018
13:48:24
Только вот чем Service не походит для множества точек входа в под?

Nikolay
29.06.2018
13:48:36
А не вкурсе ли, часом, можно ли как-то в рамках одного ПОДа задать разные IP контейнерам? Или это в разрез с логикой кубера пойдет?
да вроде можно это сделать, но не внутри пода, а просто сервисы создаешь и айпишник выставляешь

Артамонов Игорь
29.06.2018
13:50:18
Не, для меня важное ограничение - внутри пода, было. Буду разруливать на уровне приложений, значит

Ivan
29.06.2018
14:00:52
/var/lib/docker в контейнере получается тогда тоже в оверлее? Ну и ладненько
В итоге такой конфиг работает: concurrent = 3 check_interval = 0 log_level = "warning" [[runners]] name = "Kubernetes Runner" url = "https://gitlab.company.ru" token = "71da107d71436d2326cd2f55573c51" executor = "kubernetes" pre_build_script = "/usr/local/bin/dockerd &" [runners.kubernetes] host = "https://10.1.29.10:6443" cert_file = "/etc/ssl/kubernetes/apiserver.pem" key_file = "/etc/ssl/kubernetes/apiserver-key.pem" ca_file = "/etc/ssl/kubernetes/ca.pem" namespace = "gitlab" image = "docker:dind" privileged = true poll_interval = 3 poll_timeout = 360 [runners.kubernetes.node_selector] master = "true" Собственно весь секрет здесь: pre_build_script = "/usr/local/bin/dockerd &"

Ivan
29.06.2018
14:05:02
так я не сомневаюсь что работает, я только немного обеспокоен что у вас selinux/apparmor выключены и всё храниться в оверлейном сторадже - это прямой путь к corrupted data и лютым дырам в безопасности
так мне как раз это и нужно - чтобы не засорять место на диске. ранер создаёт контейнер, внутрь него качает все необходимые образы, клонит репы, собирает образ, заливает в реджестри, после чего контейнер убивается и все эти уже ненужные данные исчезают.

Admin
ERROR: S client not available

Vadim
29.06.2018
14:09:24
правда, глупый гитлаб раннер не умеет "дать только CAP_SYS_ADMIN", приходится тоже делать privileged

да и маунтить /var/lib/containers лишнее - можно делать tmpfs

Ivan
29.06.2018
14:10:59
Да, интересно. спасибо!

но я оставлю куб )) мне надо его ресурсы заюзать под сборку

Владимир Калинин
29.06.2018
14:15:21
Кстати о гитлабе, тут прилетела задача. Есть сервак у хетцнера, там гитлаб стоит без контейнеров. И есть что-то в google cloud, пока не рассказали что, но там гитлаб раннер болтается и деплой сделан на поддомены по веткам. Сейчас гиталб выкатил новый автодевопс с блэкджеком и проверкой лицензий. И вот хотя под это дело что бы все переделали, но на кластере в хетце. Кто-то сталкивался? Что примерно по железу понадобится и как правильно обезопасить это дело (тот же сервак с гитлабом, дважды дох хдд и аппаратный рейд грохал второй)?

Ivan
29.06.2018
14:17:31
у меня по крону бэкап гитлаба его средствами каждую ночь и scp архива на другой сервак ))

Владимир Калинин
29.06.2018
14:18:48
ну так и спасали omnibus версию

но если все это будет в кубере крутиться может есть какоето более умное решение

Ivan
29.06.2018
14:19:16
только у меня гитлаб в контейнере крутится

Владимир Калинин
29.06.2018
14:19:57
тогда можно просто volumes и версию контейнера бэкапить?

Google
Владимир Калинин
29.06.2018
14:20:25
Меня больше беспокоит что по железу выйдет. Клиент уверен что чутьли не в два раза дешевле чем гуглоблако

но в гугле винты не падают)

Ivan
29.06.2018
14:20:51
нет, там база постгреса в контейнере вместе с гитлабом сидит

так что одними волумами не обойтись

Владимир Калинин
29.06.2018
14:21:59
А обновляешь как?

Ivan
29.06.2018
14:22:58
в композе прописываю новую версию тэга и перезапускаю

Alan
29.06.2018
14:22:59
Раз-раз прописал новый тег образа и перезапустил

Ivan
29.06.2018
14:23:17
хотя нет, папка постгреса тоже вроде монтируется

данные же не теряются после перезапуска

Alan
29.06.2018
14:23:30
Конечно монтируется

Только бэкапить ее все равно неудобно

Владимир Калинин
29.06.2018
14:24:11
поидее надо потсгрес в отдельном контейнере держать, встроенный же они могут обновить и твой волум не примет

Ivan
29.06.2018
14:24:36
нет, там всё ок. автоматом всё конвертится

Владимир Калинин
29.06.2018
14:25:04
ну тогда volumes + контейнер - необходимо и достаточно что бы восстановиться?)

Alan
29.06.2018
14:25:24
Ох уж эти хипстеры, все подряд тянут в контейнеры

Владимир Калинин
29.06.2018
14:31:23
А есть какоето готовое решение ты ему доступ к куберу а оно тебе бэкап всего что там найдет?))

Alan
29.06.2018
14:34:30
Контейнеры - это по большей части стейтлес. Если вам нужно что-то бэкапить там, то что-то вы делаете не то. Ну или вы просто извращенец)

Артамонов Игорь
29.06.2018
14:38:03
я бы сказал, что то, что работает в контейнерах - не должно иметь необходимости бекапиться

иначе вы действительно что-то делаете не правильно =))

Mikhail
29.06.2018
14:39:21
а etcd при установке через кубеадм где поднимается? )

Mikhail
29.06.2018
14:39:58
что, не бекапить тогда?

Страница 653 из 958