
Алексей
29.06.2018
13:02:15

Михаил
29.06.2018
13:02:17

Алексей
29.06.2018
13:03:36

Google

Михаил
29.06.2018
13:05:53
вообще я ожидал, что с такой формой подачи меня закидают контр аргументами)

Andor
29.06.2018
13:06:42
А про что был доклад?

Andrey
29.06.2018
13:07:09
"Надменность в российском Kubernetes сообществе"

Vadim
29.06.2018
13:07:10
можно ссылку?

Mikhail
29.06.2018
13:07:13
без кубеадм

Михаил
29.06.2018
13:07:26

Andor
29.06.2018
13:07:28
Спреем?

Sergey
29.06.2018
13:07:31

Михаил
29.06.2018
13:07:36

Andrey
29.06.2018
13:07:45

Михаил
29.06.2018
13:08:06
А про что был доклад?
чуть чуть про то какой говно все эти инсталяторы
чуть чуть про то, что L3 сети рулят
чуть чуть про то, что свои плейбуки ближе к телу и это не дорого
чуть чуть про нахера baremetal

Mikhail
29.06.2018
13:08:13

Google

Михаил
29.06.2018
13:09:09

Vadim
29.06.2018
13:09:38
окей, спасибо

Stanislav
29.06.2018
13:09:45

Dmitry
29.06.2018
13:11:15
В 1.10 деплой HA мастеров через kubeadm это как половинка kubernetes the hard way правда

Vadim
29.06.2018
13:11:16

Vadim
29.06.2018
13:11:37
ну как будет запись
Могу дать ссылку на запись доклада Чистякова по Куберу (как лучше управлять его конфигурацией, и почему это не надо делать), кстати, только там почти нет тех деталей.
Есть также запись ведущего нашего вебинара (и оффлайн курса), только не по куберу.

Михаил
29.06.2018
13:11:58

Serg
29.06.2018
13:13:06

Михаил
29.06.2018
13:15:16

Vadim
29.06.2018
13:16:07

Михаил
29.06.2018
13:16:32

Andor
29.06.2018
13:18:33

Михаил
29.06.2018
13:20:33

Vadim
29.06.2018
13:21:07
о, заценим
Чистяков: https://youtu.be/C-RrYip_UDU?t=22
А Селиванова пока не залили, позже.

Rostyslav
29.06.2018
13:32:18
всем привет. есть вопрос какой параметр в деплоймент ямле задает поду имя в сети кластера???

Mikhail
29.06.2018
13:33:06

Caffeine
29.06.2018
13:34:41
Оу, это контейнеру, сорян
Поду человеческое имя ты дашь только если без деплоймента его создаешь

Rostyslav
29.06.2018
13:35:51
тогда обясни откуда он берет имя когда я заходжу в под и там пробую nslookup и мне возвращается ип по имени но ето лейдл или что

Google

Caffeine
29.06.2018
13:35:51
Ну или в стейфул сете

Pavel
29.06.2018
13:36:25
Notice that the name of the ReplicaSet is always formatted as [DEPLOYMENT-NAME]-[POD-TEMPLATE-HASH-VALUE]. The hash value is automatically generated when the Deployment is created.

Rostyslav
29.06.2018
13:36:53
хм что то не понимаю к чемук ето

Caffeine
29.06.2018
13:37:12

Ivan
29.06.2018
13:37:14

Mikhail
29.06.2018
13:37:35

Vadim
29.06.2018
13:37:41

Rostyslav
29.06.2018
13:37:59
интересует откуда он берет имя для днс

Mikhail
29.06.2018
13:38:42
интересует откуда он берет имя для днс
ну вот же Notice that the name of the ReplicaSet is always formatted as [DEPLOYMENT-NAME]-[POD-TEMPLATE-HASH-VALUE]. The hash value is automatically generated when the Deployment is created.

Ivan
29.06.2018
13:39:08

Mikhail
29.06.2018
13:39:11
там примерно так же

Vadim
29.06.2018
13:39:56
не монтирую вообще
/var/lib/docker в контейнере получается тогда тоже в оверлее? Ну и ладненько

Mikhail
29.06.2018
13:40:15
kind: Deployment
metadata:
name: get-photos-from-vk-deployment
$ kubectl get pod
NAME READY STATUS RESTARTS AGE
get-photos-from-vk-deployment-55dffddb4-mwndx 5/5 Running 0 16d

Rostyslav
29.06.2018
13:41:01

Mikhail
29.06.2018
13:41:12
начните с описания задачи )

Ivan
29.06.2018
13:41:19

Артамонов Игорь
29.06.2018
13:46:51

Sergey
29.06.2018
13:47:05

Andrey
29.06.2018
13:47:11
На самом деле, концептуально-то легко это всё сделать. Вроде, CNI поддерживает.

Google

Andrey
29.06.2018
13:48:24
Только вот чем Service не походит для множества точек входа в под?

Nikolay
29.06.2018
13:48:36

Артамонов Игорь
29.06.2018
13:50:18
Не, для меня важное ограничение - внутри пода, было.
Буду разруливать на уровне приложений, значит

Andrey
29.06.2018
13:51:15

Ivan
29.06.2018
14:00:52
/var/lib/docker в контейнере получается тогда тоже в оверлее? Ну и ладненько
В итоге такой конфиг работает:
concurrent = 3
check_interval = 0
log_level = "warning"
[[runners]]
name = "Kubernetes Runner"
url = "https://gitlab.company.ru"
token = "71da107d71436d2326cd2f55573c51"
executor = "kubernetes"
pre_build_script = "/usr/local/bin/dockerd &"
[runners.kubernetes]
host = "https://10.1.29.10:6443"
cert_file = "/etc/ssl/kubernetes/apiserver.pem"
key_file = "/etc/ssl/kubernetes/apiserver-key.pem"
ca_file = "/etc/ssl/kubernetes/ca.pem"
namespace = "gitlab"
image = "docker:dind"
privileged = true
poll_interval = 3
poll_timeout = 360
[runners.kubernetes.node_selector]
master = "true"
Собственно весь секрет здесь:
pre_build_script = "/usr/local/bin/dockerd &"

Vadim
29.06.2018
14:02:17

Ivan
29.06.2018
14:05:02

Vadim
29.06.2018
14:08:38

Admin
ERROR: S client not available

Vadim
29.06.2018
14:09:24
правда, глупый гитлаб раннер не умеет "дать только CAP_SYS_ADMIN", приходится тоже делать privileged
да и маунтить /var/lib/containers лишнее - можно делать tmpfs

Ivan
29.06.2018
14:10:59
Да, интересно. спасибо!
но я оставлю куб )) мне надо его ресурсы заюзать под сборку

Владимир Калинин
29.06.2018
14:15:21
Кстати о гитлабе, тут прилетела задача. Есть сервак у хетцнера, там гитлаб стоит без контейнеров. И есть что-то в google cloud, пока не рассказали что, но там гитлаб раннер болтается и деплой сделан на поддомены по веткам. Сейчас гиталб выкатил новый автодевопс с блэкджеком и проверкой лицензий. И вот хотя под это дело что бы все переделали, но на кластере в хетце. Кто-то сталкивался? Что примерно по железу понадобится и как правильно обезопасить это дело (тот же сервак с гитлабом, дважды дох хдд и аппаратный рейд грохал второй)?

Ivan
29.06.2018
14:17:31
у меня по крону бэкап гитлаба его средствами каждую ночь и scp архива на другой сервак ))

Владимир Калинин
29.06.2018
14:18:48
ну так и спасали omnibus версию
но если все это будет в кубере крутиться может есть какоето более умное решение

Ivan
29.06.2018
14:19:16
только у меня гитлаб в контейнере крутится

Владимир Калинин
29.06.2018
14:19:57
тогда можно просто volumes и версию контейнера бэкапить?

Google

Владимир Калинин
29.06.2018
14:20:25
Меня больше беспокоит что по железу выйдет. Клиент уверен что чутьли не в два раза дешевле чем гуглоблако
но в гугле винты не падают)

Ivan
29.06.2018
14:20:51
нет, там база постгреса в контейнере вместе с гитлабом сидит
так что одними волумами не обойтись

Владимир Калинин
29.06.2018
14:21:59
А обновляешь как?

Ivan
29.06.2018
14:22:58
в композе прописываю новую версию тэга и перезапускаю

Alan
29.06.2018
14:22:59
Раз-раз прописал новый тег образа и перезапустил

Ivan
29.06.2018
14:23:17
хотя нет, папка постгреса тоже вроде монтируется
данные же не теряются после перезапуска

Alan
29.06.2018
14:23:30
Конечно монтируется
Только бэкапить ее все равно неудобно

Владимир Калинин
29.06.2018
14:24:11
поидее надо потсгрес в отдельном контейнере держать, встроенный же они могут обновить и твой волум не примет

Ivan
29.06.2018
14:24:36
нет, там всё ок.
автоматом всё конвертится

Владимир Калинин
29.06.2018
14:25:04
ну тогда volumes + контейнер - необходимо и достаточно что бы восстановиться?)

Alan
29.06.2018
14:25:24
Ох уж эти хипстеры, все подряд тянут в контейнеры

Владимир Калинин
29.06.2018
14:31:23
А есть какоето готовое решение ты ему доступ к куберу а оно тебе бэкап всего что там найдет?))

Alan
29.06.2018
14:34:30
Контейнеры - это по большей части стейтлес. Если вам нужно что-то бэкапить там, то что-то вы делаете не то. Ну или вы просто извращенец)

Артамонов Игорь
29.06.2018
14:38:03
я бы сказал, что то, что работает в контейнерах - не должно иметь необходимости бекапиться
иначе вы действительно что-то делаете не правильно =))

Mikhail
29.06.2018
14:39:21
а etcd при установке через кубеадм где поднимается? )

Andrey
29.06.2018
14:39:39

Mikhail
29.06.2018
14:39:58
что, не бекапить тогда?