
Let Eat
17.01.2018
08:49:43

Maksim
17.01.2018
08:50:08
Она в OO весьма странная, реализована на их s2i коде
ну и хорошо работает только с продуктами RHEL-)
типо стака Jboss

Google

Eugene
17.01.2018
08:51:17
Как ток я придумаю себе аналог деплойментконфига идеальный я наверное поеду на кубернетес, хотя останеться проблема в интерфейса, в опеншифте он замечательный, если старшим разрабам что то надо я могу проконсультировать их по телефону как сделать, и вообще они там как то сами A/B тетирования деплойментов проводят, вот не представляю как я их в cli загонять буду

Let Eat
17.01.2018
08:53:13
ci/cd, логи, стратегии деплоя, трейсинг, мониторинг, тикеты,блочное хранилище, хранилище объектов, встроеный git, зашить все это хоть в ядро я буду рад только )

Maksim
17.01.2018
08:53:45
И оставишь DevOPS без хлеба-)

Let Eat
17.01.2018
08:58:09
Девопс существует только потому, что все в IT кроме языков программирования и баз данных в каком то рудиментарном состоянии десятилетиями
Единственное значительное достижение - Xorg.conf писать не надо больше.

Kirill
17.01.2018
09:10:58
Xorg.conf конечно в сфере девопсов...

Let Eat
17.01.2018
09:17:54
Тоже был очень важный файл. Куча статей, мануалов, обсуждений, секретных знаний, визардов по настройке, обновления между версиями. Где это все? Кому это вообще нахер нужно? Просто работает и никто и не вспоминает. Девопсы сейчас эдакие писатели Xorg.conf, нужны только потому что все в таком говнище и не работает, что нужны люди чтоб хоть что то собрать


Maksim
17.01.2018
09:20:23
Тоже был очень важный файл. Куча статей, мануалов, обсуждений, секретных знаний, визардов по настройке, обновления между версиями. Где это все? Кому это вообще нахер нужно? Просто работает и никто и не вспоминает. Девопсы сейчас эдакие писатели Xorg.conf, нужны только потому что все в таком говнище и не работает, что нужны люди чтоб хоть что то собрать
Чем ниже порог входа в систему, тем выше порог её эксплуатации.
Xorg никогда не был важным файлом, X посути нужно только для десктопов, в серверной среде X нужны только ораклу (ибо закрутили свой инсталятор на Окнах, ибо опять же пытаются сделат как можно ниже уровень вхождения)

Mike
17.01.2018
09:21:49
вроде как

Maksim
17.01.2018
09:22:06
Чем ниже уровень входение, тем больше компонент в системе, тем выше вероятность её выхода из строя. и т.д

Sergey
17.01.2018
09:22:25
чтобы пользоваться - много ума не надо

Google

Maksim
17.01.2018
09:23:20
то то многие перестанавливают винду каждые полгода)))

Mike
17.01.2018
09:25:08

Maksim
17.01.2018
09:25:14

Mike
17.01.2018
09:26:25
выхода нет ) это почти вендор лок ))

Maksim
17.01.2018
09:27:31
кстати meltdown и spectrum прекрасно показывают, не ломаесть ядра) И его сложность

Anton
17.01.2018
09:30:12
вбросил норм, ждем

Sergey
17.01.2018
09:32:58
o'rly ?
рли.
ядро в целом дает гораздо меньше сюрпризов, чем докер, например.
что не исключает багов и проблем.

Maksim
17.01.2018
09:34:09
а ядро-то здесь при чем? :)
при том что все операции на процессерое и кеше юыли отданы на откуп этому самому процессору) и его програмному окружению. собсно почему сейчас упала проиводительность? и заплатки пришли со стороны ОС?

Uncel
17.01.2018
09:34:34

Sergey
17.01.2018
09:35:17

Let Eat
17.01.2018
09:35:26

Vladimir
17.01.2018
09:35:34
процессор это черный ящик
производитель говорит "вот сюда шлете вот эту хрень, я выдам вот эту вот"

Sergey
17.01.2018
09:35:56

Vladimir
17.01.2018
09:35:58
по сути это контракт на API
или от чего там еще есть verilog описания в опенсорсе? )

Google

Sergey
17.01.2018
09:36:28
Какие интерфейсы межпроцессного взаимодействия вы знаете?
* ContentProvider
* BroadcastReceiver
* Binder/AIDL
* Spectre
* Meltdown

Vladimir
17.01.2018
09:36:57
@Leorent так вот, meltdown и spectre это нарушение контракта со стороны производителя процессора

Let Eat
17.01.2018
09:37:23
o'rly ?
Степень затрат на использование деленное на сложность решаемой задачи для ядра стремится к нулю.

Maksim
17.01.2018
09:37:31

Vladimir
17.01.2018
09:37:56
точнее так, meltdown - нарушение контакта на поведение. Spectre - undefined behavior

Maksim
17.01.2018
09:41:39
@rossmohax по твоей логики получается, что Подобного монструзного монстра должен создавать некий вендор, и вслучае поломки он быдет выезжать и чинить. А взаимодействий во всём этом будет весьма много. В принцепе это как в текущем автопроме, загорелся check, значит езжай в автосервис. МОжет быть сами девопсы, как автомеханики передут в ведоров, да только сами по себе они не исчезнуть) Чуток мутирую и видоизменятся

Let Eat
17.01.2018
09:47:40

Maksim
17.01.2018
09:47:55
А она есть?

Дмитрий
17.01.2018
11:46:52
Да ладно вам, так то и разработчики нужны как костыль пока ИИ не начнут код писать весь

Let Eat
17.01.2018
12:17:49

Pasha
17.01.2018
12:46:43
@DenisIzmaylov чего тема с митапами затихла?

Дмитрий
17.01.2018
13:09:08

Denis
17.01.2018
13:12:42

Dmitry
17.01.2018
13:17:18
@DenisIzmaylov а предыдущие доклады где искать?)

Denis
17.01.2018
13:19:06
https://www.youtube.com/watch?v=PpQ_kMn5Cps&list=PLknJ4Vr6efQFQ1FetJa-fjSJs6iIV5gb7

Dmitry
17.01.2018
13:21:57
Благодарю.

Denis
17.01.2018
13:33:10
Готовы принять участие в качестве докладчика в следующем Moscow Kubernetes Meetup? Подавайте заявки и как только соберется два-три доклада, мы сразу назовем дату следующего митапа! Заполняйте форму: https://goo.gl/forms/aogS5haqT4YXaERF3
сс @please_rtfm @StalkerNOVA @spoul

Pasha
17.01.2018
13:36:27
Класс

Google

Arslanbekov
17.01.2018
13:46:59
Всем привет, кто-нибудь оценивает SLA кластера?
Какие параметры берете в расчет?

Линник
17.01.2018
15:27:21
Всем привет!
Столкнулся с проблемой на Centos7:
При запуске kubeadm init —pod-network-cidr=10.244.0.0/16
получаю ошибку в jounalctl:
Unable to update cni config: No networks found in /etc/cni/net.d
Подскажите пожалуйста, в чем может быть дело, куда смотреть

Paul
17.01.2018
15:31:36

Линник
17.01.2018
15:33:02
Да, только в доке сеть для подов создается после инита, а в моем случае он не отрабатывает

Paul
17.01.2018
15:33:45
вам pod-network придется указывать при apply-е сети, так как сеть вы создаете контейнерами

Igor
17.01.2018
15:35:50
kubernetes-cni стоит?

Admin
ERROR: S client not available

Линник
17.01.2018
15:37:34
Пакет kubernetes-cni-0.6.0-0.x86_64 уже установлен, и это последняя версия.
а apply я не смогу выполнить, пока init не отработает, если я все верно понимаю

Paul
17.01.2018
15:41:05
попробуйте init без " —pod-network-cidr", а поменять его уже при apply

Линник
17.01.2018
15:42:21
да, так и пробовал в самом начале - тот же результат

Igor
17.01.2018
15:43:15
removing the$KUBELET_NETWORK_ARGS in /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
Попробуй это

Линник
17.01.2018
15:44:18
Да, это тоже нагуглил, что странно результат не изменился. Я решил что дефолтные настройки такие же. daemon-reload делал

Igor
17.01.2018
15:44:27
Кубелет на что нить ругается?

Линник
17.01.2018
15:46:04
При перезапуске вот на это: Unable to update cni config: No networks found in /etc/cni/net.d
При запуске init в журнале много ругани, что никто достучатся не может, ну потому что сети нет

Maksim
17.01.2018
15:47:24
в кубеадм кублет контейнерезирован?

Igor
17.01.2018
15:48:10

Google

Maksim
17.01.2018
15:48:19
а кто мишит cni там?
flannel?
он контейнеризирован?

Igor
17.01.2018
15:48:40

Maksim
17.01.2018
15:48:42
короче проблема в том что кубелт не находит ничего в папке /etc/cni/net.d/

Igor
17.01.2018
15:48:50

Maksim
17.01.2018
15:49:13
Смотрите его права и маунт папки /etc/cni/net.d/

Линник
17.01.2018
15:49:32
да, в папке действительно пусто, я решил что init должен что-то создавать там, но там ничего, однако reset чистит эту папку

Igor
17.01.2018
15:50:38
Он создаёт там файлик при init

Maksim
17.01.2018
15:51:01
туда flannel должен писать...ну и ещё парочка файликов туда должна падать


Линник
17.01.2018
15:51:49
# systemctl status kubelet
● kubelet.service - kubelet: The Kubernetes Node Agent
Loaded: loaded (/etc/systemd/system/kubelet.service; enabled; vendor preset: disabled)
Drop-In: /etc/systemd/system/kubelet.service.d
└─10-kubeadm.conf
Active: active (running) since Ср 2018-01-17 18:47:10 MSK; 2min 35s ago
Docs: http://kubernetes.io/docs/
Main PID: 8509 (kubelet)
Memory: 39.8M
CGroup: /system.slice/kubelet.service
└─8509 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --pod-ma...
янв 17 18:49:34 domain.ru kubelet[8509]: I0117 18:49:34.580087 8509 kuberuntime_manager.go:514] Container...vFrom
янв 17 18:49:34 domain.ru kubelet[8509]: I0117 18:49:34.580215 8509 kuberuntime_manager.go:758] checking ...11c)"
янв 17 18:49:34 domain.ru kubelet[8509]: I0117 18:49:34.580341 8509 kuberuntime_manager.go:768] Back-off ...111c)
янв 17 18:49:34 domain.ru kubelet[8509]: E0117 18:49:34.580383 8509 pod_workers.go:186] Error syncing pod 4088...
янв 17 18:49:36 domain.ru kubelet[8509]: W0117 18:49:36.685555 8509 cni.go:171] Unable to update cni conf...net.d
янв 17 18:49:36 domain.ru kubelet[8509]: E0117 18:49:36.685723 8509 kubelet.go:2105] Container runtime ne...lized
янв 17 18:49:37 domain.ru kubelet[8509]: I0117 18:49:37.740409 8509 kubelet_node_status.go:273] Setting n...etach
янв 17 18:49:41 domain.ru kubelet[8509]: E0117 18:49:41.649068 8509 eviction_manager.go:238] eviction man...found
янв 17 18:49:41 domain.ru kubelet[8509]: W0117 18:49:41.686895 8509 cni.go:171] Unable to update cni conf...net.d
янв 17 18:49:41 domain.ru kubelet[8509]: E0117 18:49:41.687035 8509 kubelet.go:2105] Container runtime ne...lized
Hint: Some lines were ellipsized, use -l to show in full.
[root@kube kubelet.service.d]# systemctl status kubelet -l
● kubelet.service - kubelet: The Kubernetes Node Agent
Loaded: loaded (/etc/systemd/system/kubelet.service; enabled; vendor preset: disabled)
Drop-In: /etc/systemd/system/kubelet.service.d
└─10-kubeadm.conf
Active: active (running) since Ср 2018-01-17 18:47:10 MSK; 2min 41s ago
Docs: http://kubernetes.io/docs/
Main PID: 8509 (kubelet)
Memory: 39.8M
CGroup: /system.slice/kubelet.service
└─8509 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --pod-manifest-path=/etc/kubernetes/manifests --allow-privileged=true --cluster-dns=10.96.0.10 --cluster-domain=cluster.local --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin --authorization-mode=Webhook --client-ca-file=/etc/kubernetes/pki/ca.crt --cadvisor-port=0 --cgroup-driver=cgroupfs --rotate-certificates=true --cert-dir=/var/lib/kubelet/pki
янв 17 18:49:46 domain.ru kubelet[8509]: W0117 18:49:46.688486 8509 cni.go:171] Unable to update cni config: No networks found in /etc/cni/net.d
янв 17 18:49:46 domain.ru kubelet[8509]: E0117 18:49:46.688657 8509 kubelet.go:2105] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.386917 8509 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.692960 8509 kuberuntime_manager.go:514] Container {Name:etcd Image:gcr.io/google_containers/etcd-amd64:3.1.10 Command:[etcd --listen-client-urls=http://127.0.0.1:2379 --advertise-client-urls=http://127.0.0.1:2379 --data-dir=/var/lib/etcd] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[] Resources:{Limits:map[] Requests:map[]} VolumeMounts:[{Name:etcd ReadOnly:false MountPath:/var/lib/etcd SubPath: MountPropagation:<nil>}] VolumeDevices:[] LivenessProbe:&Probe{Handler:Handler{Exec:nil,HTTPGet:&HTTPGetAction{Path:/health,Port:2379,Host:127.0.0.1,Scheme:HTTP,HTTPHeaders:[],},TCPSocket:nil,},InitialDelaySeconds:15,TimeoutSeconds:15,PeriodSeconds:10,SuccessThreshold:1,FailureThreshold:8,} ReadinessProbe:nil Lifecycle:nil TerminationMessagePath:/dev/termination-log TerminationMessagePolicy:File ImagePullPolicy:IfNotPresent SecurityContext:nil Stdin:false StdinOnce:false TTY:false} is dead, but RestartPolicy says that we should restart it.
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.693117 8509 kuberuntime_manager.go:758] checking backoff for container "etcd" in pod "etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.693245 8509 kuberuntime_manager.go:768] Back-off 1m20s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)
янв 17 18:49:48 domain.ru kubelet[8509]: E0117 18:49:48.693277 8509 pod_workers.go:186] Error syncing pod 408851a572c13f8177557fdb9151111c ("etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"), skipping: failed to "StartContainer" for "etcd" with CrashLoopBackOff: "Back-off 1m20s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
янв 17 18:49:51 domain.ru kubelet[8509]: E0117 18:49:51.649318 8509 eviction_manager.go:238] eviction manager: unexpected err: failed to get node info: node "domain.ru" not found
янв 17 18:49:51 domain.ru kubelet[8509]: W0117 18:49:51.689863 8509 cni.go:171] Unable to update cni config: No networks found in /etc/cni/net.d
янв 17 18:49:51 domain.ru kubelet[8509]: E0117 18:49:51.689998 8509 kubelet.go:2105] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
фланнела еще нет, тк. apply сделать не могу
С правами на папку тоже все ок, запускаю из под рута kubeadm


Igor
17.01.2018
15:53:31
Отключили cni в конфиге kubelet
Он может без него вроде


Линник
17.01.2018
15:54:28
Пробовал, но сейчас еще раз попробую
# tail -n 30 /var/log/messages
Jan 17 19:04:13 kube dockerd: time="2018-01-17T19:04:13.815696693+03:00" level=warning msg="unknown container" container=9f9a4b0b545ac96c261aa768e5f4f2c953a3ed6dc2e4751e5d1de2f4b9a86158 module=libcontainerd namespace=plugins.moby
Jan 17 19:04:14 kube kubelet: I0117 19:04:14.894501 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:14 kube kubelet: I0117 19:04:14.894578 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:14 kube kubelet: I0117 19:04:14.909903 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199515 12405 kuberuntime_manager.go:514] Container {Name:etcd Image:gcr.io/google_containers/etcd-amd64:3.1.10 Command:[etcd --listen-client-urls=http://127.0.0.1:2379 --advertise-client-urls=http://127.0.0.1:2379 --data-dir=/var/lib/etcd] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[] Resources:{Limits:map[] Requests:map[]} VolumeMounts:[{Name:etcd ReadOnly:false MountPath:/var/lib/etcd SubPath: MountPropagation:<nil>}] VolumeDevices:[] LivenessProbe:&Probe{Handler:Handler{Exec:nil,HTTPGet:&HTTPGetAction{Path:/health,Port:2379,Host:127.0.0.1,Scheme:HTTP,HTTPHeaders:[],},TCPSocket:nil,},InitialDelaySeconds:15,TimeoutSeconds:15,PeriodSeconds:10,SuccessThreshold:1,FailureThreshold:8,} ReadinessProbe:nil Lifecycle:nil TerminationMessagePath:/dev/termination-log TerminationMessagePolicy:File ImagePullPolicy:IfNotPresent SecurityContext:nil Stdin:false StdinOnce:false TTY:false} is dead, but RestartPolicy says that we should restart it.
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199667 12405 kuberuntime_manager.go:758] checking backoff for container "etcd" in pod "etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199924 12405 kuberuntime_manager.go:768] Back-off 2m40s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)
Jan 17 19:04:15 kube kubelet: E0117 19:04:15.199991 12405 pod_workers.go:186] Error syncing pod 408851a572c13f8177557fdb9151111c ("etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"), skipping: failed to "StartContainer" for "etcd" with CrashLoopBackOff: "Back-off 2m40s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.408151 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.413814 12405 kubelet_node_status.go:82] Attempting to register node domain.ru
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.920588 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
В общем ничего не поменялось без настроек cni в конфиге kubelet
ошибка с cni одна при запуске kubeadm init, а это фрагмент повторяющегося лога