@kubernetes_ru

Страница 387 из 958
Let Eat
17.01.2018
08:49:43
Ну а регистри и ci/cd pipe line не задача оркестрации
Может быть ии так. Но вот иметь монстра который умеет все и всех я б хотел

Maksim
17.01.2018
08:50:08
Она в OO весьма странная, реализована на их s2i коде

ну и хорошо работает только с продуктами RHEL-)

типо стака Jboss

Google
Eugene
17.01.2018
08:51:17
Как ток я придумаю себе аналог деплойментконфига идеальный я наверное поеду на кубернетес, хотя останеться проблема в интерфейса, в опеншифте он замечательный, если старшим разрабам что то надо я могу проконсультировать их по телефону как сделать, и вообще они там как то сами A/B тетирования деплойментов проводят, вот не представляю как я их в cli загонять буду

Let Eat
17.01.2018
08:53:13
ci/cd, логи, стратегии деплоя, трейсинг, мониторинг, тикеты,блочное хранилище, хранилище объектов, встроеный git, зашить все это хоть в ядро я буду рад только )

Maksim
17.01.2018
08:53:45
И оставишь DevOPS без хлеба-)

Let Eat
17.01.2018
08:58:09
Девопс существует только потому, что все в IT кроме языков программирования и баз данных в каком то рудиментарном состоянии десятилетиями

Единственное значительное достижение - Xorg.conf писать не надо больше.

Kirill
17.01.2018
09:10:58
Xorg.conf конечно в сфере девопсов...

Let Eat
17.01.2018
09:17:54
Тоже был очень важный файл. Куча статей, мануалов, обсуждений, секретных знаний, визардов по настройке, обновления между версиями. Где это все? Кому это вообще нахер нужно? Просто работает и никто и не вспоминает. Девопсы сейчас эдакие писатели Xorg.conf, нужны только потому что все в таком говнище и не работает, что нужны люди чтоб хоть что то собрать

Maksim
17.01.2018
09:20:23
Тоже был очень важный файл. Куча статей, мануалов, обсуждений, секретных знаний, визардов по настройке, обновления между версиями. Где это все? Кому это вообще нахер нужно? Просто работает и никто и не вспоминает. Девопсы сейчас эдакие писатели Xorg.conf, нужны только потому что все в таком говнище и не работает, что нужны люди чтоб хоть что то собрать
Чем ниже порог входа в систему, тем выше порог её эксплуатации. Xorg никогда не был важным файлом, X посути нужно только для десктопов, в серверной среде X нужны только ораклу (ибо закрутили свой инсталятор на Окнах, ибо опять же пытаются сделат как можно ниже уровень вхождения)

Mike
17.01.2018
09:21:49
вроде как

Maksim
17.01.2018
09:22:06
Чем ниже уровень входение, тем больше компонент в системе, тем выше вероятность её выхода из строя. и т.д

Sergey
17.01.2018
09:22:25
чтобы пользоваться - много ума не надо

Google
Maksim
17.01.2018
09:23:20
то то многие перестанавливают винду каждые полгода)))

Mike
17.01.2018
09:25:08
ядро большое, сложное, 100500 компонентов, почти не ломается.
за почти не ломается стоят тысячи человеко/часов если не лет, мало какой опенсурс может таким похвастаться

Mike
17.01.2018
09:26:25
выхода нет ) это почти вендор лок ))

Maksim
17.01.2018
09:27:31
кстати meltdown и spectrum прекрасно показывают, не ломаесть ядра) И его сложность

Anton
17.01.2018
09:30:12
вбросил норм, ждем

Sergey
17.01.2018
09:32:58
o'rly ?
рли. ядро в целом дает гораздо меньше сюрпризов, чем докер, например. что не исключает багов и проблем.

Maksim
17.01.2018
09:34:09
а ядро-то здесь при чем? :)
при том что все операции на процессерое и кеше юыли отданы на откуп этому самому процессору) и его програмному окружению. собсно почему сейчас упала проиводительность? и заплатки пришли со стороны ОС?

Sergey
17.01.2018
09:35:17
Софт дешевле железа, всегда
пойди это малому-среднему бизнесу объясни :)

Let Eat
17.01.2018
09:35:26
Чем ниже порог входа в систему, тем выше порог её эксплуатации. Xorg никогда не был важным файлом, X посути нужно только для десктопов, в серверной среде X нужны только ораклу (ибо закрутили свой инсталятор на Окнах, ибо опять же пытаются сделат как можно ниже уровень вхождения)
Смотрите шире. Есть какая то среда, люди возятся, что-то делают. Вот в десктопах прям ну почти в центре был Xorg.conf, а в серверной среде сейчас - девопс. Степень ненужности и абсурдности вложения хоть сколько-нибудь значительного времени одинакова.

Sergey
17.01.2018
09:35:56
Vladimir
17.01.2018
09:35:58
по сути это контракт на API

уже нет
RISC-V? :)

или от чего там еще есть verilog описания в опенсорсе? )

Google
Sergey
17.01.2018
09:36:28
Какие интерфейсы межпроцессного взаимодействия вы знаете? * ContentProvider * BroadcastReceiver * Binder/AIDL * Spectre * Meltdown

или от чего там еще есть verilog описания в опенсорсе? )
нене, я про то что процессоры нынче проходной двор :D

Vladimir
17.01.2018
09:36:57
@Leorent так вот, meltdown и spectre это нарушение контракта со стороны производителя процессора

Let Eat
17.01.2018
09:37:23
o'rly ?
Степень затрат на использование деленное на сложность решаемой задачи для ядра стремится к нулю.

Maksim
17.01.2018
09:37:31
Смотрите шире. Есть какая то среда, люди возятся, что-то делают. Вот в десктопах прям ну почти в центре был Xorg.conf, а в серверной среде сейчас - девопс. Степень ненужности и абсурдности вложения хоть сколько-нибудь значительного времени одинакова.
Не согласен. DevOps, это об объединение серверной среды и её выводе на конечного потребителя, при том такого вывода, что бы от клиента и разработчика была скрыта вся инфраструктура

Vladimir
17.01.2018
09:37:56
точнее так, meltdown - нарушение контакта на поведение. Spectre - undefined behavior

Maksim
17.01.2018
09:41:39
@rossmohax по твоей логики получается, что Подобного монструзного монстра должен создавать некий вендор, и вслучае поломки он быдет выезжать и чинить. А взаимодействий во всём этом будет весьма много. В принцепе это как в текущем автопроме, загорелся check, значит езжай в автосервис. МОжет быть сами девопсы, как автомеханики передут в ведоров, да только сами по себе они не исчезнуть) Чуток мутирую и видоизменятся

Maksim
17.01.2018
09:47:55
А она есть?

Дмитрий
17.01.2018
11:46:52
Да ладно вам, так то и разработчики нужны как костыль пока ИИ не начнут код писать весь

Let Eat
17.01.2018
12:17:49
Да ладно вам, так то и разработчики нужны как костыль пока ИИ не начнут код писать весь
Да, но ИИ пока даже в академических теориях непонятно как осилить, в девопс все кирпичики известны, просто слеплены из говна

Pasha
17.01.2018
12:46:43
@DenisIzmaylov чего тема с митапами затихла?

Denis
17.01.2018
13:12:42
Dmitry
17.01.2018
13:17:18
@DenisIzmaylov а предыдущие доклады где искать?)

Denis
17.01.2018
13:19:06
https://www.youtube.com/watch?v=PpQ_kMn5Cps&list=PLknJ4Vr6efQFQ1FetJa-fjSJs6iIV5gb7

Dmitry
17.01.2018
13:21:57
Благодарю.

Denis
17.01.2018
13:33:10
Готовы принять участие в качестве докладчика в следующем Moscow Kubernetes Meetup? Подавайте заявки и как только соберется два-три доклада, мы сразу назовем дату следующего митапа! Заполняйте форму: https://goo.gl/forms/aogS5haqT4YXaERF3

сс @please_rtfm @StalkerNOVA @spoul

Pasha
17.01.2018
13:36:27
Класс

Google
Arslanbekov
17.01.2018
13:46:59
Всем привет, кто-нибудь оценивает SLA кластера? Какие параметры берете в расчет?

Линник
17.01.2018
15:27:21
Всем привет! Столкнулся с проблемой на Centos7: При запуске kubeadm init —pod-network-cidr=10.244.0.0/16 получаю ошибку в jounalctl: Unable to update cni config: No networks found in /etc/cni/net.d

Подскажите пожалуйста, в чем может быть дело, куда смотреть

Линник
17.01.2018
15:33:02
Да, только в доке сеть для подов создается после инита, а в моем случае он не отрабатывает

Paul
17.01.2018
15:33:45
вам pod-network придется указывать при apply-е сети, так как сеть вы создаете контейнерами

Igor
17.01.2018
15:35:50
kubernetes-cni стоит?

Admin
ERROR: S client not available

Линник
17.01.2018
15:37:34
Пакет kubernetes-cni-0.6.0-0.x86_64 уже установлен, и это последняя версия.

а apply я не смогу выполнить, пока init не отработает, если я все верно понимаю

Paul
17.01.2018
15:41:05
попробуйте init без " —pod-network-cidr", а поменять его уже при apply

Линник
17.01.2018
15:42:21
да, так и пробовал в самом начале - тот же результат

Igor
17.01.2018
15:43:15
removing the$KUBELET_NETWORK_ARGS in /etc/systemd/system/kubelet.service.d/10-kubeadm.conf

Попробуй это

Линник
17.01.2018
15:44:18
Да, это тоже нагуглил, что странно результат не изменился. Я решил что дефолтные настройки такие же. daemon-reload делал

Igor
17.01.2018
15:44:27
Кубелет на что нить ругается?

Линник
17.01.2018
15:46:04
При перезапуске вот на это: Unable to update cni config: No networks found in /etc/cni/net.d

При запуске init в журнале много ругани, что никто достучатся не может, ну потому что сети нет

Maksim
17.01.2018
15:47:24
в кубеадм кублет контейнерезирован?

Google
Maksim
17.01.2018
15:48:19
а кто мишит cni там?

flannel?

он контейнеризирован?

Maksim
17.01.2018
15:48:42
короче проблема в том что кубелт не находит ничего в папке /etc/cni/net.d/

Igor
17.01.2018
15:48:50
Maksim
17.01.2018
15:49:13
Смотрите его права и маунт папки /etc/cni/net.d/

Линник
17.01.2018
15:49:32
да, в папке действительно пусто, я решил что init должен что-то создавать там, но там ничего, однако reset чистит эту папку

Igor
17.01.2018
15:50:38
Он создаёт там файлик при init

Maksim
17.01.2018
15:51:01
туда flannel должен писать...ну и ещё парочка файликов туда должна падать

Линник
17.01.2018
15:51:49
# systemctl status kubelet ● kubelet.service - kubelet: The Kubernetes Node Agent Loaded: loaded (/etc/systemd/system/kubelet.service; enabled; vendor preset: disabled) Drop-In: /etc/systemd/system/kubelet.service.d └─10-kubeadm.conf Active: active (running) since Ср 2018-01-17 18:47:10 MSK; 2min 35s ago Docs: http://kubernetes.io/docs/ Main PID: 8509 (kubelet) Memory: 39.8M CGroup: /system.slice/kubelet.service └─8509 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --pod-ma... янв 17 18:49:34 domain.ru kubelet[8509]: I0117 18:49:34.580087 8509 kuberuntime_manager.go:514] Container...vFrom янв 17 18:49:34 domain.ru kubelet[8509]: I0117 18:49:34.580215 8509 kuberuntime_manager.go:758] checking ...11c)" янв 17 18:49:34 domain.ru kubelet[8509]: I0117 18:49:34.580341 8509 kuberuntime_manager.go:768] Back-off ...111c) янв 17 18:49:34 domain.ru kubelet[8509]: E0117 18:49:34.580383 8509 pod_workers.go:186] Error syncing pod 4088... янв 17 18:49:36 domain.ru kubelet[8509]: W0117 18:49:36.685555 8509 cni.go:171] Unable to update cni conf...net.d янв 17 18:49:36 domain.ru kubelet[8509]: E0117 18:49:36.685723 8509 kubelet.go:2105] Container runtime ne...lized янв 17 18:49:37 domain.ru kubelet[8509]: I0117 18:49:37.740409 8509 kubelet_node_status.go:273] Setting n...etach янв 17 18:49:41 domain.ru kubelet[8509]: E0117 18:49:41.649068 8509 eviction_manager.go:238] eviction man...found янв 17 18:49:41 domain.ru kubelet[8509]: W0117 18:49:41.686895 8509 cni.go:171] Unable to update cni conf...net.d янв 17 18:49:41 domain.ru kubelet[8509]: E0117 18:49:41.687035 8509 kubelet.go:2105] Container runtime ne...lized Hint: Some lines were ellipsized, use -l to show in full. [root@kube kubelet.service.d]# systemctl status kubelet -l ● kubelet.service - kubelet: The Kubernetes Node Agent Loaded: loaded (/etc/systemd/system/kubelet.service; enabled; vendor preset: disabled) Drop-In: /etc/systemd/system/kubelet.service.d └─10-kubeadm.conf Active: active (running) since Ср 2018-01-17 18:47:10 MSK; 2min 41s ago Docs: http://kubernetes.io/docs/ Main PID: 8509 (kubelet) Memory: 39.8M CGroup: /system.slice/kubelet.service └─8509 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --pod-manifest-path=/etc/kubernetes/manifests --allow-privileged=true --cluster-dns=10.96.0.10 --cluster-domain=cluster.local --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin --authorization-mode=Webhook --client-ca-file=/etc/kubernetes/pki/ca.crt --cadvisor-port=0 --cgroup-driver=cgroupfs --rotate-certificates=true --cert-dir=/var/lib/kubelet/pki

янв 17 18:49:46 domain.ru kubelet[8509]: W0117 18:49:46.688486 8509 cni.go:171] Unable to update cni config: No networks found in /etc/cni/net.d янв 17 18:49:46 domain.ru kubelet[8509]: E0117 18:49:46.688657 8509 kubelet.go:2105] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.386917 8509 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.692960 8509 kuberuntime_manager.go:514] Container {Name:etcd Image:gcr.io/google_containers/etcd-amd64:3.1.10 Command:[etcd --listen-client-urls=http://127.0.0.1:2379 --advertise-client-urls=http://127.0.0.1:2379 --data-dir=/var/lib/etcd] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[] Resources:{Limits:map[] Requests:map[]} VolumeMounts:[{Name:etcd ReadOnly:false MountPath:/var/lib/etcd SubPath: MountPropagation:<nil>}] VolumeDevices:[] LivenessProbe:&Probe{Handler:Handler{Exec:nil,HTTPGet:&HTTPGetAction{Path:/health,Port:2379,Host:127.0.0.1,Scheme:HTTP,HTTPHeaders:[],},TCPSocket:nil,},InitialDelaySeconds:15,TimeoutSeconds:15,PeriodSeconds:10,SuccessThreshold:1,FailureThreshold:8,} ReadinessProbe:nil Lifecycle:nil TerminationMessagePath:/dev/termination-log TerminationMessagePolicy:File ImagePullPolicy:IfNotPresent SecurityContext:nil Stdin:false StdinOnce:false TTY:false} is dead, but RestartPolicy says that we should restart it. янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.693117 8509 kuberuntime_manager.go:758] checking backoff for container "etcd" in pod "etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)" янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.693245 8509 kuberuntime_manager.go:768] Back-off 1m20s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c) янв 17 18:49:48 domain.ru kubelet[8509]: E0117 18:49:48.693277 8509 pod_workers.go:186] Error syncing pod 408851a572c13f8177557fdb9151111c ("etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"), skipping: failed to "StartContainer" for "etcd" with CrashLoopBackOff: "Back-off 1m20s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)" янв 17 18:49:51 domain.ru kubelet[8509]: E0117 18:49:51.649318 8509 eviction_manager.go:238] eviction manager: unexpected err: failed to get node info: node "domain.ru" not found янв 17 18:49:51 domain.ru kubelet[8509]: W0117 18:49:51.689863 8509 cni.go:171] Unable to update cni config: No networks found in /etc/cni/net.d янв 17 18:49:51 domain.ru kubelet[8509]: E0117 18:49:51.689998 8509 kubelet.go:2105] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

фланнела еще нет, тк. apply сделать не могу

С правами на папку тоже все ок, запускаю из под рута kubeadm

Igor
17.01.2018
15:53:31
Отключили cni в конфиге kubelet

Он может без него вроде

Линник
17.01.2018
15:54:28
Пробовал, но сейчас еще раз попробую

# tail -n 30 /var/log/messages Jan 17 19:04:13 kube dockerd: time="2018-01-17T19:04:13.815696693+03:00" level=warning msg="unknown container" container=9f9a4b0b545ac96c261aa768e5f4f2c953a3ed6dc2e4751e5d1de2f4b9a86158 module=libcontainerd namespace=plugins.moby Jan 17 19:04:14 kube kubelet: I0117 19:04:14.894501 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach Jan 17 19:04:14 kube kubelet: I0117 19:04:14.894578 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach Jan 17 19:04:14 kube kubelet: I0117 19:04:14.909903 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199515 12405 kuberuntime_manager.go:514] Container {Name:etcd Image:gcr.io/google_containers/etcd-amd64:3.1.10 Command:[etcd --listen-client-urls=http://127.0.0.1:2379 --advertise-client-urls=http://127.0.0.1:2379 --data-dir=/var/lib/etcd] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[] Resources:{Limits:map[] Requests:map[]} VolumeMounts:[{Name:etcd ReadOnly:false MountPath:/var/lib/etcd SubPath: MountPropagation:<nil>}] VolumeDevices:[] LivenessProbe:&Probe{Handler:Handler{Exec:nil,HTTPGet:&HTTPGetAction{Path:/health,Port:2379,Host:127.0.0.1,Scheme:HTTP,HTTPHeaders:[],},TCPSocket:nil,},InitialDelaySeconds:15,TimeoutSeconds:15,PeriodSeconds:10,SuccessThreshold:1,FailureThreshold:8,} ReadinessProbe:nil Lifecycle:nil TerminationMessagePath:/dev/termination-log TerminationMessagePolicy:File ImagePullPolicy:IfNotPresent SecurityContext:nil Stdin:false StdinOnce:false TTY:false} is dead, but RestartPolicy says that we should restart it. Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199667 12405 kuberuntime_manager.go:758] checking backoff for container "etcd" in pod "etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)" Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199924 12405 kuberuntime_manager.go:768] Back-off 2m40s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c) Jan 17 19:04:15 kube kubelet: E0117 19:04:15.199991 12405 pod_workers.go:186] Error syncing pod 408851a572c13f8177557fdb9151111c ("etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"), skipping: failed to "StartContainer" for "etcd" with CrashLoopBackOff: "Back-off 2m40s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)" Jan 17 19:04:15 kube kubelet: I0117 19:04:15.408151 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach Jan 17 19:04:15 kube kubelet: I0117 19:04:15.413814 12405 kubelet_node_status.go:82] Attempting to register node domain.ru Jan 17 19:04:15 kube kubelet: I0117 19:04:15.920588 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach

В общем ничего не поменялось без настроек cni в конфиге kubelet

ошибка с cni одна при запуске kubeadm init, а это фрагмент повторяющегося лога

Страница 387 из 958