Maksim
Смотрите его права и маунт папки /etc/cni/net.d/
Denis
да, в папке действительно пусто, я решил что init должен что-то создавать там, но там ничего, однако reset чистит эту папку
Igor
Он создаёт там файлик при init
Maksim
туда flannel должен писать...ну и ещё парочка файликов туда должна падать
Denis
янв 17 18:49:46 domain.ru kubelet[8509]: W0117 18:49:46.688486 8509 cni.go:171] Unable to update cni config: No networks found in /etc/cni/net.d
янв 17 18:49:46 domain.ru kubelet[8509]: E0117 18:49:46.688657 8509 kubelet.go:2105] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.386917 8509 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.692960 8509 kuberuntime_manager.go:514] Container {Name:etcd Image:gcr.io/google_containers/etcd-amd64:3.1.10 Command:[etcd --listen-client-urls=http://127.0.0.1:2379 --advertise-client-urls=http://127.0.0.1:2379 --data-dir=/var/lib/etcd] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[] Resources:{Limits:map[] Requests:map[]} VolumeMounts:[{Name:etcd ReadOnly:false MountPath:/var/lib/etcd SubPath: MountPropagation:<nil>}] VolumeDevices:[] LivenessProbe:&Probe{Handler:Handler{Exec:nil,HTTPGet:&HTTPGetAction{Path:/health,Port:2379,Host:127.0.0.1,Scheme:HTTP,HTTPHeaders:[],},TCPSocket:nil,},InitialDelaySeconds:15,TimeoutSeconds:15,PeriodSeconds:10,SuccessThreshold:1,FailureThreshold:8,} ReadinessProbe:nil Lifecycle:nil TerminationMessagePath:/dev/termination-log TerminationMessagePolicy:File ImagePullPolicy:IfNotPresent SecurityContext:nil Stdin:false StdinOnce:false TTY:false} is dead, but RestartPolicy says that we should restart it.
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.693117 8509 kuberuntime_manager.go:758] checking backoff for container "etcd" in pod "etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
янв 17 18:49:48 domain.ru kubelet[8509]: I0117 18:49:48.693245 8509 kuberuntime_manager.go:768] Back-off 1m20s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)
янв 17 18:49:48 domain.ru kubelet[8509]: E0117 18:49:48.693277 8509 pod_workers.go:186] Error syncing pod 408851a572c13f8177557fdb9151111c ("etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"), skipping: failed to "StartContainer" for "etcd" with CrashLoopBackOff: "Back-off 1m20s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
янв 17 18:49:51 domain.ru kubelet[8509]: E0117 18:49:51.649318 8509 eviction_manager.go:238] eviction manager: unexpected err: failed to get node info: node "domain.ru" not found
янв 17 18:49:51 domain.ru kubelet[8509]: W0117 18:49:51.689863 8509 cni.go:171] Unable to update cni config: No networks found in /etc/cni/net.d
янв 17 18:49:51 domain.ru kubelet[8509]: E0117 18:49:51.689998 8509 kubelet.go:2105] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Denis
фланнела еще нет, тк. apply сделать не могу
Denis
С правами на папку тоже все ок, запускаю из под рута kubeadm
Igor
Отключили cni в конфиге kubelet
Igor
Он может без него вроде
Denis
Пробовал, но сейчас еще раз попробую
Denis
# tail -n 30 /var/log/messages
Jan 17 19:04:13 kube dockerd: time="2018-01-17T19:04:13.815696693+03:00" level=warning msg="unknown container" container=9f9a4b0b545ac96c261aa768e5f4f2c953a3ed6dc2e4751e5d1de2f4b9a86158 module=libcontainerd namespace=plugins.moby
Jan 17 19:04:14 kube kubelet: I0117 19:04:14.894501 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:14 kube kubelet: I0117 19:04:14.894578 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:14 kube kubelet: I0117 19:04:14.909903 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199515 12405 kuberuntime_manager.go:514] Container {Name:etcd Image:gcr.io/google_containers/etcd-amd64:3.1.10 Command:[etcd --listen-client-urls=http://127.0.0.1:2379 --advertise-client-urls=http://127.0.0.1:2379 --data-dir=/var/lib/etcd] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[] Resources:{Limits:map[] Requests:map[]} VolumeMounts:[{Name:etcd ReadOnly:false MountPath:/var/lib/etcd SubPath: MountPropagation:<nil>}] VolumeDevices:[] LivenessProbe:&Probe{Handler:Handler{Exec:nil,HTTPGet:&HTTPGetAction{Path:/health,Port:2379,Host:127.0.0.1,Scheme:HTTP,HTTPHeaders:[],},TCPSocket:nil,},InitialDelaySeconds:15,TimeoutSeconds:15,PeriodSeconds:10,SuccessThreshold:1,FailureThreshold:8,} ReadinessProbe:nil Lifecycle:nil TerminationMessagePath:/dev/termination-log TerminationMessagePolicy:File ImagePullPolicy:IfNotPresent SecurityContext:nil Stdin:false StdinOnce:false TTY:false} is dead, but RestartPolicy says that we should restart it.
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199667 12405 kuberuntime_manager.go:758] checking backoff for container "etcd" in pod "etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.199924 12405 kuberuntime_manager.go:768] Back-off 2m40s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)
Jan 17 19:04:15 kube kubelet: E0117 19:04:15.199991 12405 pod_workers.go:186] Error syncing pod 408851a572c13f8177557fdb9151111c ("etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"), skipping: failed to "StartContainer" for "etcd" with CrashLoopBackOff: "Back-off 2m40s restarting failed container=etcd pod=etcd-domain.ru_kube-system(408851a572c13f8177557fdb9151111c)"
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.408151 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.413814 12405 kubelet_node_status.go:82] Attempting to register node domain.ru
Jan 17 19:04:15 kube kubelet: I0117 19:04:15.920588 12405 kubelet_node_status.go:273] Setting node annotation to enable volume controller attach/detach
Denis
В общем ничего не поменялось без настроек cni в конфиге kubelet
Denis
ошибка с cni одна при запуске kubeadm init, а это фрагмент повторяющегося лога
Anton
Denis
Kubeadm reset - что бы пробовать Kubeadm init заново
Konstantin
ничего не понимаю, создал кластер через kops, а кол-во nodes 0 of 2 уже минут 30
Konstantin
а мастер завелся
CrusaderX
AWS limits?
CrusaderX
Посмотри в asg
CrusaderX
Там же есть логи
Konstantin
окей, спасибо
Alexey
Кубаны, а какие есть хорошие и простые решения для того, чтобы шарить volumes в кубах. Мы сидим в гугл клауде и нам нужно, чтобы один контейнер/хост писал, а остальные читали. Пробовал google PD, но он не поддерживает rwmany, readmany +writeonce не дают сделать механизмы кубов. GCS бакеты не подходят из за невозможности быстро писать много файлов за один раз. Может есть ещё что-то, кроме gluster/ceph/nfs, что могло бы решить проблему?
Serega
может лучше pub\sub ?
Maksim
Самое простое NFS
Maksim
Но оно же и самое не надёжное
Anonymous
кто нибудь использует ceph с гигабитной сетью ? поделитесь впечатлениями
Maksim
я использую в другом кластере.
Maksim
Херово ему, но живет. и Ооочень медлено
Anonymous
Alexey
@gurinderu увы, мне нужно расшаривать данные, которые пишутся извне в большое кол-во контейнеров на ридонли. Схема типа writer -> shared storage <- pod reader1
\ pod readern
Anonymous
Anonymous
У тебя там именно файлы или что?
Alexey
Файлы
Kirill
Коллеги, подскажите в чем разница между сервисом который ExternalIP и LoadBalanser? уже много почитал но так и не понял.
Anton
Лоад балансер опирается на инфраструктуру хостинга, в авс создаст этот самый лоадбалансер
Anton
ну а external ip управляются админом, если трафик на кластер приходит по этим адресам, можно заставить сервис принимать трафик на этом адресе
Anton
https://kubernetes.io/docs/concepts/services-networking/service/#external-ips
тут же описано
Logan
Anonymous
Файлы
ну тут тогда нужно fs смотреть без вариантов, можешь сравнить ceph,gluster и самый крутой hdfs)
Logan
Anonymous
я лишь предлагаю сравнить, а не использовать
Anonymous
я бы скорее к себе hdfs конечно затащил
𝚔𝚟𝚊𝚙𝚜
Denis
𝚔𝚟𝚊𝚙𝚜
Denis
Да, появился файл # cat /etc/cni/net.d/10-flannel.conf
{
"name": "cbr0",
"type": "flannel",
"delegate": {
"isDefaultGateway": true
}
}
Denis
Но после того как я сделал apply)
Алексей
Denis
Да, так и должно быть, как оказалось) Но вот версия 1.9.1 на centos7 не завелась
Maksim
Mikhail [azalio]
у меня тоже все завелось, но ставлю через rpm )
Vitalii
привет!
Сталкивались с ситуацией, когда endpoint удаляется из service и не возвращается обратно? Поды при этом в состоянии Ready, selector правильный.
Пересоздание service проблему чинит.
Vitalii
похоже на это https://github.com/kubernetes/kubernetes/issues/57897
Vitalii
проблема возникает абсолютно случайно и как такое повторить непонятно.
По метрикам видно, что удаляет endpoint-controller.
Пока включил —v=2 логи на apiserver, scheduler, controller-manager
G72K
Vitalii
RE
камрады, порекомендуйте мануал по развертыванию небольшого кластера на кубернетис.
и вообще чтонить почитать для новичка.
перехожу с докер сворма на кубер, кое что не совсем понятно..
John
https://github.com/kelseyhightower/kubernetes-the-hard-way
John
https://coreos.com/tectonic/docs/latest/tutorials/kubernetes/getting-started.html
Denis
Привет! А у кого нибудь есть проблема с Docker 1.12.6 что при большом потоке логов в STDOUT отжирается дохрена памяти?
sherzod
а что он должен делать. занули потоки
Denis
У нас схема что мы пишем в STDOUT в JSON, потом fluentd все это забирает
sherzod
значит не в stdout а в пайп наверное..
sherzod
покажи команду
RE
AB 🇨🇾 🍉
От чего в кубернетисе связка nfs+pv+pvc такое нестабильная? Ставлю реплику 1-10, и часть контейнеров не может примаунтиться
AB 🇨🇾 🍉
sherzod
конфиг бы посмотреть
AB 🇨🇾 🍉
вот конфиг
https://www.evernote.com/l/ABH1gzJC9QtOv74ay461iMR40o4cWORBeto
sherzod
а успешные маунты были? похоже что проблема в nfs а не в кубере
sherzod
(но я в кубере начинающий)
AB 🇨🇾 🍉
были, там на скрине 5 успешных, 5 неуспешных
AB 🇨🇾 🍉
и при чем куб не пытается даже прибить поды, а ждет уже сутки..