Andrei
12.03.2019
21:56:16
Всем привет, создал docker-compose для FE в котором есть webpack-dev-server который при запуске пишет мне ℹ 「wds」: Project is running at http://localhost:8080/ открываю его в браузере и вижу This site can’t be reached. ports: - "8080:8080" прописан. При этом если запускаю nodejs exporess server на 3000 порту проблем нету с открытием. если без докера запускаю webpack-dev-server тоже проблем нету, что может быть не так?
Игорь
12.03.2019
22:19:57
А как в композе строка с биндом портов выглядит?
Andrei
12.03.2019
22:24:48
Вадим
12.03.2019
22:25:01
Google
Andrei
12.03.2019
22:27:43
я так понимаю открывать 0.0.0.0:8080?
Вадим
12.03.2019
22:28:14
Andrei
12.03.2019
22:29:02
не работает
Кана
13.03.2019
04:12:55
Andrey
13.03.2019
06:25:10
Всем привет, кто может подсказать по работе Kubernetes? или отдельная группа есть?
Запустили новую ноду, развернул под (коннектится к базе), но он не может хотябы постучать к хосту базы..
В кубернете есть ограничение по умолчанию на DROP исходящий из подов пакетов?
AstraSerg
13.03.2019
06:26:43
Сергей
13.03.2019
06:27:18
Так попробуй этот де под на другой ноде развернуть. Может новую криво добавил
Andrey
13.03.2019
06:29:09
Сергей
13.03.2019
06:29:58
Ну так раз на новой ноде сети нет, то в неи и проблема, не?
Сеть какая в кубе? Поды из демонсета сети на ней запустились?
Andrey
13.03.2019
06:31:15
Сергей
13.03.2019
06:31:34
Я про сеть куба на ноде
ptchol
13.03.2019
06:31:51
в iptables DROP на цепочке форвард х)
Google
Andrey
13.03.2019
06:32:18
Сергей
13.03.2019
06:32:47
Сеть на чем?
Ось какая на ноде
Andrey
13.03.2019
06:33:02
ptchol
13.03.2019
06:33:19
наоборот убрать его нада
Сергей
13.03.2019
06:33:20
Куб из кубадма или чем ставили
Andrey
13.03.2019
06:33:39
[root@kubertest home]# uname -a
Linux kubertest 3.10.0-862.el7.x86_64 #1 SMP Fri Apr 20 16:44:24 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux
ptchol
13.03.2019
06:34:06
роутинг адресов подов ходит в рамках машины, это всё бегает через forward
Andrey
13.03.2019
06:34:12
да, ставили по умолчанию yum install -y kubectl kubelet kubeadm
Сергей
13.03.2019
06:35:41
Центось ? фаерволлд стоп дисейбл. В сиксткл енейбл форвардинг, селинукс дисейбл, свап офф. Хост в ребут
Andrey
13.03.2019
06:35:55
а если iptables, файрвол отключены на самой машине, Куб всё равно тянет настройки и свой внутренний роут устраивает? или всё таки также становится неактивным?
ptchol
13.03.2019
06:36:24
iptables работает всегда.
его состояние контролируется правилами \ политиками
Сергей
13.03.2019
06:38:46
Сеть на чем в итоге сделана?
Andrey
13.03.2019
06:39:02
да, центос
Сергей
13.03.2019
07:09:03
Сеть куба на чем?
Andrey
13.03.2019
07:09:23
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
Сергей
13.03.2019
07:14:23
на ноде логи кублета/кубпрокси и логи в поде фланела на глючной ноде смотрите, чего они там грустят
нода сама вообще в каком статусе,
kubectl get nodes -o wide
Google
Andrey
13.03.2019
07:17:21
[root@kubertest ~]# kubectl get nodes -o wide
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME
kubertest Ready master 18h v1.13.4 192.168.1. <none> CentOS Linux 7 (Core) 3.10.0-862.el7.x86_64 docker://18.9.3
Сергей
13.03.2019
07:18:29
и все?
а воркеры то где потерялись или Вы все на одной машине делаете?
Andrey
13.03.2019
07:19:49
по ноде да, пока что система на 1 ноде
другой тестовый стенд с такой конфигурацией работает
Сергей
13.03.2019
07:20:30
kubectl get po --all-namespaces что показывает?
Andrey
13.03.2019
07:21:20
[root@kubertest ~]# kubectl get po --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
ingress traefik-ingress-controller-wj8ln 1/1 Running 1 17h
kube-system coredns-86c58d9df4-pmzpx 1/1 Running 1 18h
kube-system coredns-86c58d9df4-s78bx 1/1 Running 1 18h
kube-system etcd-kubertest 1/1 Running 1 18h
kube-system kube-apiserver-kubertest 1/1 Running 1 18h
kube-system kube-controller-manager-kubertest 1/1 Running 1 18h
kube-system kube-flannel-ds-amd64-pks9m 1/1 Running 1 18h
kube-system kube-proxy-tjhw9 1/1 Running 1 18h
kube-system kube-registry-proxy-qczcl 1/1 Running 1 17h
kube-system kube-registry-v0-9mmw8 1/1 Running 1 17h
kube-system kube-scheduler-kubertest 1/1 Running 1 18h
microservices dbo-service-6867f9c569-rsmt7 1/1 Running 1 17h
Сергей
13.03.2019
07:23:55
например из корднс подов во вне есть доступ?
kubectl get po --all-namespaces -o wide какие у них там адреса наполучались вообще
под к базе по имени обращается, корднс живой, резолвит?
Andrey
13.03.2019
07:27:11
[root@kubertest ~]# kubectl get po --all-namespaces -o wide
NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
ingress traefik-ingress-controller-wj8ln 1/1 Running 1 18h 10.139.0.14 kubertest <none> <none>
kube-system coredns-86c58d9df4-pmzpx 1/1 Running 1 18h 10.139.0.12 kubertest <none> <none>
kube-system coredns-86c58d9df4-s78bx 1/1 Running 1 18h 10.139.0.11 kubertest <none> <none>
kube-system etcd-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none>
kube-system kube-apiserver-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none>
kube-system kube-controller-manager-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none>
kube-system kube-flannel-ds-amd64-pks9m 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none>
kube-system kube-proxy-tjhw9 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none>
kube-system kube-registry-proxy-qczcl 1/1 Running 1 17h 10.139.0.16 kubertest <none> <none>
kube-system kube-registry-v0-9mmw8 1/1 Running 1 17h 10.139.0.15 kubertest <none> <none>
kube-system kube-scheduler-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none>
microservices dbo-service-6867f9c569-rsmt7 1/1 Running 1 17h 10.139.0.13 kubertest <none> <none>
Сергей
13.03.2019
07:29:46
nslookup ya.ru 10.139.0.12
nslookup ya.ru 10.139.0.11
из kube-flannel-ds-amd64-pks9m база пингуется и что то во вне
Andrey
13.03.2019
07:32:06
Сергей
13.03.2019
07:35:24
а из пода который к базе идет?
Andrey
13.03.2019
07:36:25
из него не могу проверить, баша нет, из busybox нет коннекта
.:53
2019-03-13T06:59:11.289Z [INFO] CoreDNS-1.2.6
2019-03-13T06:59:11.289Z [INFO] linux/amd64, go1.11.2, 756749c
CoreDNS-1.2.6
linux/amd64, go1.11.2, 756749c
[INFO] plugin/reload: Running configuration MD5 = f65c4821c8a9b7b5eb30fa4fbc167769
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:33626->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:45462->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:51287->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:54707->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:37257->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:43347->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:51415->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:52703->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:40430->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:47664->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 update.traefik.io. A: unreachable backend: read udp 10.139.0.12:55572->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 update.traefik.io. AAAA: unreachable backend: read udp 10.139.0.12:37249->10.216.58.4:53: i/o timeout
[ERROR] plugin/errors: 2 update.traefik.io. A: unreachable backend: read udp 10.139.0.12:39268->10.216.58.4:53: i/o timeout
это лог kubectl logs coredns-86c58d9df4-pmzpx
Сергей
13.03.2019
07:48:58
это кто 10.216.58.4 днс из resolv.conf ?
Google
Andrey
13.03.2019
07:51:01
хм, да
Сергей
13.03.2019
07:51:09
а он живой?
Andrey
13.03.2019
08:00:40
должен быть. на всякий случай добавил ещё
как обновить coredns под? перезагрузка куба не подцепила новый днс, проверил на другой ноде
Сергей
13.03.2019
08:05:24
удалить поды корднс
они переподнимутся
Andrey
13.03.2019
12:01:08
Спасибо за ответы, буду искать дальше
Иван
13.03.2019
12:43:18
Привет всем!
Подскажите пожалуйста)
Хочу сделать в одном компоузе всю связку TIG
(Telegraf + InfluxDB + Grafana)
тоесть по итогу мой компоуз файл будет выглядить так:
https://pastebin.com/e3zAXQQB
но немного непонятка с :
volumes:
- ./telegraf.conf:/etc/telegraf/telegraf.conf:ro
по идее у меня должен быть файлик
.conf
что бы композ положил его в контейнер
Я так понимаю, что этот файлик отвечает за данные которые необходимо собирать телеграфу??
где можно взять этот файлик??
Max
13.03.2019
12:44:54
это конфиг телеграфа