@ru_docker

Страница 560 из 610
Andrei
12.03.2019
21:56:16
Всем привет, создал docker-compose для FE в котором есть webpack-dev-server который при запуске пишет мне ℹ 「wds」: Project is running at http://localhost:8080/ открываю его в браузере и вижу This site can’t be reached. ports: - "8080:8080" прописан. При этом если запускаю nodejs exporess server на 3000 порту проблем нету с открытием. если без докера запускаю webpack-dev-server тоже проблем нету, что может быть не так?

Игорь
12.03.2019
22:19:57
А как в композе строка с биндом портов выглядит?

Andrei
12.03.2019
22:24:48


Google
Andrei
12.03.2019
22:27:43
я так понимаю открывать 0.0.0.0:8080?

Вадим
12.03.2019
22:28:14
я так понимаю открывать 0.0.0.0:8080?
ну оно ж внутри контейнера

Andrei
12.03.2019
22:29:02
не работает

Andrey
13.03.2019
06:25:10
Всем привет, кто может подсказать по работе Kubernetes? или отдельная группа есть? Запустили новую ноду, развернул под (коннектится к базе), но он не может хотябы постучать к хосту базы.. В кубернете есть ограничение по умолчанию на DROP исходящий из подов пакетов?

Сергей
13.03.2019
06:27:18
Так попробуй этот де под на другой ноде развернуть. Может новую криво добавил

Andrey
13.03.2019
06:29:09
Так попробуй этот де под на другой ноде развернуть. Может новую криво добавил
не думаю.. пробовал через kubectl run -it --rm --restart=Never busybox --image=busybox sh попинговать тот же гугл или какие-то соседние машины.. тишина, зато с другой ноды всё отлично работает

Сергей
13.03.2019
06:29:58
Ну так раз на новой ноде сети нет, то в неи и проблема, не?

Сеть какая в кубе? Поды из демонсета сети на ней запустились?

Andrey
13.03.2019
06:31:15
Ну так раз на новой ноде сети нет, то в неи и проблема, не?
на ноде есть, сама машина успешно видит всё, телнет проходит. Да успешно поняты все модули

Сергей
13.03.2019
06:31:34
Я про сеть куба на ноде

ptchol
13.03.2019
06:31:51
в iptables DROP на цепочке форвард х)

Google
Andrey
13.03.2019
06:32:18
Я про сеть куба на ноде
как это проверить?

Сергей
13.03.2019
06:32:47
Сеть на чем?

Ось какая на ноде

Andrey
13.03.2019
06:33:02
в iptables DROP на цепочке форвард х)
тут уже искал.. *filter :INPUT ACCEPT [0:0] :FORWARD DROP [0:0] :OUTPUT ACCEPT [634:98146] дроп выставил

ptchol
13.03.2019
06:33:19
наоборот убрать его нада

Сергей
13.03.2019
06:33:20
Куб из кубадма или чем ставили

Andrey
13.03.2019
06:33:39
[root@kubertest home]# uname -a Linux kubertest 3.10.0-862.el7.x86_64 #1 SMP Fri Apr 20 16:44:24 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux

ptchol
13.03.2019
06:34:06
роутинг адресов подов ходит в рамках машины, это всё бегает через forward

Andrey
13.03.2019
06:34:12
да, ставили по умолчанию yum install -y kubectl kubelet kubeadm

Сергей
13.03.2019
06:35:41
Центось ? фаерволлд стоп дисейбл. В сиксткл енейбл форвардинг, селинукс дисейбл, свап офф. Хост в ребут

Andrey
13.03.2019
06:35:55
а если iptables, файрвол отключены на самой машине, Куб всё равно тянет настройки и свой внутренний роут устраивает? или всё таки также становится неактивным?

ptchol
13.03.2019
06:36:24
iptables работает всегда.

его состояние контролируется правилами \ политиками

Сергей
13.03.2019
06:38:46
Сеть на чем в итоге сделана?

Andrey
13.03.2019
06:39:02
да, центос

Центось ? фаерволлд стоп дисейбл. В сиксткл енейбл форвардинг, селинукс дисейбл, свап офф. Хост в ребут
[root@kubertest home]# systemctl status firewalld ● firewalld.service - firewalld - dynamic firewall daemon Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled) Active: inactive (dead) since Wed 2019-03-13 12:42:25 +06; 5min ago Docs: man:firewalld(1) [root@kubertest home]# sysctl -p net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 SELINUX=disabled

Сергей
13.03.2019
07:09:03
Сеть куба на чем?

Andrey
13.03.2019
07:09:23
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

Сергей
13.03.2019
07:14:23
на ноде логи кублета/кубпрокси и логи в поде фланела на глючной ноде смотрите, чего они там грустят

нода сама вообще в каком статусе, kubectl get nodes -o wide

Google
Andrey
13.03.2019
07:17:21
[root@kubertest ~]# kubectl get nodes -o wide NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME kubertest Ready master 18h v1.13.4 192.168.1. <none> CentOS Linux 7 (Core) 3.10.0-862.el7.x86_64 docker://18.9.3

Сергей
13.03.2019
07:18:29
и все?

а воркеры то где потерялись или Вы все на одной машине делаете?

Andrey
13.03.2019
07:19:49
по ноде да, пока что система на 1 ноде

другой тестовый стенд с такой конфигурацией работает

Сергей
13.03.2019
07:20:30
kubectl get po --all-namespaces что показывает?

Andrey
13.03.2019
07:21:20
[root@kubertest ~]# kubectl get po --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE ingress traefik-ingress-controller-wj8ln 1/1 Running 1 17h kube-system coredns-86c58d9df4-pmzpx 1/1 Running 1 18h kube-system coredns-86c58d9df4-s78bx 1/1 Running 1 18h kube-system etcd-kubertest 1/1 Running 1 18h kube-system kube-apiserver-kubertest 1/1 Running 1 18h kube-system kube-controller-manager-kubertest 1/1 Running 1 18h kube-system kube-flannel-ds-amd64-pks9m 1/1 Running 1 18h kube-system kube-proxy-tjhw9 1/1 Running 1 18h kube-system kube-registry-proxy-qczcl 1/1 Running 1 17h kube-system kube-registry-v0-9mmw8 1/1 Running 1 17h kube-system kube-scheduler-kubertest 1/1 Running 1 18h microservices dbo-service-6867f9c569-rsmt7 1/1 Running 1 17h

Сергей
13.03.2019
07:23:55
например из корднс подов во вне есть доступ?

kubectl get po --all-namespaces -o wide какие у них там адреса наполучались вообще

под к базе по имени обращается, корднс живой, резолвит?

Andrey
13.03.2019
07:27:11
[root@kubertest ~]# kubectl get po --all-namespaces -o wide NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES ingress traefik-ingress-controller-wj8ln 1/1 Running 1 18h 10.139.0.14 kubertest <none> <none> kube-system coredns-86c58d9df4-pmzpx 1/1 Running 1 18h 10.139.0.12 kubertest <none> <none> kube-system coredns-86c58d9df4-s78bx 1/1 Running 1 18h 10.139.0.11 kubertest <none> <none> kube-system etcd-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none> kube-system kube-apiserver-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none> kube-system kube-controller-manager-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none> kube-system kube-flannel-ds-amd64-pks9m 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none> kube-system kube-proxy-tjhw9 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none> kube-system kube-registry-proxy-qczcl 1/1 Running 1 17h 10.139.0.16 kubertest <none> <none> kube-system kube-registry-v0-9mmw8 1/1 Running 1 17h 10.139.0.15 kubertest <none> <none> kube-system kube-scheduler-kubertest 1/1 Running 1 18h 10.139.220.50 kubertest <none> <none> microservices dbo-service-6867f9c569-rsmt7 1/1 Running 1 17h 10.139.0.13 kubertest <none> <none>

под к базе по имени обращается, корднс живой, резолвит?
по IP, но ответ от джавы что в таймаут падает

Сергей
13.03.2019
07:29:46
nslookup ya.ru 10.139.0.12 nslookup ya.ru 10.139.0.11

из kube-flannel-ds-amd64-pks9m база пингуется и что то во вне

Andrey
13.03.2019
07:32:06
из kube-flannel-ds-amd64-pks9m база пингуется и что то во вне
да, база пингуется, гугл пингуется

Сергей
13.03.2019
07:35:24
а из пода который к базе идет?

Andrey
13.03.2019
07:36:25
из него не могу проверить, баша нет, из busybox нет коннекта

.:53 2019-03-13T06:59:11.289Z [INFO] CoreDNS-1.2.6 2019-03-13T06:59:11.289Z [INFO] linux/amd64, go1.11.2, 756749c CoreDNS-1.2.6 linux/amd64, go1.11.2, 756749c [INFO] plugin/reload: Running configuration MD5 = f65c4821c8a9b7b5eb30fa4fbc167769 [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:33626->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:45462->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:51287->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:54707->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:37257->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:43347->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:51415->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:52703->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:40430->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 4144878671188345928.9147852671975221062. HINFO: unreachable backend: read udp 10.139.0.12:47664->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 update.traefik.io. A: unreachable backend: read udp 10.139.0.12:55572->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 update.traefik.io. AAAA: unreachable backend: read udp 10.139.0.12:37249->10.216.58.4:53: i/o timeout [ERROR] plugin/errors: 2 update.traefik.io. A: unreachable backend: read udp 10.139.0.12:39268->10.216.58.4:53: i/o timeout

это лог kubectl logs coredns-86c58d9df4-pmzpx

Сергей
13.03.2019
07:48:58
это кто 10.216.58.4 днс из resolv.conf ?

Google
Andrey
13.03.2019
07:51:01
хм, да

Сергей
13.03.2019
07:51:09
а он живой?

Andrey
13.03.2019
08:00:40
должен быть. на всякий случай добавил ещё как обновить coredns под? перезагрузка куба не подцепила новый днс, проверил на другой ноде

Сергей
13.03.2019
08:05:24
удалить поды корднс

они переподнимутся

Andrey
13.03.2019
12:01:08
Спасибо за ответы, буду искать дальше

Иван
13.03.2019
12:43:18
Привет всем! Подскажите пожалуйста) Хочу сделать в одном компоузе всю связку TIG (Telegraf + InfluxDB + Grafana) тоесть по итогу мой компоуз файл будет выглядить так: https://pastebin.com/e3zAXQQB но немного непонятка с : volumes: - ./telegraf.conf:/etc/telegraf/telegraf.conf:ro по идее у меня должен быть файлик .conf что бы композ положил его в контейнер Я так понимаю, что этот файлик отвечает за данные которые необходимо собирать телеграфу?? где можно взять этот файлик??

Max
13.03.2019
12:44:54
это конфиг телеграфа

Страница 560 из 610