@kubernetes_ru

Страница 94 из 958
Artur
21.10.2016
08:57:56
кому может быть интересно, теперь weave можно запустить как статик под

это правда пока в мастере, в релиз не включено

yolkov
21.10.2016
10:59:36
калико тоже так можно

Alexandr
21.10.2016
11:59:36
@Sn00p, Тёма, а в Москве остались чуваки, которые в кубернутушку коммитили? Или в Москве их вообще не было?

Google
Artem
21.10.2016
12:03:22
я думаю это Польша и Украина

Ihor
21.10.2016
12:03:30
я не Тёма, но отвечу - да, в Москве есть

Artem
21.10.2016
12:03:31
Марек

во)

Alexandr
21.10.2016
12:38:02
Марек в Познане же? :)

Artem
21.10.2016
12:38:11
не

не Марек

Томаш же

Ivan
21.10.2016
13:33:20
я есть

Ihor
21.10.2016
14:20:39
вот о тебе я и говорил)

Ivan
21.10.2016
14:50:37
:)

F01134H
21.10.2016
14:52:39
Ребят, а я вот устанавливаю вручную KN на сервер. А можно ли это как то автоматизировать? Что бы каждый раз, купив еще мощностей в проект, мне не в ручную всё это пихать в уже существующий кластер

Alexander
21.10.2016
14:57:35
купил еще ноду и сделал ей join к мастеру, либо ansible если с нуля

Google
F01134H
21.10.2016
15:01:52
Спасибо)

Andrew
21.10.2016
15:38:48
Всем привет. сисадмин, осваиваю докер с кубером) поставил кубер в hyperkube, пашет, но в dashboard не видны графики. они даже не пустые, их вообще нет. посоветуйте куда копать?

Александр
21.10.2016
15:41:07
heapster наверняка не поставили

Andrew
21.10.2016
15:42:11
не слышал) спасибо, пошел гуглить

Denis
21.10.2016
15:46:32
? Друзья, совсем скоро, 15 ноября, в Москве состоится международная конференцию DevOps Pro Moscow 2016! Основной темой станут методологии взаимодействия разработчиков и системных администраторов. Конференция будет проходить в отеле Бест Вестерн Вега. Известные международные спикеры со всех уголков мира, такие как Mark Heistek (компания Container Solutions, Голландия), Stein Inge Morisbak (Bekk Consulting AS, Норвегия), Саймон Ванс-Колина (компания Mondo, Великобритания), Sebastian Neubauer (Blue Yonder GmbH, Германия), Simon Vans-Colina (Mondo, Австралия-Великобритания) и многие другие выступят с докладами, поделятся опытом и идеями. В том числе представители таких компаний, как Microsoft, Uber, CloudBees, Express 42 (Иван Евтухович развеет шум вокруг микросервисов), Adform, Microscaling Systems и т.д. Присоединяйтесь к сообществу зарубежных и российских DevOps-экспертов: + http://www.devopspro.ru Но и это ещё не всё! Совместно с организаторами конференции мы решили розыграть среди участников нашей группы один билет. Счастливчик будет выбран случайным образом. Для того, чтобы участвовать заполните форму ниже: + https://denisizmaylov.typeform.com/to/gMTJ01 Увидимся на конференции!

Andrew
21.10.2016
15:47:46
блин, я уже оплатил билет)

@abideev помогло

Александр
21.10.2016
16:50:06
Гуд :)

yolkov
21.10.2016
17:29:16
о круто, спасибо за инфу

Max
22.10.2016
11:54:40
Товарищи, как можно обозначить IP или интерфес который будет использоваться для публикации сервисов? Сетевой плагин не называю какой ибо надо выбрать. На железках 4 интерфейса и собраны они в bound по два, на внешку и внутренний. Инасталяция в лоб через kubeadm или kargo приводит к тому, что поды внетри свей сети не видят друг друга. Пробывал на calico и flunet

и expose бесконечно висит в  pending

Artem
22.10.2016
11:55:29
на калико надо включать опции

прокси iptables

Max
22.10.2016
12:00:51
есть инфа какой из плагинов нормально ведет себя с бондингом? Или у всех все хорошо

Artem
22.10.2016
12:06:53
calico ok

Max
22.10.2016
12:11:30
оке, спасибо

Alex
24.10.2016
09:56:49
+

Max
24.10.2016
10:49:26
чтото не выходит цветок. kube-proxy запущен в режиме iptables, сеть - calico. Если делать expose —type=LoadBalancer NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE my-nginx 10.100.41.41 <pending> 80/TCP 4m Name: my-nginx Namespace: default Labels: run=my-nginx Selector: run=my-nginx Type: LoadBalancer IP: 10.100.41.41 Port: <unset> 80/TCP NodePort: <unset> 32114/TCP Endpoints: 10.100.123.131:80 Session Affinity: None No events. На ноде по порту 32114 nginx отвечает если его дергать из откудаугодно, но вот на 80 порт не садится

kube-proxy в логе прогадил Adding new service "default/my-nginx:" at 10.100.41.41:80/TCP Opened local port "nodePort for default/my-nginx:" (:32114/tcp) Setting endpoints for "default/my-nginx:" to [10.100.123.131:80] и замолчал на этом

/hyperkube proxy --v=2 --master=https://188.1.1.1:443 --kubeconfig=/etc/kubernetes/node-kubeconfig.yaml --bind-address=188.1.1.1.2 --cluster-cidr=10.100.64.0/18 --proxy-mode=iptables --masquerade-all

Google
Max
24.10.2016
13:36:18
expose совместно с —external-ip спасает ситуацию, но как-то это не совсем вариант

где то есть может какая переменная со списком внешних IP?

продолжу вести свой блог)) Конечно же такая переменная (поле в etcd ) имеется с вполне очевидным названием - ExternalIP если глянуть в описании ноды через etcdctl get /registry/minions/node-1 там указаны только InternalIP и LegacyHostIP. Осталось только втачить туда ExternalIP, нооо нет. /registry/minions/node-1 этот ключ какойто имутабельный. Через etcdctl set/update проходит без ошибок, но значение не меняется. Через kubectl patch nodes node-1 -p '{"status":{"addresses":[{"type":"ExternalIP","address":"66.66.66.66"}]}}' та же фигня - ничего не происходит

kay
25.10.2016
10:09:32
Max в чем проблема? напомни

nginx не садится на 80-й порт?

Max
25.10.2016
10:10:27
expose в pending'е все время висит

при typе: LoadBalancer

kay
25.10.2016
10:11:21
а. облачные технологии aws и gce...пардон, не моё.

=(

Max
25.10.2016
10:11:39
это железка

kay
25.10.2016
10:12:11
а на кой ты тогда LoadBalancer используешь? он только для умных облачных хостингов, которые я выше перечислил

вот так делай: ports: - containerPort: 80 hostPort: 80 - containerPort: 443 hostPort: 443

kay
25.10.2016
10:12:50
это эквивалентно docker -p 80:80

не путай с nodePort

nodePort только в определенно диапазоне выдает порты

а hostPort явно указывает

но он позволяет всего один контейнер запускать. т.к. один порт - один под

Max
25.10.2016
10:15:33
ясно, попробую, спасибо. Я теперь воткнулся в том что поды на разных хостах не видят друг друга(

kay
25.10.2016
10:16:29
тут я тебе сразу могу сказать, что возможно ты docker запустил до overlay network, или не скормил docker конфигурацию overlay network

обычно фиксится остановкой докера, overlay,очистки интерфейса docker0 от всех IP, и последовательным запуском overlay, проверкой конфигов, которые он наплодил, а потом dcoker

Google
kay
25.10.2016
10:17:58
docker долщен подцепить правильные настройки и запилить правильный ip на docker0

Max
25.10.2016
10:18:20
ага, понимаю. Это был а кстати через kargo инсталяция на Centos7

kay
25.10.2016
10:18:47
у меня свои костыли...

Alexander
25.10.2016
11:07:48
@kay_rus Подскажи, можно ли как-то протестить alertmanager в прометеи на отправку алертов?

kay
25.10.2016
11:21:17
@sclif13 можно

запили нереальные правила, перезагрузи конфиг и всё

Admin
ERROR: S client not available

Alexander
25.10.2016
11:22:38
спасибо, попробую

kay
25.10.2016
11:23:36
а как запиливал alertmanager?

Alexander
25.10.2016
11:24:17
я твоей сборкой воспользовался

slack только убрал

kay
25.10.2016
11:24:54
я там постарался удобные обновлялки сделать. у меня работает. попробуй сам сейчас

а то так часто бывает, у одного работает, у другого - нет

я вчера там рефакторинг провел. сделай pull

Alexander
25.10.2016
11:26:08
ага видел

Max
25.10.2016
12:08:53
а куда капнуть есть не пингуется по IP сервис, но ПОД сам по себе пингуется с этим сервисом?

Sergey
25.10.2016
12:11:28
сервис и не пингуется. это нормальное поведение.

Max
25.10.2016
12:11:51
оокай)

Alexander
25.10.2016
12:13:04
сервис это же по сути мост, вот если пробросить icmp сервис, то тогда запингуется

Max
25.10.2016
12:16:19
переключился на flannel, какой то он странный. Сначало не ходили пинги между подами на разных железках. По совету @kay_rus поперезапускал все по очередности и как то не помогло, темболее фланел сам в докере запущен) Указал в манифесте -iface и теперь такой прикол: 1 root 0:00 /bin/sh -c /opt/bin/flanneld -etcd блабла 6 root 0:00 /opt/bin/flanneld -etcd-endpoints блабла

Google
Max
25.10.2016
12:16:36
но за-то хоть проблема решилась

kay
25.10.2016
12:17:14
flannel запускается в earlydocker

должен запускаться

Max
25.10.2016
12:18:14
нуу теперь он у меня запускается с двумя экземплярами бинарей

command: - "/bin/sh" - "-c" - "/opt/bin/flanneld -etcd-endpoints http://127.0.0.1:2379 -etcd-prefix /cluster.local/network -public-ip 10.103.132.66 -iface eggi"

kay
25.10.2016
12:52:01
Max ты flannel из k8s запускаешь?

Max
25.10.2016
13:07:51
да

kay
25.10.2016
13:08:06
Макс, ты неправ

так не делают

Max
25.10.2016
13:08:18
ну вот

kay
25.10.2016
13:08:48
flannel должен сконфигурировать docker. а ты его по сути запускаешь в докере и ты его никак не сконфигурируешь, т.к. докер уже запущен

Max
25.10.2016
13:09:20
ну да, как раз именно это меня и смущало

kay
25.10.2016
13:10:09
почитай как это делают в coreos.https://www.packtpub.com/books/content/coreos-networking-and-flannel-internals

они правда уже заменили earlydocker на rkt

Alexander
25.10.2016
13:16:52
@kay_rus чет алерты есть, но не отправляются по почте. включил debug, но пока не вижу ошибок.

kay
25.10.2016
13:21:19
alertmanager в webinterface показывает их?

смотри логи alertmanager'а

попробуй конфиг перезагрузить - вдруг ругнется

Страница 94 из 958