
Artur
21.10.2016
08:57:56
кому может быть интересно, теперь weave можно запустить как статик под
это правда пока в мастере, в релиз не включено

yolkov
21.10.2016
10:59:36
калико тоже так можно

Alexandr
21.10.2016
11:59:36
@Sn00p, Тёма, а в Москве остались чуваки, которые в кубернутушку коммитили? Или в Москве их вообще не было?

Google

Artem
21.10.2016
12:03:22
я думаю это Польша и Украина

Ihor
21.10.2016
12:03:30
я не Тёма, но отвечу - да, в Москве есть

Artem
21.10.2016
12:03:31
Марек
во)

Alexandr
21.10.2016
12:38:02
Марек в Познане же? :)

Artem
21.10.2016
12:38:11
не
не Марек
Томаш же

Ivan
21.10.2016
13:33:20
я есть

Ihor
21.10.2016
14:20:39
вот о тебе я и говорил)

Ivan
21.10.2016
14:50:37
:)

F01134H
21.10.2016
14:52:39
Ребят, а я вот устанавливаю вручную KN на сервер. А можно ли это как то автоматизировать? Что бы каждый раз, купив еще мощностей в проект, мне не в ручную всё это пихать в уже существующий кластер

Alexander
21.10.2016
14:57:35
купил еще ноду и сделал ей join к мастеру, либо ansible если с нуля

Google

F01134H
21.10.2016
15:01:52
Спасибо)

Andrew
21.10.2016
15:38:48
Всем привет. сисадмин, осваиваю докер с кубером) поставил кубер в hyperkube, пашет, но в dashboard не видны графики. они даже не пустые, их вообще нет. посоветуйте куда копать?

Александр
21.10.2016
15:41:07
heapster наверняка не поставили

Andrew
21.10.2016
15:42:11
не слышал) спасибо, пошел гуглить


Denis
21.10.2016
15:46:32
? Друзья, совсем скоро, 15 ноября, в Москве состоится международная конференцию DevOps Pro Moscow 2016! Основной темой станут методологии взаимодействия разработчиков и системных администраторов. Конференция будет проходить в отеле Бест Вестерн Вега.
Известные международные спикеры со всех уголков мира, такие как Mark Heistek (компания Container Solutions, Голландия), Stein Inge Morisbak (Bekk Consulting AS, Норвегия), Саймон Ванс-Колина (компания Mondo, Великобритания), Sebastian Neubauer (Blue Yonder GmbH, Германия), Simon Vans-Colina (Mondo, Австралия-Великобритания) и многие другие выступят с докладами, поделятся опытом и идеями. В том числе представители таких компаний, как Microsoft, Uber, CloudBees, Express 42 (Иван Евтухович развеет шум вокруг микросервисов), Adform, Microscaling Systems и т.д.
Присоединяйтесь к сообществу зарубежных и российских DevOps-экспертов:
+ http://www.devopspro.ru
Но и это ещё не всё! Совместно с организаторами конференции мы решили розыграть среди участников нашей группы один билет. Счастливчик будет выбран случайным образом. Для того, чтобы участвовать заполните форму ниже:
+ https://denisizmaylov.typeform.com/to/gMTJ01
Увидимся на конференции!


Andrew
21.10.2016
15:47:46
блин, я уже оплатил билет)
@abideev помогло

Александр
21.10.2016
16:50:06
Гуд :)

yolkov
21.10.2016
17:29:16
о круто, спасибо за инфу

Max
22.10.2016
11:54:40
Товарищи, как можно обозначить IP или интерфес который будет использоваться для публикации сервисов?
Сетевой плагин не называю какой ибо надо выбрать.
На железках 4 интерфейса и собраны они в bound по два, на внешку и внутренний. Инасталяция в лоб через kubeadm или kargo приводит к тому, что поды внетри свей сети не видят друг друга. Пробывал на calico и flunet
и expose бесконечно висит в pending

Artem
22.10.2016
11:55:29
на калико надо включать опции
прокси iptables

Max
22.10.2016
12:00:51
есть инфа какой из плагинов нормально ведет себя с бондингом? Или у всех все хорошо

Artem
22.10.2016
12:06:53
calico ok

Max
22.10.2016
12:11:30
оке, спасибо

Alex
24.10.2016
09:56:49
+


Max
24.10.2016
10:49:26
чтото не выходит цветок.
kube-proxy запущен в режиме iptables, сеть - calico.
Если делать expose —type=LoadBalancer
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
my-nginx 10.100.41.41 <pending> 80/TCP 4m
Name: my-nginx
Namespace: default
Labels: run=my-nginx
Selector: run=my-nginx
Type: LoadBalancer
IP: 10.100.41.41
Port: <unset> 80/TCP
NodePort: <unset> 32114/TCP
Endpoints: 10.100.123.131:80
Session Affinity: None
No events.
На ноде по порту 32114 nginx отвечает если его дергать из откудаугодно, но вот на 80 порт не садится
kube-proxy в логе прогадил
Adding new service "default/my-nginx:" at 10.100.41.41:80/TCP
Opened local port "nodePort for default/my-nginx:" (:32114/tcp)
Setting endpoints for "default/my-nginx:" to [10.100.123.131:80]
и замолчал на этом
/hyperkube proxy --v=2 --master=https://188.1.1.1:443 --kubeconfig=/etc/kubernetes/node-kubeconfig.yaml --bind-address=188.1.1.1.2 --cluster-cidr=10.100.64.0/18 --proxy-mode=iptables --masquerade-all

Google

Max
24.10.2016
13:36:18
expose совместно с —external-ip спасает ситуацию, но как-то это не совсем вариант
где то есть может какая переменная со списком внешних IP?
продолжу вести свой блог))
Конечно же такая переменная (поле в etcd ) имеется с вполне очевидным названием - ExternalIP
если глянуть в описании ноды через etcdctl get /registry/minions/node-1
там указаны только InternalIP и LegacyHostIP.
Осталось только втачить туда ExternalIP, нооо нет.
/registry/minions/node-1 этот ключ какойто имутабельный. Через etcdctl set/update проходит без ошибок, но значение не меняется.
Через
kubectl patch nodes node-1 -p '{"status":{"addresses":[{"type":"ExternalIP","address":"66.66.66.66"}]}}'
та же фигня - ничего не происходит

kay
25.10.2016
10:09:32
Max в чем проблема? напомни
nginx не садится на 80-й порт?

Max
25.10.2016
10:10:27
expose в pending'е все время висит
при typе: LoadBalancer

kay
25.10.2016
10:11:21
а. облачные технологии aws и gce...пардон, не моё.
=(

Max
25.10.2016
10:11:39
это железка

kay
25.10.2016
10:12:11
а на кой ты тогда LoadBalancer используешь? он только для умных облачных хостингов, которые я выше перечислил
вот так делай:
ports:
- containerPort: 80
hostPort: 80
- containerPort: 443
hostPort: 443

kay
25.10.2016
10:12:50
это эквивалентно docker -p 80:80
не путай с nodePort
nodePort только в определенно диапазоне выдает порты
а hostPort явно указывает
но он позволяет всего один контейнер запускать. т.к. один порт - один под

Max
25.10.2016
10:15:33
ясно, попробую, спасибо.
Я теперь воткнулся в том что поды на разных хостах не видят друг друга(

kay
25.10.2016
10:16:29
тут я тебе сразу могу сказать, что возможно ты docker запустил до overlay network, или не скормил docker конфигурацию overlay network
обычно фиксится остановкой докера, overlay,очистки интерфейса docker0 от всех IP, и последовательным запуском overlay, проверкой конфигов, которые он наплодил, а потом dcoker

Google

kay
25.10.2016
10:17:58
docker долщен подцепить правильные настройки и запилить правильный ip на docker0

Max
25.10.2016
10:18:20
ага, понимаю.
Это был а кстати через kargo инсталяция на Centos7

kay
25.10.2016
10:18:47
у меня свои костыли...

Alexander
25.10.2016
11:07:48
@kay_rus Подскажи, можно ли как-то протестить alertmanager в прометеи на отправку алертов?

kay
25.10.2016
11:21:17
@sclif13 можно
запили нереальные правила, перезагрузи конфиг и всё

Admin
ERROR: S client not available

Alexander
25.10.2016
11:22:38
спасибо, попробую

kay
25.10.2016
11:23:36
а как запиливал alertmanager?

Alexander
25.10.2016
11:24:17
я твоей сборкой воспользовался
slack только убрал

kay
25.10.2016
11:24:54
я там постарался удобные обновлялки сделать. у меня работает. попробуй сам сейчас
а то так часто бывает, у одного работает, у другого - нет
я вчера там рефакторинг провел. сделай pull

Alexander
25.10.2016
11:26:08
ага видел

Max
25.10.2016
12:08:53
а куда капнуть есть не пингуется по IP сервис, но ПОД сам по себе пингуется с этим сервисом?

Sergey
25.10.2016
12:11:28
сервис и не пингуется. это нормальное поведение.

Max
25.10.2016
12:11:51
оокай)

Alexander
25.10.2016
12:13:04
сервис это же по сути мост, вот если пробросить icmp сервис, то тогда запингуется

Max
25.10.2016
12:16:19
переключился на flannel, какой то он странный.
Сначало не ходили пинги между подами на разных железках. По совету @kay_rus поперезапускал все по очередности и как то не помогло, темболее фланел сам в докере запущен)
Указал в манифесте -iface и теперь такой прикол:
1 root 0:00 /bin/sh -c /opt/bin/flanneld -etcd блабла
6 root 0:00 /opt/bin/flanneld -etcd-endpoints блабла

Google

Max
25.10.2016
12:16:36
но за-то хоть проблема решилась

kay
25.10.2016
12:17:14
flannel запускается в earlydocker
должен запускаться

Max
25.10.2016
12:18:14
нуу теперь он у меня запускается с двумя экземплярами бинарей
command:
- "/bin/sh"
- "-c"
- "/opt/bin/flanneld -etcd-endpoints http://127.0.0.1:2379 -etcd-prefix /cluster.local/network -public-ip 10.103.132.66 -iface eggi"

kay
25.10.2016
12:52:01
Max ты flannel из k8s запускаешь?

Max
25.10.2016
13:07:51
да

kay
25.10.2016
13:08:06
Макс, ты неправ
так не делают

Max
25.10.2016
13:08:18
ну вот

kay
25.10.2016
13:08:48
flannel должен сконфигурировать docker. а ты его по сути запускаешь в докере и ты его никак не сконфигурируешь, т.к. докер уже запущен

Max
25.10.2016
13:09:20
ну да, как раз именно это меня и смущало

kay
25.10.2016
13:10:09
почитай как это делают в coreos.https://www.packtpub.com/books/content/coreos-networking-and-flannel-internals
они правда уже заменили earlydocker на rkt

Alexander
25.10.2016
13:16:52
@kay_rus чет алерты есть, но не отправляются по почте. включил debug, но пока не вижу ошибок.

kay
25.10.2016
13:21:19
alertmanager в webinterface показывает их?
смотри логи alertmanager'а
попробуй конфиг перезагрузить - вдруг ругнется