Sergii
а вот в разных нет
kay
чудеса...
Sergii
не
Sergii
даже в пределах одного неймспейса
kay
не важно. мне оно требовалось, чтобы была возможность всего один под из деплойманта на ноде запускать на 1.3. в .1.4 уже появилось афинити
Sergii
@kay_rus http://pastebin.com/qcfn9deL
Sergii
забыл добавить
vagrant@node1:~$ kubectl get nodes
NAME STATUS AGE
node1 Ready 9d
node2 Ready,SchedulingDisabled 9d
node3 Ready,SchedulingDisabled 9d
Sergii
по поводу афинити - еще руками не пробывал
Sergii
да кстати очень не хватает blkio scheduler чтобы каждому поду выдавалась определенное количество IOPS
Sergii
и при достижения лимита больше podы не скедулились на ноду - тогда можно вообще все еластично сделать не боясь что один под отожмет все IO у всех остальных
kay
ну насколько я думаю, это реализуется cpu iowait.
kay
ну я workaround подсказал
kay
а не complete solution
Sergii
тогда большое спасибо
Anonymous
кому может быть интересно, теперь weave можно запустить как статик под
Anonymous
это правда пока в мастере, в релиз не включено
yolkov
калико тоже так можно
Anonymous
@Sn00p, Тёма, а в Москве остались чуваки, которые в кубернутушку коммитили? Или в Москве их вообще не было?
Sn00part
я думаю это Польша и Украина
Anonymous
я не Тёма, но отвечу - да, в Москве есть
Sn00part
Марек
Sn00part
во)
Anonymous
Марек в Познане же? :)
Sn00part
не
Sn00part
не Марек
Sn00part
Томаш же
Ivan
я есть
Anonymous
вот о тебе я и говорил)
Ivan
:)
invariance
Ребят, а я вот устанавливаю вручную KN на сервер. А можно ли это как то автоматизировать? Что бы каждый раз, купив еще мощностей в проект, мне не в ручную всё это пихать в уже существующий кластер
Alexander
купил еще ноду и сделал ей join к мастеру, либо ansible если с нуля
invariance
Спасибо)
Andrew
Всем привет. сисадмин, осваиваю докер с кубером) поставил кубер в hyperkube, пашет, но в dashboard не видны графики. они даже не пустые, их вообще нет. посоветуйте куда копать?
Александр
heapster наверняка не поставили
Andrew
не слышал) спасибо, пошел гуглить
Denis
🎉 Друзья, совсем скоро, 15 ноября, в Москве состоится международная конференцию DevOps Pro Moscow 2016! Основной темой станут методологии взаимодействия разработчиков и системных администраторов. Конференция будет проходить в отеле Бест Вестерн Вега.
Известные международные спикеры со всех уголков мира, такие как Mark Heistek (компания Container Solutions, Голландия), Stein Inge Morisbak (Bekk Consulting AS, Норвегия), Саймон Ванс-Колина (компания Mondo, Великобритания), Sebastian Neubauer (Blue Yonder GmbH, Германия), Simon Vans-Colina (Mondo, Австралия-Великобритания) и многие другие выступят с докладами, поделятся опытом и идеями. В том числе представители таких компаний, как Microsoft, Uber, CloudBees, Express 42 (Иван Евтухович развеет шум вокруг микросервисов), Adform, Microscaling Systems и т.д.
Присоединяйтесь к сообществу зарубежных и российских DevOps-экспертов:
+ http://www.devopspro.ru
Но и это ещё не всё! Совместно с организаторами конференции мы решили розыграть среди участников нашей группы один билет. Счастливчик будет выбран случайным образом. Для того, чтобы участвовать заполните форму ниже:
+ https://denisizmaylov.typeform.com/to/gMTJ01
Увидимся на конференции!
Andrew
блин, я уже оплатил билет)
Andrew
@abideev помогло
Александр
Гуд :)
yolkov
о круто, спасибо за инфу
Max
Товарищи, как можно обозначить IP или интерфес который будет использоваться для публикации сервисов?
Сетевой плагин не называю какой ибо надо выбрать.
На железках 4 интерфейса и собраны они в bound по два, на внешку и внутренний. Инасталяция в лоб через kubeadm или kargo приводит к тому, что поды внетри свей сети не видят друг друга. Пробывал на calico и flunet
Max
и expose бесконечно висит в  pending
Sn00part
на калико надо включать опции
Sn00part
прокси iptables
Max
есть инфа какой из плагинов нормально ведет себя с бондингом? Или у всех все хорошо
Sn00part
calico ok
Max
оке, спасибо
Anonymous
+
Max
чтото не выходит цветок.
kube-proxy запущен в режиме iptables, сеть - calico.
Если делать expose —type=LoadBalancer
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
my-nginx 10.100.41.41 <pending> 80/TCP 4m
Name: my-nginx
Namespace: default
Labels: run=my-nginx
Selector: run=my-nginx
Type: LoadBalancer
IP: 10.100.41.41
Port: <unset> 80/TCP
NodePort: <unset> 32114/TCP
Endpoints: 10.100.123.131:80
Session Affinity: None
No events.
На ноде по порту 32114 nginx отвечает если его дергать из откудаугодно, но вот на 80 порт не садится
Max
kube-proxy в логе прогадил
Adding new service "default/my-nginx:" at 10.100.41.41:80/TCP
Opened local port "nodePort for default/my-nginx:" (:32114/tcp)
Setting endpoints for "default/my-nginx:" to [10.100.123.131:80]
и замолчал на этом
Max
/hyperkube proxy --v=2 --master=https://188.1.1.1:443 --kubeconfig=/etc/kubernetes/node-kubeconfig.yaml --bind-address=188.1.1.1.2 --cluster-cidr=10.100.64.0/18 --proxy-mode=iptables --masquerade-all
Max
expose совместно с —external-ip спасает ситуацию, но как-то это не совсем вариант
Max
где то есть может какая переменная со списком внешних IP?
Max
продолжу вести свой блог))
Конечно же такая переменная (поле в etcd ) имеется с вполне очевидным названием - ExternalIP
если глянуть в описании ноды через etcdctl get /registry/minions/node-1
там указаны только InternalIP и LegacyHostIP.
Осталось только втачить туда ExternalIP, нооо нет.
/registry/minions/node-1 этот ключ какойто имутабельный. Через etcdctl set/update проходит без ошибок, но значение не меняется.
Через
kubectl patch nodes node-1 -p '{"status":{"addresses":[{"type":"ExternalIP","address":"66.66.66.66"}]}}'
та же фигня - ничего не происходит
kay
Max в чем проблема? напомни
kay
nginx не садится на 80-й порт?
Max
expose в pending'е все время висит
Max
при typе: LoadBalancer
kay
а. облачные технологии aws и gce...пардон, не моё.
kay
=(
Max
это железка
kay
а на кой ты тогда LoadBalancer используешь? он только для умных облачных хостингов, которые я выше перечислил
kay
вот так делай:
ports:
- containerPort: 80
hostPort: 80
- containerPort: 443
hostPort: 443
kay
это эквивалентно docker -p 80:80
kay
не путай с nodePort
kay
nodePort только в определенно диапазоне выдает порты
kay
а hostPort явно указывает
kay
но он позволяет всего один контейнер запускать. т.к. один порт - один под
Max
ясно, попробую, спасибо.
Я теперь воткнулся в том что поды на разных хостах не видят друг друга(
kay
тут я тебе сразу могу сказать, что возможно ты docker запустил до overlay network, или не скормил docker конфигурацию overlay network
kay
обычно фиксится остановкой докера, overlay,очистки интерфейса docker0 от всех IP, и последовательным запуском overlay, проверкой конфигов, которые он наплодил, а потом dcoker
kay
docker долщен подцепить правильные настройки и запилить правильный ip на docker0
Max
ага, понимаю.
Это был а кстати через kargo инсталяция на Centos7
kay
у меня свои костыли...
Alexander
@kay_rus Подскажи, можно ли как-то протестить alertmanager в прометеи на отправку алертов?
kay
@sclif13 можно
kay
запили нереальные правила, перезагрузи конфиг и всё
Alexander
спасибо, попробую
kay
а как запиливал alertmanager?