
Fike
17.02.2017
15:16:58
попробуй отправить тестовый запрос на <любую ноду>:31823
я сто лет с этим не общался, но насколько помню, поведение было именно такое
If you set the type field to "NodePort", the Kubernetes master will allocate a port from a flag-configured range (default: 30000-32767), and each Node will proxy that port (the same port number on every Node) into your Service. That port will be reported in your Service’s spec.ports[*].nodePort field.

Alex
17.02.2017
15:18:30
да все супер любая нода когда ей призодит запрсо на 31823 отвечает

Google

Alex
17.02.2017
15:18:33
вопрос немного другой

Fike
17.02.2017
15:18:39
возможно, это не тот порт, попробуй опят ьполучить сервисы в формате ямл/джсон и там найти nodePort

Alex
17.02.2017
15:18:40
у меня на нодах есть еще internal сеть

Fike
17.02.2017
15:18:43
а, ок

Alex
17.02.2017
15:18:47
не кластерная
назовем еще backbone
10.132
как на нее сделать expose
у меня есть серверы вне кластера но внутри сети backbone
ingress делает expose на IP адрес белый само собой :)

Dmitry
17.02.2017
15:43:08
а есть такое в кубернетс?
Ребята из Hashicorp, а в частности те что разрабатывают Nomad, подгоняют нам очередную флеймообразующую тему.
Вместо стандартного подхода с использованием воркеров для разбирания очередей заданий, они предлагают запускать задачи по запросу при помощи их механизма Nomad Dispatch.
Это решение на их взгляд даёт ряд преимуществ связанных с более оптимальной утилизацией ресурсов.
http://amp.gs/16we

Fike
17.02.2017
15:48:01
ну, ты можешь скормить ему одноразовую джобу

Google

Denis
17.02.2017
17:53:02
Даже не знаю)
Интересно было бы мнения услышать

Yuryhalf
17.02.2017
17:57:43
а тоже самое только для VMware есть?)))

Oleg
17.02.2017
19:44:58
Сильные аргументы против Docker Swarm кто-нибудь скажет в пользу кубера?

Fike
17.02.2017
19:49:25
можно заменить docker на rkt

Ivan
17.02.2017
19:49:54
k8s - название короче.

Jan
17.02.2017
19:51:20
это как i18n

Oleg
17.02.2017
19:57:00
кто отказался от Docker Swarm в пользу Kubernetes?

Ivan
17.02.2017
19:58:59
Эти технологии в диком продакшне всего несколько лет. Прошло недостаточно времени, чтобы отказ был объективным.
Выбирай любое понравившееся и используй. Или не используй.

Sergey
17.02.2017
19:59:55
а где kubernetes в "диком продакшне"? :)
учитывая, что скейлиться до 100+ машин оно научилось без году неделя

Fike
17.02.2017
20:02:02

Oleg
17.02.2017
20:05:58
Тогда более общий вопрос - как кластера строите?

Antony
17.02.2017
20:09:59
Вот тебе минус swarm - нет persistent volumes, т.е. сохранение состояния надо самому организовывать, каким-нибудь ceph и т.д.

Ivan
17.02.2017
20:11:44

Михаил
17.02.2017
20:11:44

Sergey
17.02.2017
20:12:51

Antony
17.02.2017
20:13:01
Лол

Oleg
17.02.2017
20:14:28
persistent volumes это вообще нерабочая хрень мне кажется. И никогда нормальной не будет

Google

Antony
17.02.2017
20:21:36
Я нуб в k8s и не совсем правильно все понял после первого прочтения доки, сейчас перечитал - вкурил, для PV нужен провайдер, т.е. например тот же ceph, так что прошу прощения за изречение выше, однако это не отменяет факта что в сварме такой фичи нет, хотя логично что она востребована.

Sergey
17.02.2017
20:27:41

Oleg
17.02.2017
20:32:25
потому что если тебе надо файловое API, то NFS, а если тебе надо с файло базы хранить - так ты в конце концов возьмешь супержелезку и поставишь на него базу.

Antony
17.02.2017
20:34:12

Sergey
17.02.2017
20:34:15
впрочем, я не уверен пока, что там не создается файл, который потом через loop превращается в blockdev

Oleg
17.02.2017
20:36:55
дак я и говорю что у тебя все является сетевыми сервисами. А там где нужна реальная персистентность пользуешь железо без всяких миграций volume за контейнером.

Sergey
17.02.2017
20:38:26

Oleg
17.02.2017
20:42:24
дисковая полка от flocker не отличается?

Sergey
17.02.2017
20:43:10

Yuryhalf
17.02.2017
20:46:37
А кто использует Rancher?
Для управления кластером k8s

Михаил
17.02.2017
20:48:02

Yuryhalf
17.02.2017
20:48:14
Ахаха
????

Sergey
17.02.2017
20:48:37
никаких ошибок!

Antony
17.02.2017
21:01:15
В мускуле например такая штука есть - https://dev.mysql.com/doc/refman/5.7/en/blackhole-storage-engine.html

Fike
17.02.2017
21:05:04
отпустите уже шутку про дев нулл на пенсию

Google

Paul
17.02.2017
21:12:05
коллеги, использующие не GCE, подскажите, каким инструментарием пользуетесь для первичного развертывания? Коллекционирую опыт, оценки пока разнятся

Vladimir
17.02.2017
21:21:46
aws - kops, azure - у них свой сервис есть ACS

Paul
17.02.2017
21:28:45
kops - aws only?

Vladimir
17.02.2017
21:49:54
у нее еще была поддержка gce и хотели azure. но щас даже упоминание про это не нашел. из особенностей - хранит состояние конфига кластера на s3

Alexander
17.02.2017
22:14:37
а кто нить в чате есть, кто контрибутил в кубер ?

Denis
17.02.2017
22:26:29
)) Иван Шведунов, он же был заключительным докладчиком https://www.meetup.com/Moscow-Kubernetes-Meetup/events/237164023/

Paul
17.02.2017
22:33:02
здесь есть сотрудник гугла, который контрибьютит в кубер. Но он шифруется

Denis
17.02.2017
22:33:42
Дешифруем его?

Paul
17.02.2017
22:39:14
не надо. Если человек не хочет признаваться – не надо вытаскивать его на свет. Будет только хуже.

Alexander
17.02.2017
23:08:28
Иван Шведунов, это мирантисовские -) после моего ухода уже -)

Denis
17.02.2017
23:10:07
Ухода куда?)

Alexander
17.02.2017
23:38:58
vbhfynbc
мирантис

Artem
18.02.2017
06:22:14
у меня кошку так зовут)

Jan
18.02.2017
13:43:53
https://devnull-as-a-service.com/

Fike
18.02.2017
13:44:49
© 2015 Florian Baumann.
вот тогда это и было смешным

Михаил
18.02.2017
14:22:55

Fike
18.02.2017
14:52:47
как будто это что-то меняет

Paul
18.02.2017
15:55:42

Google

Fike
18.02.2017
16:28:40
в смысле если вам при виде какого-то раздражителя из разу в раз надо пошутить одну и ту же шутку, то у вас условный рефлекс
и "ну так это он меня провоцирует снова про девнулл писать" - это что-то не очень ок

Михаил
18.02.2017
16:45:53
Сэр, вы сноб.

Alexey
18.02.2017
19:29:40

Artem
18.02.2017
23:35:55
серить - это покрывать серой. правильно говорить срите, если вы понимаете о чем я. ??

Alex
19.02.2017
18:02:34
как заставить kube сделать балансировку подов после подключения новой ноды в кластер?
хочу чтобы на новую ноду уехали какие-то поды

Artem
19.02.2017
18:28:31
https://github.com/kubernetes/kubernetes/issues/12140
я так и не пойму чем дело с решедулером закончилось
в 1.3 говорят должно работать
кто пробовал?
работает это? я какие-то design proposals только вижу
я вручную перемещаю. но ноды относительно редко добавляются и всегда под что-то запланированное

Alex
19.02.2017
18:34:43
да это понимаю это актуально когда ты оперируешь кластер
у меня это изменение строчки в GKE
https://cloud.google.com/container-engine/docs/cluster-autoscaler?hl=en_US
прочитал ссылку по resheduler