@kubernetes_ru

Страница 125 из 958
Fike
17.02.2017
15:16:58
попробуй отправить тестовый запрос на <любую ноду>:31823

я сто лет с этим не общался, но насколько помню, поведение было именно такое

If you set the type field to "NodePort", the Kubernetes master will allocate a port from a flag-configured range (default: 30000-32767), and each Node will proxy that port (the same port number on every Node) into your Service. That port will be reported in your Service’s spec.ports[*].nodePort field.

Alex
17.02.2017
15:18:30
да все супер любая нода когда ей призодит запрсо на 31823 отвечает

Google
Alex
17.02.2017
15:18:33
вопрос немного другой

Fike
17.02.2017
15:18:39
возможно, это не тот порт, попробуй опят ьполучить сервисы в формате ямл/джсон и там найти nodePort

Alex
17.02.2017
15:18:40
у меня на нодах есть еще internal сеть

Fike
17.02.2017
15:18:43
а, ок

Alex
17.02.2017
15:18:47
не кластерная

назовем еще backbone

10.132

как на нее сделать expose

у меня есть серверы вне кластера но внутри сети backbone

ingress делает expose на IP адрес белый само собой :)

Dmitry
17.02.2017
15:43:08
а есть такое в кубернетс?

Ребята из Hashicorp, а в частности те что разрабатывают Nomad, подгоняют нам очередную флеймообразующую тему. Вместо стандартного подхода с использованием воркеров для разбирания очередей заданий, они предлагают запускать задачи по запросу при помощи их механизма Nomad Dispatch. Это решение на их взгляд даёт ряд преимуществ связанных с более оптимальной утилизацией ресурсов. http://amp.gs/16we

Fike
17.02.2017
15:48:01
ну, ты можешь скормить ему одноразовую джобу

Google
Yuryhalf
17.02.2017
17:57:43
а тоже самое только для VMware есть?)))

Oleg
17.02.2017
19:44:58
Сильные аргументы против Docker Swarm кто-нибудь скажет в пользу кубера?

Fike
17.02.2017
19:49:25
можно заменить docker на rkt

Ivan
17.02.2017
19:49:54
k8s - название короче.

Jan
17.02.2017
19:51:20
это как i18n

Oleg
17.02.2017
19:57:00
кто отказался от Docker Swarm в пользу Kubernetes?

Ivan
17.02.2017
19:58:59
Эти технологии в диком продакшне всего несколько лет. Прошло недостаточно времени, чтобы отказ был объективным. Выбирай любое понравившееся и используй. Или не используй.

Sergey
17.02.2017
19:59:55
а где kubernetes в "диком продакшне"? :)

учитывая, что скейлиться до 100+ машин оно научилось без году неделя

Fike
17.02.2017
20:02:02
кто отказался от Docker Swarm в пользу Kubernetes?
да я и не пользовался никогда

Oleg
17.02.2017
20:05:58
Тогда более общий вопрос - как кластера строите?

Antony
17.02.2017
20:09:59
Вот тебе минус swarm - нет persistent volumes, т.е. сохранение состояния надо самому организовывать, каким-нибудь ceph и т.д.

Ivan
17.02.2017
20:11:44
а где kubernetes в "диком продакшне"? :)
Слышал, над ним эксперименты ставили в твиттере. Пруфов нет, верить нельзя. А в диком продакшне наверняка где-то есть. Девопсов много, стартапов - тоже.

Antony
17.02.2017
20:13:01
Лол

Oleg
17.02.2017
20:14:28
persistent volumes это вообще нерабочая хрень мне кажется. И никогда нормальной не будет

Google
Antony
17.02.2017
20:21:36
Я нуб в k8s и не совсем правильно все понял после первого прочтения доки, сейчас перечитал - вкурил, для PV нужен провайдер, т.е. например тот же ceph, так что прошу прощения за изречение выше, однако это не отменяет факта что в сварме такой фичи нет, хотя логично что она востребована.

Oleg
17.02.2017
20:32:25
потому что если тебе надо файловое API, то NFS, а если тебе надо с файло базы хранить - так ты в конце концов возьмешь супержелезку и поставишь на него базу.

Antony
17.02.2017
20:34:12
Sergey
17.02.2017
20:34:15
потому что если тебе надо файловое API, то NFS, а если тебе надо с файло базы хранить - так ты в конце концов возьмешь супержелезку и поставишь на него базу.
>файловое API, то NFS сомнительный и в общем случае спорный тезис. но даже так: https://github.com/kubernetes/kubernetes/tree/master/examples/volumes/nfs

впрочем, я не уверен пока, что там не создается файл, который потом через loop превращается в blockdev

Oleg
17.02.2017
20:36:55
дак я и говорю что у тебя все является сетевыми сервисами. А там где нужна реальная персистентность пользуешь железо без всяких миграций volume за контейнером.

Sergey
17.02.2017
20:38:26
дак я и говорю что у тебя все является сетевыми сервисами. А там где нужна реальная персистентность пользуешь железо без всяких миграций volume за контейнером.
не совсем понятно, чем отличается реальная персистентность от нереальной. сторадж-то может и вне k8s быть.

Oleg
17.02.2017
20:42:24
дисковая полка от flocker не отличается?

Sergey
17.02.2017
20:43:10
дисковая полка от flocker не отличается?
флокер только подключит ее, а данные через себя не пропускает же.

Yuryhalf
17.02.2017
20:46:37
А кто использует Rancher?

Для управления кластером k8s

Михаил
17.02.2017
20:48:02
Yuryhalf
17.02.2017
20:48:14
Ахаха

????

Sergey
17.02.2017
20:48:37
Да давайте уже сделаем dev null as a service
зачем? он успешно реплицируется per node

никаких ошибок!

Antony
17.02.2017
21:01:15
В мускуле например такая штука есть - https://dev.mysql.com/doc/refman/5.7/en/blackhole-storage-engine.html

Fike
17.02.2017
21:05:04
отпустите уже шутку про дев нулл на пенсию

Google
Paul
17.02.2017
21:12:05
коллеги, использующие не GCE, подскажите, каким инструментарием пользуетесь для первичного развертывания? Коллекционирую опыт, оценки пока разнятся

Vladimir
17.02.2017
21:21:46
aws - kops, azure - у них свой сервис есть ACS

Paul
17.02.2017
21:28:45
kops - aws only?

Vladimir
17.02.2017
21:49:54
у нее еще была поддержка gce и хотели azure. но щас даже упоминание про это не нашел. из особенностей - хранит состояние конфига кластера на s3

Alexander
17.02.2017
22:14:37
а кто нить в чате есть, кто контрибутил в кубер ?

Denis
17.02.2017
22:26:29
)) Иван Шведунов, он же был заключительным докладчиком https://www.meetup.com/Moscow-Kubernetes-Meetup/events/237164023/

Paul
17.02.2017
22:33:02
здесь есть сотрудник гугла, который контрибьютит в кубер. Но он шифруется

Denis
17.02.2017
22:33:42
Дешифруем его?

Paul
17.02.2017
22:39:14
не надо. Если человек не хочет признаваться – не надо вытаскивать его на свет. Будет только хуже.

Alexander
17.02.2017
23:08:28
Иван Шведунов, это мирантисовские -) после моего ухода уже -)

Denis
17.02.2017
23:10:07
Ухода куда?)

Alexander
17.02.2017
23:38:58
vbhfynbc

мирантис

Artem
18.02.2017
06:22:14
у меня кошку так зовут)

Jan
18.02.2017
13:43:53
https://devnull-as-a-service.com/

Fike
18.02.2017
13:44:49
© 2015 Florian Baumann.

вот тогда это и было смешным

Михаил
18.02.2017
14:22:55
вот тогда это и было смешным
Тут просто не все видят разницу между хранилищем и оберткой над хранилищем

Fike
18.02.2017
14:52:47
как будто это что-то меняет

Paul
18.02.2017
15:55:42
Google
Fike
18.02.2017
16:28:40
в смысле если вам при виде какого-то раздражителя из разу в раз надо пошутить одну и ту же шутку, то у вас условный рефлекс

и "ну так это он меня провоцирует снова про девнулл писать" - это что-то не очень ок

Михаил
18.02.2017
16:45:53
Сэр, вы сноб.

Alexey
18.02.2017
19:29:40
Сэр, вы сноб.
Серьте дома)

Artem
18.02.2017
23:35:55
серить - это покрывать серой. правильно говорить срите, если вы понимаете о чем я. ?‍?

Alex
19.02.2017
18:02:34
как заставить kube сделать балансировку подов после подключения новой ноды в кластер?

хочу чтобы на новую ноду уехали какие-то поды

Artem
19.02.2017
18:28:31
https://github.com/kubernetes/kubernetes/issues/12140

я так и не пойму чем дело с решедулером закончилось

в 1.3 говорят должно работать

кто пробовал?

работает это? я какие-то design proposals только вижу

я вручную перемещаю. но ноды относительно редко добавляются и всегда под что-то запланированное

Alex
19.02.2017
18:34:43
да это понимаю это актуально когда ты оперируешь кластер

у меня это изменение строчки в GKE

https://cloud.google.com/container-engine/docs/cluster-autoscaler?hl=en_US

прочитал ссылку по resheduler

Страница 125 из 958