@kubernetes_ru

Страница 115 из 958
Andrey
19.01.2017
09:46:11
давай на какой-нибудь pastbin и ссылку сюда

Vladimir
19.01.2017
09:48:42
https://gist.github.com/vmakhaev/b0caef4361907cd733279823b2002d52

Gleb
19.01.2017
09:49:38
Кстати, про docker в swarm mode читали уже же?

https://habrahabr.ru/company/redmadrobot/blog/318866/

Google
Andrey
19.01.2017
09:52:42
вроде как давно уж, или что-то поменялось?

"С выходом Docker 1.12 у сторонников Kubernetes практически не осталось аргументов в пользу использования последнего"

фигасе наброс :)

Gleb
19.01.2017
09:54:53
да там комменты тоже набрасывают )

Fike
19.01.2017
11:32:05
https://gist.github.com/vmakhaev/b0caef4361907cd733279823b2002d52
10.0.0.10 - это фиксированный адрес в GKE, (при дефолтных настройках) у меня он будет доступен там же?

Andrey
19.01.2017
11:40:53
кстати, а ты нашел как пофиксить то что nginx не умеет с балансировщиком гугля работать? то есть при перезапуске контроллера в ингрессах айпишник энпдпоинтов новый выдается вместо старого?

Fike
19.01.2017
11:41:39
Я долго не трогал куб, конкретно сейчас выписал статичный айпи в гугл-клауде и указал в параметрах сервиса

Andrey
19.01.2017
11:42:45
о а че так можно? во я лошпен, а я каждый раз в dns айпишники обновляю :)

че за параметр?

Vladimir
19.01.2017
11:43:14
10.0.0.10 - это ip kube-dns сервиса. можно вот так посмотреть: kubectl get svc --namespace=kube-system kube-dns

Fike
19.01.2017
11:44:58
че за параметр?
apiVersion: v1 kind: Service metadata: name: ingress-forwarder spec: selector: service: ingress ports: - name: ingress protocol: TCP port: 80 targetPort: 80 loadBalancerIP: YARRRRRRR # <--------- type: LoadBalancer

Google
Andrey
19.01.2017
11:46:02
то есть ты еще сервис перед ингрессом добавил? ок

а в ингрессе где прописать чтобы он не юзал балансировщик гугля каждый раз сам?

Fike
19.01.2017
11:46:50
хз )

Andrey
19.01.2017
11:48:02
я могу ошибаться, но получается он получает айпишники от балансировщика каждый раз как порядочный но клиенты их игнорят и идут в него через другую дырку? )

фигасе пошло получилось, не хотел :))

Fike
19.01.2017
11:50:54
в спеке у ингресса не вижу статичного айпи

Andrey
19.01.2017
11:52:32
что очень странно... такое ощущение что они хотят только вендорлок на aws и gke (смешная шутка получилась?)

Paul
19.01.2017
14:05:06
"С выходом Docker 1.12 у сторонников Kubernetes практически не осталось аргументов в пользу использования последнего"
это религия. Причем скорее всего, автор статьи не работал с docker-dc или docker-swarm

Andrey
19.01.2017
14:19:20
Я 1.12 в альфе пробовал только

Потом о кубе узнал

Vladimir
19.01.2017
15:13:48
Ребят, еще раз по поводу встречи. Я выдвигаюсь, всех жду там. Место: 19:00 в Чайхона №1 по адресу ул Тверская, 24 Мой телефон: +79854257677

Andrey
19.01.2017
15:18:12
а если кворума не будет как вы мастера сможете выбрать?

шутка :) фотки пришлите потом

во, придумал шутку несмешную: "почему админы ходят в бар нечетным количеством человек? боятся что не смогут договориться кто оплачивает счет" (пара-пара-пам, проигрыш из ералаша :)

Ivan
19.01.2017
15:23:03
тоже скоро выезжаю

Dmitry
19.01.2017
15:50:12
Блин, а у меня завал((( не получится

yolkov
19.01.2017
16:06:38
выхожу, через 10-15 мин буду

Vladimir
19.01.2017
16:07:18
На месте. Стол возле стены с кальянами. Кальян готовится. Подходите.

Тимур
19.01.2017
16:10:19
блин!!

не почитал пару дней чатик, а вы оказывается уже стрелу забили :(

Google
Ivan
19.01.2017
16:11:01
Тоже на месте, сейчас приду

Тимур
19.01.2017
16:11:11
до скольки будете сидеть ?

@ivan4th @vmakhaev ?

Vladimir
19.01.2017
16:13:16
Приходи. Через час все только соберутся, как показывает практика. Сидим обычно до 12.

Тимур
19.01.2017
16:13:55
мне из Зелика еще добираться. понял, спасибо

Михаил
19.01.2017
16:41:18
мне из Зелика еще добираться. понял, спасибо
ого, в зеленограде есть компании пользующие k8s

Тимур
19.01.2017
16:45:01
пока нет, но я с этим борюсь :)

Михаил
19.01.2017
16:45:32
а где работаешь, если не секрет?

Тимур
19.01.2017
16:46:07
http://clouddc.ru

Михаил
19.01.2017
16:46:35
а где у вас там внедрять k8s? в опенстек?)

Тимур
19.01.2017
16:48:58
не понял вопрос

Михаил
19.01.2017
16:49:38
куда внедрять kubernates хочешь? у вас же облака

ты кстати в курсе, что в зеленограде проводятся митапы для разрабов и девопсов?

Тимур
19.01.2017
16:53:31
куда внедрять kubernates хочешь? у вас же облака
Для начала сервисы внутренние(таск трекеры И так далее)

Далее опенстек внутри кубернетса :)

Михаил
19.01.2017
16:54:07
Неа
добавить?

Далее опенстек внутри кубернетса :)
то есть вы таки решили упороться как мирантис?

Тимур
19.01.2017
16:54:41
Михаил
19.01.2017
16:55:14
Пока только я :)
если что, есть чатик по опенстку. @pro_openstack

Google
Михаил
19.01.2017
16:55:25
я бы послушал о таких планах)

Тимур
19.01.2017
16:55:46
добавить?
Давай :)

Ivan
19.01.2017
16:57:17
попросили ещё раз сюда скинуть https://github.com/Mirantis/k8s-AppController

и это https://github.com/kubernetes-incubator/kargo

Ivan
19.01.2017
17:47:07
https://github.com/kubernetes-incubator/cri-o

https://github.com/Mirantis/virtlet

https://github.com/kubernetes/community/tree/master/sig-on-prem

ссылки выше постились в процессе дискуссии в Чайхоне :)

Vladimir
20.01.2017
10:43:48
хорошо вчера посидели. всем спасибо

Denis
20.01.2017
10:46:22
Всем привет, пришел за советом.

Если вкратце: хочу разворачивать версии приложения (мультиконтейнерного) на разных сабдоменах. Есть мысль запускать каждую версию как отдельный сервис, при этом каждый контейнер будет отдельным подом. А вот как запрос по сабдомену пробросить на конкретный сервис и где в сервисе описать, какой сабдомен он слушает – с этим вообще непонятно. Буду рад услышать, в каком направлении копать

Ivan
20.01.2017
11:08:19
@yolkov заметка про Helm — https://hackernoon.com/the-missing-ci-cd-kubernetes-component-helm-package-manager-1fe002aac680#.21d0bc8hm

в частности см. --values и --set

yolkov
20.01.2017
11:12:20
спс

Fike
20.01.2017
12:56:26
Если вкратце: хочу разворачивать версии приложения (мультиконтейнерного) на разных сабдоменах. Есть мысль запускать каждую версию как отдельный сервис, при этом каждый контейнер будет отдельным подом. А вот как запрос по сабдомену пробросить на конкретный сервис и где в сервисе описать, какой сабдомен он слушает – с этим вообще непонятно. Буду рад услышать, в каком направлении копать
просто балансировщик поставить, который разбирает хост и скидывает на соответствующий неймспейс или сервис, составляя имя этого неймспейса или сервиса на лету я буквально вчера сюда же за советом по подобной штуке обращался, у меня просто стоит nginx, который ловит <build>.<project>.<environment>.ci.company.name и перебрасывает на ingress.<project>-<environment>-<build>.svc.cluster.local

Alexandr
21.01.2017
06:15:18
Раз есть традиция. Доброе утро! Или день > Какой у вас проект или где работаете? Проекта нет, k8s только изучаю > В чём вы специалист? Так, админю по-немножку > Чем можете быть интересны или полезны сообществу? Да я ж пока и не знаю ничего. Что вот так сразу? >Чем интересно сообщество вам? Опытом с k8s. Но я глупыми вопросами не достаю > Откуда вы? Москва > Как узнали про группу? https://github.com/goq/telegram-list/blob/master/README.md - вот отсюда > В сообщении нужно указать тэг #whois

Ivan
21.01.2017
15:45:04
Я нууб, вопрос такой. Есть 4-5 железных серверов, по которым рукми мигруют разные доккер конетейнеры с микросервисами. Конечно надоело, но там довольно старое всё, на заре докера сделано. Авто-масштабирования и такое всякое не нужны. Скорее решаются задачи резервирования. Кубернетес большой оверкилл для этого? или можно/нужно посмотреть/попробовать.

Google
Ivan
21.01.2017
19:43:46
Напахнуло мудростью. Сказать то чо хотел ?

Gleb
21.01.2017
20:22:34
Если не хочешь заморочек, то попробуй hashicorp Nomad

Gleb
21.01.2017
20:23:30
И то, не помню, решит ли все.

Roman
21.01.2017
23:59:49
хз, принято ли тут, но хочется высказать благодарность и респект @DenisIzmaylov за часть из тех материалов, которые отсматриваю на youtube крайнюю неделю. ну и всем привет, спасибо что когда-то добавили, начали созревать вопросы, правда, скорее, немного философского толка: а много кто здесь реально перешел на coreos подходы, начал использовать потому что знал конкретно чего именно хочет от платформы, а не "наткнулся и изучил, оказалось подходящим, а там привыкнем", ну и какие масштабы у реальных боевых штук (только не больших корпоративных облаках, где куча людей могут этим заниматься, а, скорее, о выборе для использования в проектах которые имеют выше среднего вычислительные нагрузки (по ощущениям, т.е., без цифр), но саппортится это все будет совсем небольшим количеством людей. ну и верно ли будет предположить что среди вас есть те кто коммитил во что-нибудь из частей coreos и его насадок?

Denis
22.01.2017
00:01:04
Мимими :) Всем вполный вперёд!

Roman
22.01.2017
00:07:28
Мимими :) Всем вполный вперёд!
форма очень удачная оказалась много годе (ну, первой стала 7я, вроде, лекция субботника, где части объясняются), знаешь, информативности там не сильно больше чем на сайте, но подается так что ты понимаешь концептуально, подходит ли для задачи и те ли дроиды что ищешь. в двух словах - еще для прошлого проекта (биллинговая штука одна), мы три года назад спроектировали архитектуру под которую не хватало инструментов (в итоге по части вещей пришлось обойтись полумерами, но, так или иначе, 600к действий над nosql за полторы секунды - это ок показатель на одном юните и отсутствие возможности вбивать костыли).

а теперь к вопросам: в конце первого сообщения философские вопросы почему-то интересны. 1. глобальный кэш etcd - ощущение, что к нему ни у кого нет критики вообще ни у кого, это нравится, но настораживает. хочется про траблы и "грабли" 2. недоработки, ограничения внутренних днс, что там с srv поддоменами, нескольким a записям или можно ли подружить с внешними днс (роут58, например) 3. вычислительно все красиво и здорово, но что курить для раздумления правил фэн-шуйного хранения данных (ок, шардинг, реплики...), а какие есть coreos ориентированые идеи для распределенных fs, хранилищах ключей и внутрикластерной CA, например (были кейсы, когда микросервисам внутри системы нельзя было доверять друг-другу и вообще все где фигурируют финансы нужно было подписывать, а в ряде случаев, шифровать при общении с кем угодно, навернякак кто-то это уже продумал). 4. какие реальные ощущения от скорости реакции кластера на то, что происходит с его содержимым (образно, если я запущу вагрантовый вариант coreos на десктопе, проброшу все порты к нему, добавлю в кластер и решу все сервисы готовить и обкатывать на локальной ноде кластера, а в продакшн оно улетает не по команде, а просто ради ресурсов и само же "множится до нужного количества и расселяется" после клонирования сервиса/пачки сервисов с признаками продакшн хотелок. странный кейс, но идею "ждать от кластера того что бы он продолжал себя вести идеально" описывает корректно, думаю.) 5. если верно понимаю, то у нод порты для "общения между собой" обычно торчат наружу и можно повынимать кучу разных конфигов просто зная что спрашивать (или мне показалось?)

6. есть способ окончательного раздупления подходов (не логически, а вот это ментальное противоборство, хз, у меня дискомфорт почему-то некий, то ли с непривычки, но пора бы уже, то ли потому что смотрю на этот "склад" как-то близко, но не совсем так, как положено джентельмену) формата 6*2*4 * 3env_ver = количество коробок

Fike
22.01.2017
00:27:20
Я нууб, вопрос такой. Есть 4-5 железных серверов, по которым рукми мигруют разные доккер конетейнеры с микросервисами. Конечно надоело, но там довольно старое всё, на заре докера сделано. Авто-масштабирования и такое всякое не нужны. Скорее решаются задачи резервирования. Кубернетес большой оверкилл для этого? или можно/нужно посмотреть/попробовать.
По личным ощущениям - с проектами попроще кубера выходило геморнее, чем с ним, кое-где вообще физически нет авторизации и возможности посмотреть, на какой порт забиндился сервис (не то чтобы тебе это по описанию было нужно, но может возникнуть другая аналогичная проблема). Лучше, конечно, попробовать, можно взять бесплатный триал в google cloud и попробовать его в деле пару дней.

Roman
22.01.2017
00:28:37
примерно такие. так важны нюансы потому, что coreos сильно соответствует некому набору потребностей некого подхода, который после внедрения крайне сильно сократит мне некие внешние "попоболи" (образно, если все будет работать как как заявлено, а классические и привычные инструменты, вроде всего что умеет днс =), обернутые сертами запросы, сквозной кэш которому плевать на мастера, автоподнималки и переселялки, ну и декларативное описание среды...) при этом, перед окончательным решением хочется убедиться что не появится неких дополнительных попоболей связаных не с "переходом" на coreos, а с "особенностями или некорректностями" реализаций чего-нибудь внутри системы

как-то так.

Страница 115 из 958