@kubernetes_ru

Страница 430 из 958
Anton
15.02.2018
10:53:48
а роль то есть такая?

она вроде "cluster-admin"

Denis
15.02.2018
10:56:14
А CRI-O какие варианты предлагает по логам кстати?

Andrey
15.02.2018
10:56:56
она вроде "cluster-admin"
спасибо, похоже вы правы)

Google
Denis
15.02.2018
10:58:36
в файл?

или там плагины

?

Vadim
15.02.2018
10:59:04
да, в файл

ну и https://github.com/kubernetes-incubator/cri-o/issues/377

Denis
15.02.2018
10:59:24
спасибо почитаю

kvaps
15.02.2018
11:13:31
Блин, какой кубернетес все таки крутой..

Sergey
15.02.2018
11:13:49
kvaps
15.02.2018
11:13:55
:)

чем больше погружаешься тем больше любви излучаешь к нему)

самое сложное - это пройти стадию отторжения в самом начале пути

Sergey
15.02.2018
11:15:29
Google
kvaps
15.02.2018
11:16:34
догадываюсь у такого сумбурно развивающегося проекта навенрняка такой же сумбурный код.

Но я не за реализацию я больше за идею

Aleksey
15.02.2018
11:26:24
чем больше погружаешься тем больше любви излучаешь к нему)
ну это пока в 2 ночи все не ляжет и с ходу хз что делать ))

Алексей
15.02.2018
12:03:46
как ограничить видимое количество cpu ( ядер ) в поде?

Maksim
15.02.2018
12:09:34
resources limits

Sergey
15.02.2018
12:15:28
пока в исходники не залезешь
ну там не все так плохо на самом деле)

Vadim
15.02.2018
12:19:22
ну там не все так плохо на самом деле)
https://medium.com/@arschles/go-experience-report-generics-in-kubernetes-25da87430301 например

Denis
15.02.2018
12:23:50
The Kubernetes type system is built at runtime, so type checks must be done at runtime

Лол

You dawg, I heard you like runtimes so we took what usually happens during compilation and put it inside your runtime.

Tony
15.02.2018
12:25:36
Поднял Minio в k8s. Он отвечает в 2 раза дольше, чем если поднять через docker run. Kubernetes ставил через kubespray, Network plugin: flannel. Как мне это чудо дебагать?

Айбелив
15.02.2018
12:28:54
ну это пока в 2 ночи все не ляжет и с ходу хз что делать ))
нужно играть на опережение и самому всё сломать, но днём

Vladislav
15.02.2018
12:30:12
https://medium.com/@arschles/go-experience-report-generics-in-kubernetes-25da87430301 например
Эти проблемы не решают дженериками. Ну и на самом деле все нормально. Как бы нет другого нормально способа делать RPC не в рантайме. Просто не самый приятный интерфейс, точнее недостаточно документированный раз у человека возникли проблемы.

Айбелив
15.02.2018
12:30:47
я слышал, что за это слово банят в некоторых чатах

Vadim
15.02.2018
12:30:55
>Ну и на самом деле все нормально стадия первая: отрицание =)

не знаю как решить - дженериками или переписыванием на расте, я только осветил проблему

Vladislav
15.02.2018
12:32:41
Проблема - чувак не понял как делать. Решение - документация и примеры.

Vadim
15.02.2018
12:34:43
да-да, просто опишем в доках что нужно делать - и проблема исчезла

Алексей
15.02.2018
12:40:44
Resource limits cpu?

Это ограничение количества процесорного времени А мне нужно чтобы под видел ограниченное количество процессоров Не все 64 а только 4

Google
Fike
15.02.2018
12:49:24
такого нет в докере
Limit the specific CPUs or cores a container can use. A comma-separated list or hyphen-separated range of CPUs a container can use, if you have more than one CPU. The first CPU is numbered 0. A valid value might be 0-3 (to use the first, second, third, and fourth CPU) or 1,3 (to use the second and fourth CPU).

Aleksey
15.02.2018
12:59:31
нужно играть на опережение и самому всё сломать, но днём
Ну так и делаем. Но надо отдать должное - сломать сложно

Andrey
15.02.2018
13:29:09
а вы таски по расписанию запускаете юзая кронджобс, или внешней хренью разруливаете?

Let Eat
15.02.2018
13:36:42
как ограничить видимое количество cpu ( ядер ) в поде?
Никак, 99% читают /proc/cpuinfo а оно с хоста. Можно лечить LD_PRELOAD в теории, наверняка у кого нибудь есть уже. 1% делает умно и читает sched_get affinity (jvm 8 кажется так делает тоже), а значит можно заставить "увидеть" при помощи нового CPUManager (включается в kubelet) корректное количество CPU

Sergey
15.02.2018
13:38:08
под каким юзером стартуете поды на coreos?

nobody/nogroup?

noname
15.02.2018
13:38:40
Всем привет. Подскажите есть ли возможность отключить создание автоматических правил iptables и использовать свои?

Denis
15.02.2018
13:40:18
не ставь kube-proxy

на ноду

Алексей
15.02.2018
13:41:00
@rossmohax спасибо

noname
15.02.2018
13:41:31
а если всего 2 физических сервера в режиме мультимастер?

Elia
15.02.2018
13:43:09
господа, а никто не сталкивался с тем, что при превышении лимитов по памяти/cpu одного из подов, перезапускается весь репликасет?

Maksim
15.02.2018
13:45:00
господа, а никто не сталкивался с тем, что при превышении лимитов по памяти/cpu одного из подов, перезапускается весь репликасет?
Крайне странно. Учитывая что механизм работает иначее..Контейнер убивается oom_killer'ом а повторно его запускает уже кублет

Elia
15.02.2018
13:46:12
Крайне странно. Учитывая что механизм работает иначее..Контейнер убивается oom_killer'ом а повторно его запускает уже кублет
почему-то в итоге убивается весь под из 3-х контейнеров (ну это ладно фиг с ним), но вместе с ним убивается и вторая реплика, которая не получала такого сигнала, потому что не превышала лимитов

Google
Aleksey
15.02.2018
15:13:13
Чятик, подскажите, могу ли я в один сервис запихнуть больше одного селектора? Хочу 22 порт пускать напрямую в приложение, а 80/443 через проксю.

Гугл говорит, что я не могу сделать это в рамках одного сервиса. А как в таком случае это сделать?

Andrey
15.02.2018
15:35:25
сделать два сервиса, не?

Aleksey
15.02.2018
15:54:55
@yourallah @gorilych разные ip же будут

Andrey
15.02.2018
15:55:55
а надо обязательно одинаковый?

Aleksey
15.02.2018
15:56:39
Да. Есть сервис в который для веба мне надо воткнуть проксю и ничего никому не сломать :)

Andrey
15.02.2018
16:03:48
исходная ситуация какая? Есть поды, в которые сейчас сервисом перенаправляются 22,80,443. Этим сервисом пользутся каким-то образом по его ip. Вы хотите теперь 80 и 443 перенаправить на другие поды. Я правильно понял?

Aleksey
15.02.2018
16:11:06
исходная ситуация какая? Есть поды, в которые сейчас сервисом перенаправляются 22,80,443. Этим сервисом пользутся каким-то образом по его ip. Вы хотите теперь 80 и 443 перенаправить на другие поды. Я правильно понял?
исходно — есть фабрикатор, один под. Надо воткнуть в веб проксю, но не сломать хождение по fqdn для гита. Соответственно git на 22 порту, веб на 80,443.

Andrey
15.02.2018
16:11:50
веб прокся будет отдельный под?

Aleksey
15.02.2018
16:12:41
веб прокся будет отдельный под?
да, она уже существует для других сервисов

Andrey
15.02.2018
16:18:36
можно попробовать через указание endpoints вручную для сервиса

сервис с пустым селектором

apiVersion: v1 kind: Service metadata: name: testservice spec: ports: - port: 22 protocol: TCP name: ssh - port: 80 protocol: TCP name: http selector: {} —- kind: Endpoints apiVersion: v1 metadata: name: testservice subsets: - addresses: - ip: 10.104.195.18 ports: - port: 22 - addresses: - ip: 10.98.31.226 ports: - port: 80

Stanislav
15.02.2018
16:39:11
На GKE персистентный сторадж надо выделять на уровне создания KE кластера или на уровне подов?

Или там делаешь кластер, а потом аттачишь туда persistent volume?

Google
Andrey
15.02.2018
16:41:28
да, к сожалению

https://github.com/kubernetes/kubernetes/issues/13358

в таком случае стоит закрепить ip в определениях нижележащих сервисов

но мне всё-таки кажется, что вы хотите странного и стоит это странное пересмотреть

Andrey
15.02.2018
16:48:52
оно уже вроде как есть у него

используется в другом месте

я так понимаю, какая-то утилита может ходит в git по ssh и по http(s), и использует для этого один адрес. Надо http(s) трафик направить в обход

если эта утилита внешняя по отношению к кластеру, можно было бы через один LB это сделать

жаль, в k8s нет внутреннего LB

Aleksey
15.02.2018
16:53:58
а если вебпроксю засунуть отдельным контейнером в этот под?
эта прокся уже проксирует десяток других http-приложений, звучит как ещё большая боль

Andrey
15.02.2018
16:55:14
это не возможно в моей ситуации :(
ну тогда используйте текущие, если сервисы не пересоздавать, то они вроде как стабильные. но это костыль

Vadim
15.02.2018
16:55:29
жаль, в k8s нет внутреннего LB
в опеншифте есть routes, где сразу днс резолвиться

открываешь http порт, а haproxy уже опционально навесит https

Andrey
15.02.2018
16:56:35
Да просто юзеры.
внутри overlay network?

Aleksey
15.02.2018
16:56:38
ну тогда используйте текущие, если сервисы не пересоздавать, то они вроде как стабильные. но это костыль
текущие меняются на апдейтах, например. А пересоздавать сущность каждый раз это оверкил

Страница 430 из 958