@kubernetes_ru

Страница 272 из 958
Kvendingoldo
18.09.2017
13:35:59
там будут лежать секреты/проперти

Сергей
18.09.2017
13:36:35
kubectl get storageclasses

покажите

а кластера же нет еще)

Google
Kvendingoldo
18.09.2017
13:37:22
ну я руками его создал, даже запустил там simpleHttpServer

➜ ~ kubectl get storageclasses NAME TYPE standard (default) kubernetes.io/gce-pd

Kaspar
18.09.2017
13:37:25
там будут лежать секреты/проперти
Лучше secrets и использовать. Либо сторонний vault

Kvendingoldo
18.09.2017
13:37:32
но понимания от этого не прибавилось

Danich
18.09.2017
13:47:49
Привет всем! История такая: Поднял у себя кубы из 4х нод, по инструкции: ( https://www.linuxtechi.com/install-kubernetes-1-7-centos7-rhel7/#comment-1221 ). Поставил дашбоард. Пытаюсь развернуть consul по инструкции: (https://github.com/kelseyhightower/consul-on-kubernetes ), но уперся в то, что после шага: kubectl create -f statefulsets/consul.yaml # kubectl get pods,rc NAME READY STATUS RESTARTS AGE po/consul-0 0/1 Pending 0 9m Дашбоард говорит, что: PersistentVolumeClaim is not bound: "data-consul-0" (repeated 4 times) Ямл волюма: https://pastebin.com/LbSUQ4r6

мб как-нибудь закреэйтить отдельно волюм?

Fike
18.09.2017
13:52:25
Добрый день господа. А подскажите пожалуйста как проще всего деплоить приложение в google container engine с помощью terraform?
деплой приложения в куб производится через kubectl и аналоги. безусловно, можно подцепить что-то еще на апишку кубера, но совершенно точно не нужно это делать через инструмент провизии хостов.

там будут лежать секреты/проперти
у куба есть встроенный функционал по хранению и предоставленнию секретов приложениям, при использовании вольюм не потребуется

Maksim
18.09.2017
13:57:22
мб как-нибудь закреэйтить отдельно волюм?
если нету dinamic provision то да..ручками надо

Danich
18.09.2017
14:00:33
Судя по ману, должно само все запилиться

Однако

Maksim
18.09.2017
14:02:55
видимо уних там был настроен dinamic volume provision

Andrey
18.09.2017
14:02:58
при запуске стейтфулстет зависает в 'init1/2' - похоже на ошибку в initcontainers... а как ее можно отдебажить? где-то логи выцепить?

Google
Maksim
18.09.2017
14:03:01
и они забыли об это сказать)

Это сплош и рядом в доках по куберу в частности и по Опен Сурсу в принцепе

Andrey
18.09.2017
14:13:11
эх, в describe нет ничего, в journalctl на ноде ничего непонятно но навскидку ничего необычного ?

Kvendingoldo
18.09.2017
14:27:40
а тут правда такой простой деплоймент?) kubectl create -f <file> kubectl describe deployment <name>

Сейчас подеплоить в гугл и все даже заработало

Andrey
18.09.2017
14:36:15
да, я тоже на это купился в свое время ? беги пока не поздно... (шутка)

Andrey
18.09.2017
14:41:06
методом исключения я понял в чем ошибка - рединесчек не срабатывал

но почему контейнер не инициализировался из-за этого и где я это должен был увидеть так и не понял

скорее всего какая-то хитрая логика в сайдкаре, типа ждет чека... но есть не чисто кубернетес ишью

Grigory
18.09.2017
17:08:47
отличный бот

bebebe
18.09.2017
17:09:02
отличный бот
заебись да страдания закладчиков

боги маркетинга конечно

Mikhail
18.09.2017
19:17:40
кто-нибудь поднимал gitlab-runner в кубере?

https://gitlab.com/gitlab-org/gitlab-ce/issues/37807 - у меня подобная проблема

Dmitry
18.09.2017
19:21:07
думаю проблема не в к8с

у меня все ок

токен верный?

Google
Dmitry
18.09.2017
19:23:10
надо взять токен из гитлаба -> сделать gitlab-runner register с ним -> использовать сгенерированный /etc/gitlab-runner/config.toml

засунуть токен из гитлаба сразу в config.toml не выйдет

@azalio

Mikhail
18.09.2017
19:24:30
вручную получилось зарегить да

но фигня это какая-то извините ) @drubtsov

Mikhail
18.09.2017
19:25:49
вручную ходить на созданный под чтобы регистрировать руннер

Dmitry
18.09.2017
19:26:10
такая архитектура раннера

я локально в докере запускаю, генерирую конфиг и сую в контейнер

Mikhail
18.09.2017
19:27:22
сам конфиг генериться

в том то и дело

с помощью конфиг-мапа

но если вручную на под не сходить - ничего не получается

и потом конфиг-мап опять применяется, хм

и опять 403

пойду сравнивать файлы

оу, оно токен другой выписывает, не тот который дается на страничке в гитлабе. Он получается только для регистрации ноды

Mikhail
18.09.2017
19:31:39
ппц не натурально )

Google
Mihail
19.09.2017
07:08:13
Господа развертываеющие кубернетис, а на какой версии докера вы это делаете? а то я нашел что они рекомендуют 1.12.6 https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG.md#external-dependency-version-information

его ж еще выкапывать из архивов приходится

Anton
19.09.2017
08:57:17
1.8 beta поддеживает docker 1.13.х уж не знаю можно ли доверять их бетам

Сергей
19.09.2017
08:57:47
они уже умеют и без докера)

ну так к свединию

Let Eat
19.09.2017
09:02:02
они уже умеют и без докера)
в cri-o storage drivers годичной давности, без фиксов в devicemapper

Сергей
19.09.2017
09:02:36
так девайс маппер они сильно не рассматривают как сторедж

Eugene
19.09.2017
09:10:44
А что тогда рассматривают?

Сергей
19.09.2017
09:11:27
сейчас оверлейфс активно развивают и популизируют

у них сейчас в его сторону идет активная разработка

Andrey
19.09.2017
10:13:14
а вот еще вопрос: template: metadata: labels: chart: "{{ .Chart.Name }}-{{ .Chart.Version }}" app: {{ template "fullname" . }} component: data ... affinity: podAntiAffinity: requiredDuringSchedulingIgnoredDuringExecution: - topologyKey: "kubernetes.io/hostname" labelSelector: matchLabels: component: data app: "{{ template "fullname" . }}" однако, при обновлении кластера (перезпуске нод) все поды скопились на одной ноде я чего-то недопонимаю в шедулинге, или где-то косяк у меня в описании антиаффинити?

вопрос снимается с повестки дня, походу конфиг правильный просто старая версия раскатывалась на кластере в которой не предусмотрены антиаффинити

Kvendingoldo
19.09.2017
12:19:31
Привет народ. А подскажите пожалуйста в чем проблема. Создал nfs волум в gce, и попытался примонтировать вот так: volumeMounts: - mountPath: /tmp name: backend-pd volumes: - name: backend-pd gcePersistentDisk: pdName: gce-nfs-disk fsType: ext4

на что получил: Error syncing pod, skipping: timeout expired waiting for volumes to attach/mount for pod "default"/"backend-1705969757-m7tzp". list of unattached/unmounted volumes=[backend-pd]

разобрался

Anton
19.09.2017
14:20:53
вопрос по projected volume, тут https://kubernetes.io/docs/api-reference/v1.7/#secretprojection-v1-core сказано: If specified, the listed keys will be projected into the specified paths но чет не удается туда что то кроме строки задать: error validating data: expected type string, for field spec.template.spec.volumes[0].projected.sources[1].secret.items[0].key, got slice

Дмитрий
19.09.2017
14:34:34
Привет, всем! У меня сетка flannel. Контейнеры находящиеся на разных узлах не видят друг друга, при этом видят шлюзы. Может кто сталкивался. Не могу понять в чм причина. :(

Maksim
19.09.2017
14:38:02
сетка не работает

шлюз находится на той же машине, а вот l3 уже не работает.

смотри что творится на фаервалле и tcpdump что есть на интерфейсах

Google
Дмитрий
19.09.2017
14:42:06
Iptables forward политика какая?
DROP, но iptables у меня отключен

Maksim
19.09.2017
14:46:22
как он может быть отключён????

ipfilter это часть ядра линукс

ты не можешь выключить его, только пересборкой яюра и выключением части модулей

Дмитрий
19.09.2017
14:47:23
я имею в виду загрузку скрипта /etc/sysconfig/iptables

Maksim
19.09.2017
14:47:28
правда они так глубоко прописаны в сетевой стек того же яжра, что я не уверен, что сеть после этого вообще заработает

что говорит iptables -L

Дмитрий
19.09.2017
14:48:38
Chain FORWARD (policy DROP 2 packets, 184 bytes) pkts bytes target prot opt in out source destination 807 66738 DOCKER-ISOLATION all — * * 0.0.0.0/0 0.0.0.0/0 798 65982 DOCKER all — * docker0 0.0.0.0/0 0.0.0.0/0 2 168 ACCEPT all — * docker0 0.0.0.0/0 0.0.0.0/0 ctstate RELATED,ESTABLISHED 9 756 ACCEPT all — docker0 !docker0 0.0.0.0/0 0.0.0.0/0 0 0 ACCEPT all — docker0 docker0 0.0.0.0/0 0.0.0.0/0

Maksim
19.09.2017
14:49:39
Chain FORWARD (policy DROP 2 packets, 184 bytes)

Дмитрий
19.09.2017
14:49:42
через DROP прошло всего 2 пакета, а пинги на удаленные узлы я запускал сотню раз

Maksim
19.09.2017
14:50:05
Поставь ACCEPT

и два у тебя правила не пропускают flannel

только докер

так что всё норм

я вижу что прописаны правила для входа-выхода покетов сквозь docker0

и всё

остальное в drop

и я просил iptables -L

а не iptables -L FORWARD

Страница 272 из 958