Maksim
Anonymous
эх, в describe нет ничего, в journalctl на ноде ничего непонятно но навскидку ничего необычного 😵
Alex Sharov
а тут правда такой простой деплоймент?)
kubectl create -f <file>
kubectl describe deployment <name>
Alex Sharov
Сейчас подеплоить в гугл и все даже заработало
Anonymous
да, я тоже на это купился в свое время 🙂 беги пока не поздно... (шутка)
Maksim
Maksim
не может быть)
Anonymous
методом исключения я понял в чем ошибка - рединесчек не срабатывал
Anonymous
но почему контейнер не инициализировался из-за этого и где я это должен был увидеть так и не понял
Anonymous
скорее всего какая-то хитрая логика в сайдкаре, типа ждет чека... но есть не чисто кубернетес ишью
Grigory
отличный бот
bebebe
боги маркетинга конечно
Mikhail [azalio]
кто-нибудь поднимал gitlab-runner в кубере?
Mikhail [azalio]
https://gitlab.com/gitlab-org/gitlab-ce/issues/37807 - у меня подобная проблема
Dmitry
думаю проблема не в к8с
Dmitry
у меня все ок
Dmitry
токен верный?
Dmitry
надо взять токен из гитлаба -> сделать gitlab-runner register с ним -> использовать сгенерированный /etc/gitlab-runner/config.toml
Dmitry
засунуть токен из гитлаба сразу в config.toml не выйдет
Dmitry
@azalio
Mikhail [azalio]
вручную получилось зарегить да
Mikhail [azalio]
но фигня это какая-то извините ) @drubtsov
Dmitry
Mikhail [azalio]
вручную ходить на созданный под чтобы регистрировать руннер
Dmitry
такая архитектура раннера
Dmitry
я локально в докере запускаю, генерирую конфиг и сую в контейнер
Mikhail [azalio]
сам конфиг генериться
Mikhail [azalio]
в том то и дело
Mikhail [azalio]
с помощью конфиг-мапа
Mikhail [azalio]
но если вручную на под не сходить - ничего не получается
Mikhail [azalio]
и потом конфиг-мап опять применяется, хм
Mikhail [azalio]
и опять 403
Mikhail [azalio]
пойду сравнивать файлы
Mikhail [azalio]
оу, оно токен другой выписывает, не тот который дается на страничке в гитлабе. Он получается только для регистрации ноды
Dmitry
ну исправь конфиг мап в соответствии с конфигом
Dmitry
Mikhail [azalio]
ппц не натурально )
Mihail
Господа развертываеющие кубернетис, а на какой версии докера вы это делаете? а то я нашел что они рекомендуют 1.12.6
https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG.md#external-dependency-version-information
Mihail
его ж еще выкапывать из архивов приходится
Anton
1.8 beta поддеживает docker 1.13.х
уж не знаю можно ли доверять их бетам
Sergey
они уже умеют и без докера)
Sergey
ну так к свединию
Sergey
так девайс маппер они сильно не рассматривают как сторедж
Eugene
А что тогда рассматривают?
Sergey
сейчас оверлейфс активно развивают и популизируют
Sergey
у них сейчас в его сторону идет активная разработка
Anonymous
а вот еще вопрос:
template:
metadata:
labels:
chart: "{{ .Chart.Name }}-{{ .Chart.Version }}"
app: {{ template "fullname" . }}
component: data
...
affinity:
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- topologyKey: "kubernetes.io/hostname"
labelSelector:
matchLabels:
component: data
app: "{{ template "fullname" . }}"
однако, при обновлении кластера (перезпуске нод) все поды скопились на одной ноде
я чего-то недопонимаю в шедулинге, или где-то косяк у меня в описании антиаффинити?
Anonymous
вопрос снимается с повестки дня, походу конфиг правильный просто старая версия раскатывалась на кластере в которой не предусмотрены антиаффинити
Alex Sharov
Привет народ.
А подскажите пожалуйста в чем проблема.
Создал nfs волум в gce, и попытался примонтировать вот так:
volumeMounts:
- mountPath: /tmp
name: backend-pd
volumes:
- name: backend-pd
gcePersistentDisk:
pdName: gce-nfs-disk
fsType: ext4
Alex Sharov
на что получил:
Error syncing pod, skipping: timeout expired waiting for volumes to attach/mount for pod "default"/"backend-1705969757-m7tzp". list of unattached/unmounted volumes=[backend-pd]
Alex Sharov
разобрался
Anton
вопрос по projected volume, тут https://kubernetes.io/docs/api-reference/v1.7/#secretprojection-v1-core сказано:
If specified, the listed keys will be projected into the specified paths
но чет не удается туда что то кроме строки задать:
error validating data: expected type string, for field spec.template.spec.volumes[0].projected.sources[1].secret.items[0].key, got slice
Dmitriy
Привет, всем! У меня сетка flannel. Контейнеры находящиеся на разных узлах не видят друг друга, при этом видят шлюзы. Может кто сталкивался. Не могу понять в чм причина. :(
Maksim
сетка не работает
Maksim
шлюз находится на той же машине, а вот l3 уже не работает.
Maksim
смотри что творится на фаервалле и tcpdump что есть на интерфейсах
Mikhail [azalio]
Maksim
как он может быть отключён????
Maksim
ipfilter это часть ядра линукс
Maksim
ты не можешь выключить его, только пересборкой яюра и выключением части модулей
Dmitriy
я имею в виду загрузку скрипта /etc/sysconfig/iptables
Maksim
правда они так глубоко прописаны в сетевой стек того же яжра, что я не уверен, что сеть после этого вообще заработает
Maksim
что говорит iptables -L
Dmitriy
Chain FORWARD (policy DROP 2 packets, 184 bytes)
pkts bytes target prot opt in out source destination
807 66738 DOCKER-ISOLATION all — * * 0.0.0.0/0 0.0.0.0/0
798 65982 DOCKER all — * docker0 0.0.0.0/0 0.0.0.0/0
2 168 ACCEPT all — * docker0 0.0.0.0/0 0.0.0.0/0 ctstate RELATED,ESTABLISHED
9 756 ACCEPT all — docker0 !docker0 0.0.0.0/0 0.0.0.0/0
0 0 ACCEPT all — docker0 docker0 0.0.0.0/0 0.0.0.0/0
Maksim
Chain FORWARD (policy DROP 2 packets, 184 bytes)
Dmitriy
через DROP прошло всего 2 пакета, а пинги на удаленные узлы я запускал сотню раз
Maksim
Поставь ACCEPT
Maksim
и два у тебя правила не пропускают flannel
Maksim
только докер
Maksim
так что всё норм
Maksim
я вижу что прописаны правила для входа-выхода покетов сквозь docker0
Maksim
и всё
Maksim
остальное в drop
Maksim
и я просил iptables -L
Maksim
а не iptables -L FORWARD
Sergey
ну так если вы юзали дефолтную инсталяцию докера, то у него дроп политика на форвард
Sergey
он вообще берет монапольно нетфильтер в эксплуатацию