
Denis
17.08.2016
10:59:45
:))
Нормально!
Пойдет
Всё съедим

Google

Maxim
17.08.2016
11:00:07
ггг

Vadim
17.08.2016
11:01:39
Приветствую всех. Подскажите, есть ли возможность для реплик в deployment динамически выделять pv ?

Timothy
17.08.2016
11:02:26
у меня скрипт для бекапов на s3 с шифрованием через duplicity, в cloudconfig только включение сервиса и расписание:
script:
etcdctl backup -data-dir /var/lib/etcd2 -backup-dir /data/etcd2
docker run --rm -v /data/etcd2:/etcd2 -e "PASSPHRASE=${PASSPHRASE}" -e "AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}" -e "AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}" jqestate/duplicity duplicity --verbosity notice --allow-source-mismatch --s3-use-new-style --full-if-older-than 1W --asynchronous-upload /etcd2 "${S3_PREFIX}/etcd2"
coreos:
units:
- name: "backup.service"
content: |
[Unit]
Description=Backup
[Service]
ExecStart=/bin/bash /data/backup_to_s3.sh
[Install]
WantedBy=multi-user.target
- name: "backup.timer"
command: "start"
content: |
[Unit]
Description=Runs backup every day at 12 AM
[Timer]
OnCalendar=00:00
Persistent=true

Maxim
17.08.2016
11:04:48
@ktimothy а что у тебя в /data/etcd2 после etcdctl backup?

Timothy
17.08.2016
11:06:14
такая же структура как в /var/lib/etcd2

Maxim
17.08.2016
11:08:08
а у меня - не совсем
etcdctl backup --data-dir=/var/lib/etcd --backup-dir=./backup
# tree backup/
backup/
└── member
├── snap
│ └── 000000000000000c-0000000001495168.snap
└── wal
└── 0000000000000000-0000000000000000.wal
# tree /var/lib/etcd/
/var/lib/etcd/
└── member
├── snap
│ ├── 000000000000000c-000000000148b524.snap
│ ├── 000000000000000c-000000000148dc35.snap
│ ├── 000000000000000c-0000000001490346.snap
│ ├── 000000000000000c-0000000001492a57.snap
│ ├── 000000000000000c-0000000001495168.snap
│ └── db
└── wal
├── 000000000000004f-000000000147cc02.wal
├── 0000000000000050-0000000001481e35.wal
├── 0000000000000051-0000000001487068.wal
├── 0000000000000052-000000000148c275.wal
├── 0000000000000053-0000000001491499.wal
└── 0.tmp
как видишь, в папке backup не хватает файлика member/snap/db
и без этого этот быкап невалиден

Timothy
17.08.2016
11:11:37
inderesding

Maxim
17.08.2016
11:12:17
# etcd --data-dir backup/ --listen-peer-urls http://localhost:23800 --listen-client-urls 'http://localhost:23790' --advertise-client-urls 'http://localhost:23790'
...
2016-08-17 14:11:48.835088 I | etcdmain: stopping listening for client requests on localhost:23790
2016-08-17 14:11:48.835119 I | etcdmain: stopping listening for peers on http://localhost:23800
2016-08-17 14:11:48.835135 C | etcdmain: database file (backup/member/snap/db) of the backend is missing
@ktimothy ты проверь, может ты тоже воздух быкапишь ;)

Timothy
17.08.2016
11:13:15
я брал пример с https://coreos.com/etcd/docs/latest/admin_guide.html, сейчас сделаю restore внутри игрового сервера на vmware

Google

Maxim
17.08.2016
11:14:35
да просто запусти етцд на кастомных портах с бэкапом в качестве датадира

Timothy
17.08.2016
11:19:01
таки да, это же было актуально для старого etcd, там в доке -force-new-cluster опция, которой нет в v2

Maxim
17.08.2016
11:21:14
так как, получилось у тебя стартовать?


Timothy
17.08.2016
11:23:10
нет, ты прав, после restore etcd2 уже не запустить. хорошо, что для k8s есть все манифесты и потеря стейта в etcd2 не принесло бы горя, сейчас и поправлю скрипт
хотя нет, это я что-то не так делаю, в тех же офф скриптах делают бекап как и я: https://github.com/coreos/etcd/blob/master/contrib/systemd/etcd2-backup-coreos/etcd2-backup.service#L12
забавно, но теперь etcd2 просто валится с паникой:
panic: runtime error: index out of range
goroutine 59 [running]:
github.com/coreos/etcd/raft.(*raft).maybeCommit(0xc8201c23c0, 0xc8201dc6c0)
/build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/raft.go:382 +0x2fd
github.com/coreos/etcd/raft.(*raft).removeNode(0xc8201c23c0, 0xce2a822cea30bfca)
/build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/raft.go:842 +0x59
github.com/coreos/etcd/raft.(*node).run(0xc8201f9e00, 0xc8201c23c0)
/build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/node.go:330 +0xc8f
created by github.com/coreos/etcd/raft.RestartNode
/build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/node.go:215 +0x2e3
goroutine 1 [chan receive]:
as always
https://github.com/coreos/etcd/issues/5360 отлично, stable релиз все еще с этой багой
а опция --force-new-cluster как раз у etcd2, я первый раз запустил etcd v1 и получил ошибку, так что метод должен работать, если etcdctl backup будет с фиксом бага выше


Maxim
17.08.2016
11:34:32
--force-new-cluster тоже не помогает
короче, бэкапов сейчас нет
фаталити-юзабилити :(

Timothy
17.08.2016
11:36:31
фаталити-юзабилити :(
у меня такое было с k8s, когда я сразу поставил 1.3 и огреб паники и “гонки” во время монтирования секретов для контейнеров

Maxim
17.08.2016
11:36:52
с 1.3 у меня тут тоже есть странности

Timothy
17.08.2016
11:37:11
kubelet с ошибками монтирования?

Maxim
17.08.2016
11:37:15
1.3.{1,2,3,4} работают
запускаю 1.3.5 и получаю ошибки про CNI
и ничего не работает

Timothy
17.08.2016
11:38:25
Calico?
у меня flannel и все “ок”*

Google

Maxim
17.08.2016
11:38:57
weave

Timothy
17.08.2016
11:42:01
вообще k8s пугает количеством багов с паникой https://github.com/kubernetes/kubernetes/issues?utf8=%E2%9C%93&q=is%3Aissue%20is%3Aopen%20panic

Ivan
17.08.2016
11:50:29

Timothy
17.08.2016
11:51:47
спасибо! как раз обновление до версии 1.3.4 решило проблему
но теперь не буду обновляться еще месяцев 5

Ivan
17.08.2016
11:52:45
чуть не опух, пока e2e тест писал для этого race, сейчас на review

Ivan
17.08.2016
13:34:41

Maxim
17.08.2016
13:44:44
а кто его подхватывал?
или ты кореосы на баре-метал наливал?

Andrey
17.08.2016
14:48:43
народ, возможно у меня ламерский вопрос, но как вы делаете апдейты?
вот я создал "kind: Deployment" и загрузил его
в спеке написано что деплоймент произойдет (поды перезапустятся) если что-то изменится в spec.template.*
ок, заинкризил spec.template.metadata.labels.version и выполнил "kubectl apply -f file.yaml"
натолкнулся на эту ишьюсу: https://github.com/kubernetes/kubernetes/issues/26202
я что-то неправильно сделал? а как правильно выкатить новую версию при условии что не менялся имадж и все остальное?
юзкейс: висит фронтендом nginx и к нему подключен конфигсет с конфигурацией... конфигурацию я обновил, теперь хочу чтобы сервер перезапустился graceful

Maxim
17.08.2016
14:50:26
под пристрели
репликасет поднимет новый

Andrey
17.08.2016
14:51:00
ну это вроде как "хак" и должен существовать способ деплоя?
учитывая что пока он его поднимает сервис будет недоступен

Maxim
17.08.2016
14:51:37
а там replica: 1?

Andrey
17.08.2016
14:51:41
угу
было бы "10" - каждый руками пришлось? кмон, это ж канал с девопсами а мы все ленивые :)
ладно, в данном случае добавил "annotations: *" и его буду менять

Ivan
17.08.2016
19:11:38

Google

Ivan
17.08.2016
19:12:04
Правда, я потом отошел на iPXE, а потом просто забил) денег за это не платят :(

Maxim
17.08.2016
19:13:07
а как же рейды там всякие, lvm и вот это все

Ivan
17.08.2016
19:13:11
@pipopolam вам программисты на го не нужны? Инфраструктурные

Maxim
17.08.2016
19:13:16
чего кореос не умеет

Ivan
17.08.2016
19:13:25

Maxim
17.08.2016
19:16:03

Ivan
17.08.2016
21:15:14

Maxim
18.08.2016
09:11:37

Timothy
18.08.2016
09:14:35
не, я вообще не передаю опции для cni, у меня docker работает через flannel, а k8s вообще о нем ничего не знает

Maxim
18.08.2016
09:15:55
вроде в новой фланели можно как-то обойти эту чудовищную схему

Timothy
18.08.2016
09:16:38
после выхода 1.4 попробую избавиться от докера в пользу rkt и попробую тогда network плагины

Maxim
18.08.2016
09:16:48
о, ничоси
а в чем пойнт?

Timothy
18.08.2016
09:17:17
чтобы меньше паников в докере огребать

Maxim
18.08.2016
09:17:37
в каком смысле?

Timothy
18.08.2016
09:17:50
не знаю как, но часто он просто валится с паникой и большинство процессов вместе с ним

Maxim
18.08.2016
09:17:59
докер-демон?

Timothy
18.08.2016
09:18:00
в логах ничего такого нет, чтобы это был oom

Google

Timothy
18.08.2016
09:18:21
у меня на мастере пока 1.10

Maxim
18.08.2016
09:18:24
однако о_О
я такого пока ни разу не встречал

Timothy
18.08.2016
09:19:15
а у меня уже под 20 issues на github, где я подписан на обновления
и 1.11 уже тащит с собой части k8s

Maxim
18.08.2016
09:19:37
у меня так с кубернетесом ;)

Timothy
18.08.2016
09:19:43
тот же резолвер