@kubernetes_ru

Страница 6 из 958
Denis
17.08.2016
10:59:45
:))

Нормально!

Пойдет

Всё съедим

Google
Maxim
17.08.2016
11:00:07
ггг

Vadim
17.08.2016
11:01:39
Приветствую всех. Подскажите, есть ли возможность для реплик в deployment динамически выделять pv ?

Timothy
17.08.2016
11:02:26
у меня скрипт для бекапов на s3 с шифрованием через duplicity, в cloudconfig только включение сервиса и расписание: script: etcdctl backup -data-dir /var/lib/etcd2 -backup-dir /data/etcd2 docker run --rm -v /data/etcd2:/etcd2 -e "PASSPHRASE=${PASSPHRASE}" -e "AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}" -e "AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}" jqestate/duplicity duplicity --verbosity notice --allow-source-mismatch --s3-use-new-style --full-if-older-than 1W --asynchronous-upload /etcd2 "${S3_PREFIX}/etcd2" coreos: units: - name: "backup.service" content: | [Unit] Description=Backup [Service] ExecStart=/bin/bash /data/backup_to_s3.sh [Install] WantedBy=multi-user.target - name: "backup.timer" command: "start" content: | [Unit] Description=Runs backup every day at 12 AM [Timer] OnCalendar=00:00 Persistent=true

Maxim
17.08.2016
11:04:48
@ktimothy а что у тебя в /data/etcd2 после etcdctl backup?

Timothy
17.08.2016
11:06:14
такая же структура как в /var/lib/etcd2

Maxim
17.08.2016
11:08:08
а у меня - не совсем

etcdctl backup --data-dir=/var/lib/etcd --backup-dir=./backup # tree backup/ backup/ └── member ├── snap │ └── 000000000000000c-0000000001495168.snap └── wal └── 0000000000000000-0000000000000000.wal # tree /var/lib/etcd/ /var/lib/etcd/ └── member ├── snap │ ├── 000000000000000c-000000000148b524.snap │ ├── 000000000000000c-000000000148dc35.snap │ ├── 000000000000000c-0000000001490346.snap │ ├── 000000000000000c-0000000001492a57.snap │ ├── 000000000000000c-0000000001495168.snap │ └── db └── wal ├── 000000000000004f-000000000147cc02.wal ├── 0000000000000050-0000000001481e35.wal ├── 0000000000000051-0000000001487068.wal ├── 0000000000000052-000000000148c275.wal ├── 0000000000000053-0000000001491499.wal └── 0.tmp

как видишь, в папке backup не хватает файлика member/snap/db

и без этого этот быкап невалиден

Timothy
17.08.2016
11:11:37
inderesding

Maxim
17.08.2016
11:12:17
# etcd --data-dir backup/ --listen-peer-urls http://localhost:23800 --listen-client-urls 'http://localhost:23790' --advertise-client-urls 'http://localhost:23790' ... 2016-08-17 14:11:48.835088 I | etcdmain: stopping listening for client requests on localhost:23790 2016-08-17 14:11:48.835119 I | etcdmain: stopping listening for peers on http://localhost:23800 2016-08-17 14:11:48.835135 C | etcdmain: database file (backup/member/snap/db) of the backend is missing

@ktimothy ты проверь, может ты тоже воздух быкапишь ;)

Timothy
17.08.2016
11:13:15
я брал пример с https://coreos.com/etcd/docs/latest/admin_guide.html, сейчас сделаю restore внутри игрового сервера на vmware

Google
Maxim
17.08.2016
11:14:35
да просто запусти етцд на кастомных портах с бэкапом в качестве датадира

Timothy
17.08.2016
11:19:01
таки да, это же было актуально для старого etcd, там в доке -force-new-cluster опция, которой нет в v2

Maxim
17.08.2016
11:21:14
так как, получилось у тебя стартовать?

Timothy
17.08.2016
11:23:10
нет, ты прав, после restore etcd2 уже не запустить. хорошо, что для k8s есть все манифесты и потеря стейта в etcd2 не принесло бы горя, сейчас и поправлю скрипт

хотя нет, это я что-то не так делаю, в тех же офф скриптах делают бекап как и я: https://github.com/coreos/etcd/blob/master/contrib/systemd/etcd2-backup-coreos/etcd2-backup.service#L12

забавно, но теперь etcd2 просто валится с паникой: panic: runtime error: index out of range goroutine 59 [running]: github.com/coreos/etcd/raft.(*raft).maybeCommit(0xc8201c23c0, 0xc8201dc6c0) /build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/raft.go:382 +0x2fd github.com/coreos/etcd/raft.(*raft).removeNode(0xc8201c23c0, 0xce2a822cea30bfca) /build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/raft.go:842 +0x59 github.com/coreos/etcd/raft.(*node).run(0xc8201f9e00, 0xc8201c23c0) /build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/node.go:330 +0xc8f created by github.com/coreos/etcd/raft.RestartNode /build/amd64-usr/var/tmp/portage/dev-db/etcd-2.3.2/work/gopath/src/github.com/coreos/etcd/raft/node.go:215 +0x2e3 goroutine 1 [chan receive]:

as always

https://github.com/coreos/etcd/issues/5360 отлично, stable релиз все еще с этой багой

а опция --force-new-cluster как раз у etcd2, я первый раз запустил etcd v1 и получил ошибку, так что метод должен работать, если etcdctl backup будет с фиксом бага выше

Maxim
17.08.2016
11:34:32
--force-new-cluster тоже не помогает

короче, бэкапов сейчас нет

фаталити-юзабилити :(

Timothy
17.08.2016
11:36:31
фаталити-юзабилити :(
у меня такое было с k8s, когда я сразу поставил 1.3 и огреб паники и “гонки” во время монтирования секретов для контейнеров

Maxim
17.08.2016
11:36:52
с 1.3 у меня тут тоже есть странности

Timothy
17.08.2016
11:37:11
kubelet с ошибками монтирования?

Maxim
17.08.2016
11:37:15
1.3.{1,2,3,4} работают

запускаю 1.3.5 и получаю ошибки про CNI

и ничего не работает

Timothy
17.08.2016
11:38:25
Calico?

у меня flannel и все “ок”*

Google
Maxim
17.08.2016
11:38:57
weave

Timothy
17.08.2016
11:42:01
вообще k8s пугает количеством багов с паникой https://github.com/kubernetes/kubernetes/issues?utf8=%E2%9C%93&q=is%3Aissue%20is%3Aopen%20panic

Ivan
17.08.2016
11:50:29
у меня такое было с k8s, когда я сразу поставил 1.3 и огреб паники и “гонки” во время монтирования секретов для контейнеров
Есть надежда, что эту хрень я исправил https://github.com/kubernetes/kubernetes/pull/29641 В стабильную ветку черипикнуто, в 1.3.5 (и, по-моему, 1.3.4) тоже уже есть фикс

Timothy
17.08.2016
11:51:47
спасибо! как раз обновление до версии 1.3.4 решило проблему

но теперь не буду обновляться еще месяцев 5

Ivan
17.08.2016
11:52:45
чуть не опух, пока e2e тест писал для этого race, сейчас на review

Ivan
17.08.2016
13:34:41
какой клауд-конфиг, у меня bare metal ;)
Наливал баре метал с клауд инитом.

Maxim
17.08.2016
13:44:44
а кто его подхватывал?

или ты кореосы на баре-метал наливал?

Andrey
17.08.2016
14:48:43
народ, возможно у меня ламерский вопрос, но как вы делаете апдейты? вот я создал "kind: Deployment" и загрузил его в спеке написано что деплоймент произойдет (поды перезапустятся) если что-то изменится в spec.template.* ок, заинкризил spec.template.metadata.labels.version и выполнил "kubectl apply -f file.yaml" натолкнулся на эту ишьюсу: https://github.com/kubernetes/kubernetes/issues/26202 я что-то неправильно сделал? а как правильно выкатить новую версию при условии что не менялся имадж и все остальное?

юзкейс: висит фронтендом nginx и к нему подключен конфигсет с конфигурацией... конфигурацию я обновил, теперь хочу чтобы сервер перезапустился graceful

Maxim
17.08.2016
14:50:26
под пристрели

репликасет поднимет новый

Andrey
17.08.2016
14:51:00
ну это вроде как "хак" и должен существовать способ деплоя?

учитывая что пока он его поднимает сервис будет недоступен

Maxim
17.08.2016
14:51:37
а там replica: 1?

Andrey
17.08.2016
14:51:41
угу

было бы "10" - каждый руками пришлось? кмон, это ж канал с девопсами а мы все ленивые :)

ладно, в данном случае добавил "annotations: *" и его буду менять

Ivan
17.08.2016
19:11:38
или ты кореосы на баре-метал наливал?
Именно. Клауд инит же там есть. Ему файл подсовывай и готово

Google
Ivan
17.08.2016
19:12:04
Правда, я потом отошел на iPXE, а потом просто забил) денег за это не платят :(

Maxim
17.08.2016
19:13:07
а как же рейды там всякие, lvm и вот это все

Ivan
17.08.2016
19:13:11
@pipopolam вам программисты на го не нужны? Инфраструктурные

Maxim
17.08.2016
19:13:16
чего кореос не умеет

Maxim
17.08.2016
19:16:03
Ivan
17.08.2016
21:15:14
вроде нет, но на всякий случай спрошу
Это не мне, это коллега скоро увольняется. Но спроси, мало ли :)

Maxim
18.08.2016
09:11:37
у меня flannel и все “ок”*
а он у тебя с CNI, или через kubenet?

Timothy
18.08.2016
09:14:35
не, я вообще не передаю опции для cni, у меня docker работает через flannel, а k8s вообще о нем ничего не знает

Maxim
18.08.2016
09:15:55
вроде в новой фланели можно как-то обойти эту чудовищную схему

Timothy
18.08.2016
09:16:38
после выхода 1.4 попробую избавиться от докера в пользу rkt и попробую тогда network плагины

Maxim
18.08.2016
09:16:48
о, ничоси

а в чем пойнт?

Timothy
18.08.2016
09:17:17
чтобы меньше паников в докере огребать

Maxim
18.08.2016
09:17:37
в каком смысле?

Timothy
18.08.2016
09:17:50
не знаю как, но часто он просто валится с паникой и большинство процессов вместе с ним

Maxim
18.08.2016
09:17:59
докер-демон?

Timothy
18.08.2016
09:18:00
в логах ничего такого нет, чтобы это был oom

Google
Timothy
18.08.2016
09:18:21
у меня на мастере пока 1.10

Maxim
18.08.2016
09:18:24
однако о_О

я такого пока ни разу не встречал

Timothy
18.08.2016
09:19:15
а у меня уже под 20 issues на github, где я подписан на обновления

и 1.11 уже тащит с собой части k8s

Maxim
18.08.2016
09:19:37
у меня так с кубернетесом ;)

Timothy
18.08.2016
09:19:43
тот же резолвер

Страница 6 из 958