Sergii
остальные не дают 100% гарантию - но собираются
Lupsik Pupsik
киньте в меня, пожалуйста, нормальной статьей про swarm mode и пример типа один хост с бд и один хост с кодом
Etki
это не канал про докер сварм
Lupsik Pupsik
или объясните как докер-контейнеры, запущенные через docker-compose, раскидать по нескольким хостам
Etki
попробуем еще раз
Etki
это не канал про докер
Pasha
@pimpmyyoba это канал про Аниме. Но как пропатчить KDE под FreeBSD мы не знаем…
Sergej
@jaremchuk А что именно в карго не работает ?
Уперся на развертывании API сервера. Вот здесь
Sergej
- name: Master | wait for the apiserver to be running uri: url: http://localhost:8080/healthz register: result until: result.status == 200 retries: 10 delay: 6
Sergej
После таймаута все вываливалось в fail.
Sergej
Пробовал менять версию, ставил гугловский контейнер - одно и то же. Пробовал на чистой виртуалке.
Sn00part
api server запущен? В процессах есть? netstat -antpl что показывает
Sergii
проверить руками - найти container - docker logs в студию
Sergej
Там контейнер. Уже убил все. Ща попробую опять.
Sergej
Первая ошибка
Sergej
Tuesday 28 February 2017 11:09:54 +0200 (0:00:00.163) 0:16:29.679 ** fatal: [kubmaster]: FAILED! => {"changed": true, "failed": true, "msg": "Destination directory /etc/kubernetes/manifests does not exist"}
Sergej
Кстати она всегда повторяется
Sergii
ну так почему она не создана? bootstrap_os делался?
Sergej
fatal: [kubmaster]: FAILED! => {"attempts": 10, "changed": false, "content": "", "failed": true, "msg": "Status code was not [200]: Request failed: <urlopen error [Errno 111] Connection refused>", "redirected": false, "status": -1, "url": "http://localhost:8080/healthz"}
Sergej
порт молчит
Sergej
ocker ps -a CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES ee399f6e5648 calico/node:v1.0.2 "start_runit" 19 minutes ago Up 19 minutes calico-node fb14f3fb39ff quay.io/coreos/etcd:v3.0.6 "/usr/local/bin/etcd" 31 minutes ago Up 31 minutes etcd1
Sergii
/etc/kubernetes/manifests должна быть на хосте
Sergii
скорей всего не делался бутстрап ос
Sergej
бустрап же делается по умолчанию
Sergej
TASK [bootstrap-os : Bootstrap | Install python 2.x and \ \ pip]
Sergej
Дошел сюда
Sergej
fatal: [kubmaster]: FAILED! => {"changed": false, "cmd": ["/usr/local/bin/kubectl", "create", "-f", "/etc/kubernetes/kube-system-ns.yml"], "delta": "0:00:00.139833", "end": "2017-02-28 12:00:57.933341", "failed": true, "rc": 1, "start": "2017-02-28 12:00:57.793508", "stderr": "The connection to the server localhost:8080 was refused - did you specify the right host or port?", "stdout": "", "stdout_lines": [], "warnings": []}
Sergej
ok=188 changed=17 unreachable=0 failed=1
Sergii
/usr/local/bin/kubectl create -f /etc/kubernetes/kube-system-ns.yml
Sergej
Может из-за того что переменная нераскрылась
Sergej
$ cat /etc/kubernetes/kube-system-ns.yml apiVersion: v1 kind: Namespace metadata: name: "{{system_namespace}}"
Sergej
$ sudo /usr/local/bin/kubectl create -f /etc/kubernetes/kube-system-ns.yml The connection to the server localhost:8080 was refused - did you specify the right host or port?
Sergii
да должно быть kube-system а не {{system_namespace}} - так что что-то пошло не так
Sergii
надо разбираться
Sergej
Я рукми поправил и не идет. Порт не отвечает, что странно ведь предыдущий шаг проверяет
Sergej
Вообщем мастер не идет ни в какую. Какой бренч поганять?
Sergii
https://github.com/kubernetes-incubator/kargo/releases/tag/v2.1.0
Sergii
@jaremchuk надо более детальное описание Чем разворачиваешь? Vagrant или AWS/GCE Какой инвентори? и так далее https://github.com/kubernetes-incubator/kargo/issues/new Я как инженер с описания должен воспроизвести проблему
Sergii
@jaremchuk оформи плиз багом - я попробую у себя воспроизвести
Sergii
Пока у меня на GCE все разворачивается :)
Sergej
Разворачивал под KVM
Sergii
Пожалуйста оформи баг - там есть все инструкции чтобы воспроизвести
Sergej
Ок почитаю.
Sergii
Я не телепат - мне надо все детали ...
Sergii
какой скрипт - какой образ - как разворачивается - какая топология
Sergej
Да понял.
Sergii
Спасибо!
Sergej
Но сейчас я пробовал только на одном мастере поставить. На ноуте не могу парк разводить.
Sergej
Но вообщем случилось тоже что и раньше
Andrei
Коллеги, приветствую! Буду очень признателен за конструктивную критику: Kubernetes: постоянные диски на GlusterFS и heketi - Андрей Максимов http://avmaksimov.ru/2017/03/02/kubernetes-%d0%bf%d0%be%d1%81%d1%82%d0%be%d1%8f%d0%bd%d0%bd%d1%8b%d0%b5-%d0%b4%d0%b8%d1%81%d0%ba%d0%b8-glusterfs-heketi/
Михаил
Коллеги, приветствую! Буду очень признателен за конструктивную критику: Kubernetes: постоянные диски на GlusterFS и heketi - Андрей Максимов http://avmaksimov.ru/2017/03/02/kubernetes-%d0%bf%d0%be%d1%81%d1%82%d0%be%d1%8f%d0%bd%d0%bd%d1%8b%d0%b5-%d0%b4%d0%b8%d1%81%d0%ba%d0%b8-glusterfs-heketi/
ну, понеслось 0)гластер тормозная шляпа, которая подвержена split-brain 1)нахрена мне качать какую-то фигню? хочу рпм пакет! 2)а че? можно сделать тестовую лабу и фигак фигак давай статью в бложек? хорошо хоть не на хабр. хотя там и так таких полно 3)при трёх нодах берется ceph, который нормально без костылей входит в кубик и радуемся
Logan
вообще-то у гластера есть рпм
Logan
там есть сборки под все основные дистрибы.
Михаил
я про костыль через который мы его подключаем
Logan
а, это. Там проблема слегка шире. Этот костыль требует обязательного присутствия опенстек. Обладатели BMR (я) идут лесом.
Михаил
Михаил
во, даже стикер есть под это
Logan
виноват, не так понял смысл статьи. Опенстек не нужен. Но все равно это решение мне не нравится. Кстати, тест gluster vs RBD показал соизмеримую скорость чтения. С записью у глустер катастрофа
Logan
как с устойчивостью я не понял пока
Михаил
и вообще, где автор и почему за него ты оправдываешься?)
Михаил
он один
Anonymous
он один
FS, RBD, и какой там у них object store
Михаил
FS, RBD, и какой там у них object store
так написано рбд же
Logan
если найду PDF - поделюсь
Anonymous
так написано рбд же
Сорян, парсер RBD=>ceph сработал так, что я даже и не заметил))
Logan
вот, нашел
Logan
http://iopscience.iop.org/article/10.1088/1742-6596/513/4/042014/pdf
Logan
если тест верен, то это даже не чудовищно, это просто катастрофа
Михаил
iozone -r 128k -i 0 -i 1 -i 2 -t 24 -s 10G
Михаил
дальше не читал
Михаил
fio only
Михаил
dd if=/dev/zero of=zerofile bs=4M count=2560 conv=fdatasync