Anonymous
4/4
Anonymous
installing a pod network
Anonymous
днс у вас тоже работать не будет без установки сети
Anonymous
остальная часть кластера использует hostNetwork, поэтому им не надо
Kayama
(4/4) Installing a pod network - это я делал kube-system weave-net-8y8ev 2/2 Running 2 1h
Sn00part
зачем вы weave используете. это треш и угар
Sn00part
фланель уж лучше
Kayama
Я ж не в курсе, ребят ) 1й раз и по мануалу делаю )
Anonymous
ну вот серьезно
Anonymous
нигде нет нормальных статей про оверлей сети
Anonymous
что трэш, что угар
Sn00part
weave это чрезмерно кривая реализация l3
Anonymous
да, у меня куча ебалы с вивом, но я не уверен, что фланнель работает ок и не будет такого же
Sn00part
фланель это тупо тунели
Sn00part
а калико быстро и на l2
Anonymous
там ж тоже vxlan over udp?
Anonymous
у фланеля
Sergei
на l3.
Anonymous
меня ломает калико для 3х хостов поднимать
Anonymous
я кстати посмотрел на инструкцию по установке canal
Sn00part
http://itechet.blogspot.ru/2015/11/weave-vs-flannel-network-performance_25.html?m=1
Anonymous
с запуском двух ямлов и подумал, что может не все так плохо
Anonymous
http://itechet.blogspot.ru/2015/11/weave-vs-flannel-network-performance_25.html?m=1
ну я так понимаю, все проблемы в определении MTU
Anonymous
у меня MTU определился верно, 9к mtu сеть не умеет
Sn00part
возможно) фланель сама мту выставляет
Anonymous
так вот
Anonymous
что кривого-то?)
Anonymous
и скорость - это конечно хорошо, ещё бы оценка как этим оперировать
Anonymous
я видел в доке какие-то телодвижения у фланеля с переопределением ip у docker0 интерфейса, ещё что-то
Sn00part
перконовцы потестили же
Anonymous
а я их тестам не очень верю
Anonymous
пока в тестах не указана точная конфигурация и настройки, на которых запускалось, я не очень готов верить тестам
Anonymous
какие-то попугаи
Anonymous
без графиков, растущей нагрузки, да хоть чего-нибудь с чем можно работать :)
Anonymous
проверять изменения между версиями
Sn00part
))
Anonymous
я что, многого хочу?! :)
Anonymous
от нашей разработки в компании тоже не могу добиться
Anonymous
мы тут чот потестировали, всё говно :)
kay
Коллеги, а с каких пор k8s стал игнорировать ReadWriteOnce?
kay
У меня сейчас два пода на одном хосте используют один и тот же mount volume. Я в шоке
Kayama
(4/4) Installing a pod network - это я делал kube-system weave-net-8y8ev 2/2 Running 2 1h
Чуть-чуть разобрался. Даже с weave, пока все "работает". root@supernova:/opt/cni/bin# kubectl describe svc kubernetes-dashboard -n kube-system Name: kubernetes-dashboard Namespace: kube-system Labels: app=kubernetes-dashboard Selector: app=kubernetes-dashboard Type: NodePort IP: 100.72.204.245 Port: <unset> 80/TCP NodePort: <unset> 30838/TCP Endpoints: 10.32.0.16:9090 Session Affinity: None No events. root@supernova:/opt/cni/bin# curl -L 10.32.0.16:9090 <!doctype html> <html ng-app="kubernetesDashboard"> <head> <meta charset="utf-8"> <title>Kubernetes Dashboard</title> <link rel="icon" type="image/png" href="assets/images/kubernetes-logo.png"> <meta name="viewport" content="width=device-width"> <link rel="stylesheet" href="static/vendor.36bb79bb.css"> <link rel="stylesheet" href="static/app.d2318302.css"> </head> <body> <!--[if lt IE 10]> <p class="browsehappy">You are using an <strong>outdated</strong> browser. Please <a href="http://browsehappy.com/">upgrade your browser</a> to improve your experience.</p> <![endif]--> <kd-chrome layout="column" layout-fill> </kd-chrome> <script src="static/vendor.633c6c7a.js"></script> <script src="api/appConfig.json"></script> <script src="static/app.9ed974b1.js"></script> </body> </html> Таким образом с локальной машины доступ я получаю, как бы. Скажите, какая дальше правильная идеология всего этого, для выставления во внешний мир? Не думаю же, что это pod network на реальных адресах? nginx-прокси на внешнем интерфейсе? Или как? Вот, например, в данном случае ip у машины 172.17.0.2, а сервис 10.32.0.16:9090 Чтоб туда попасть, я могу на роутере добавить еще один маршрут и это ок для тестов, но чувствую, что это правильный путь :) Подскажите, плз :)
invariance
А ты одну ноду поднял?
Kayama
да
invariance
я вот вторую вдс закупил и думаю, что дальше
invariance
:D
invariance
Не, ну что kn поставить это понятно
Kayama
Я пока локально тестирую все, типа стенд собрал. Одна машина с убунту, вот это сейчас пробую. И три с coreos отдельные собираю. Интересно и то и другое.
M
Чуть-чуть разобрался. Даже с weave, пока все "работает". root@supernova:/opt/cni/bin# kubectl describe svc kubernetes-dashboard -n kube-system Name: kubernetes-dashboard Namespace: kube-system Labels: app=kubernetes-dashboard Selector: app=kubernetes-dashboard Type: NodePort IP: 100.72.204.245 Port: <unset> 80/TCP NodePort: <unset> 30838/TCP Endpoints: 10.32.0.16:9090 Session Affinity: None No events. root@supernova:/opt/cni/bin# curl -L 10.32.0.16:9090 <!doctype html> <html ng-app="kubernetesDashboard"> <head> <meta charset="utf-8"> <title>Kubernetes Dashboard</title> <link rel="icon" type="image/png" href="assets/images/kubernetes-logo.png"> <meta name="viewport" content="width=device-width"> <link rel="stylesheet" href="static/vendor.36bb79bb.css"> <link rel="stylesheet" href="static/app.d2318302.css"> </head> <body> <!--[if lt IE 10]> <p class="browsehappy">You are using an <strong>outdated</strong> browser. Please <a href="http://browsehappy.com/">upgrade your browser</a> to improve your experience.</p> <![endif]--> <kd-chrome layout="column" layout-fill> </kd-chrome> <script src="static/vendor.633c6c7a.js"></script> <script src="api/appConfig.json"></script> <script src="static/app.9ed974b1.js"></script> </body> </html> Таким образом с локальной машины доступ я получаю, как бы. Скажите, какая дальше правильная идеология всего этого, для выставления во внешний мир? Не думаю же, что это pod network на реальных адресах? nginx-прокси на внешнем интерфейсе? Или как? Вот, например, в данном случае ip у машины 172.17.0.2, а сервис 10.32.0.16:9090 Чтоб туда попасть, я могу на роутере добавить еще один маршрут и это ок для тестов, но чувствую, что это правильный путь :) Подскажите, плз :)
Если выставляешь веб сервис то рекомендованный путь ингресс контроллер в даемонсете
M
Если подходит рандомный порт то сервис с nodeport
invariance
Ребят, странное дело :D http://194.67.213.24:443/
invariance
что это
Zon
это https
Sergei
это не https.
Zon
curl -k -v https://194.67.213.24:443/ * Trying 194.67.213.24... * Connected to 194.67.213.24 (194.67.213.24) port 443 (#0) * TLS 1.2 connection using TLS_ECDHE_RSA_WITH_AES_128_GCM_SHA256 * Server certificate: kube-apiserver > GET / HTTP/1.1 > Host: 194.67.213.24 > User-Agent: curl/7.49.1 > Accept: */* > < HTTP/1.1 401 Unauthorized < Content-Type: text/plain; charset=utf-8 < X-Content-Type-Options: nosniff < Date: Thu, 20 Oct 2016 13:28:10 GMT < Content-Length: 13 < Unauthorized * Connection #0 to host 194.67.213.24 left intact
invariance
А можно ли рядом с kn создать докер-контейнер? Ну т.е. отдельный. Или лучше не стоит
Anonymous
можно
Anonymous
можно даже попробовать создать его в нужной подсети
invariance
Я вот просто думаю бэкэнд сайта разместить прямо на мастер-сервере. Или эта идея не оч?)
Sn00part
а что там за бекендам
Sn00part
бекенд
invariance
Ну, реализация взаимодействия с контейнерами, которые кластерятся с помощью kn
invariance
Хотя мне что-то подсказывает, что это реализацию лучше сделать микросервисом, а уж никак не бэкэндовой частью сайта
Sn00part
угу имхо так и надо
Anonymous
Пасаны, митап будет?
Alexander
в тяпницу во всех питейных заведениях точно будет :))
Sn00part
можно и на митап
Sn00part
можно и в питейную
Sn00part
можно и не в пятницу
invariance
можно и не митап)
Sergii
@kay_rus если мы говорим про HostPath то это ожидаемо ... я наблюдаю такое же поведение
kay
@kay_rus если мы говорим про HostPath то это ожидаемо ... я наблюдаю такое же поведение
я точно помню, что раньше у меня не стартовал контейнер из-за того, что mount point был занят
Sergii
@kay_rus из документации HostPath (single node testing only – local storage is not supported in any way and WILL NOT WORK in a multi-node cluster)
kay
да мало ли что там написано. всё работает
kay
и код вполне вменяемый
kay
у меня в production используется активно hostPath
Sergii
сейчас проверю на бизибоксе
Sergii
@kay_rus в пределах одного неймспейса работает