Anonymous
4/4
Anonymous
installing a pod network
Anonymous
днс у вас тоже работать не будет без установки сети
Anonymous
остальная часть кластера использует hostNetwork, поэтому им не надо
Kayama
(4/4) Installing a pod network - это я делал
kube-system weave-net-8y8ev 2/2 Running 2 1h
Sn00part
зачем вы weave используете. это треш и угар
Sn00part
фланель уж лучше
Kayama
Я ж не в курсе, ребят ) 1й раз и по мануалу делаю )
Anonymous
Anonymous
ну вот серьезно
Anonymous
нигде нет нормальных статей про оверлей сети
Anonymous
что трэш, что угар
Sn00part
weave это чрезмерно кривая реализация l3
Anonymous
да, у меня куча ебалы с вивом, но я не уверен, что фланнель работает ок и не будет такого же
Sn00part
фланель это тупо тунели
Sn00part
а калико быстро и на l2
Anonymous
там ж тоже vxlan over udp?
Anonymous
у фланеля
Sergei
на l3.
Anonymous
меня ломает калико для 3х хостов поднимать
Anonymous
я кстати посмотрел на инструкцию по установке canal
Sn00part
http://itechet.blogspot.ru/2015/11/weave-vs-flannel-network-performance_25.html?m=1
Anonymous
с запуском двух ямлов и подумал, что может не все так плохо
Anonymous
Anonymous
у меня MTU определился верно, 9к mtu сеть не умеет
Sn00part
возможно) фланель сама мту выставляет
Anonymous
так вот
Anonymous
что кривого-то?)
Anonymous
и скорость - это конечно хорошо, ещё бы оценка как этим оперировать
Anonymous
я видел в доке какие-то телодвижения у фланеля с переопределением ip у docker0 интерфейса, ещё что-то
Sn00part
перконовцы потестили же
Anonymous
а я их тестам не очень верю
Anonymous
пока в тестах не указана точная конфигурация и настройки, на которых запускалось, я не очень готов верить тестам
Anonymous
какие-то попугаи
Anonymous
без графиков, растущей нагрузки, да хоть чего-нибудь с чем можно работать :)
Anonymous
проверять изменения между версиями
Sn00part
))
Anonymous
я что, многого хочу?! :)
Anonymous
от нашей разработки в компании тоже не могу добиться
Anonymous
мы тут чот потестировали, всё говно :)
kay
Коллеги, а с каких пор k8s стал игнорировать ReadWriteOnce?
kay
У меня сейчас два пода на одном хосте используют один и тот же mount volume. Я в шоке
Kayama
(4/4) Installing a pod network - это я делал
kube-system weave-net-8y8ev 2/2 Running 2 1h
Чуть-чуть разобрался.
Даже с weave, пока все "работает".
root@supernova:/opt/cni/bin# kubectl describe svc kubernetes-dashboard -n kube-system
Name: kubernetes-dashboard
Namespace: kube-system
Labels: app=kubernetes-dashboard
Selector: app=kubernetes-dashboard
Type: NodePort
IP: 100.72.204.245
Port: <unset> 80/TCP
NodePort: <unset> 30838/TCP
Endpoints: 10.32.0.16:9090
Session Affinity: None
No events.
root@supernova:/opt/cni/bin# curl -L 10.32.0.16:9090
<!doctype html> <html ng-app="kubernetesDashboard"> <head> <meta charset="utf-8"> <title>Kubernetes Dashboard</title> <link rel="icon" type="image/png" href="assets/images/kubernetes-logo.png"> <meta name="viewport" content="width=device-width"> <link rel="stylesheet" href="static/vendor.36bb79bb.css"> <link rel="stylesheet" href="static/app.d2318302.css"> </head> <body> <!--[if lt IE 10]>
<p class="browsehappy">You are using an <strong>outdated</strong> browser.
Please <a href="http://browsehappy.com/">upgrade your browser</a> to improve your
experience.</p>
<![endif]--> <kd-chrome layout="column" layout-fill> </kd-chrome> <script src="static/vendor.633c6c7a.js"></script> <script src="api/appConfig.json"></script> <script src="static/app.9ed974b1.js"></script> </body> </html>
Таким образом с локальной машины доступ я получаю, как бы.
Скажите, какая дальше правильная идеология всего этого, для выставления во внешний мир?
Не думаю же, что это pod network на реальных адресах?
nginx-прокси на внешнем интерфейсе? Или как?
Вот, например, в данном случае ip у машины 172.17.0.2, а сервис 10.32.0.16:9090
Чтоб туда попасть, я могу на роутере добавить еще один маршрут и это ок для тестов, но чувствую, что это правильный путь :) Подскажите, плз :)
invariance
А ты одну ноду поднял?
Kayama
да
invariance
я вот вторую вдс закупил и думаю, что дальше
invariance
:D
invariance
Не, ну что kn поставить это понятно
Kayama
Я пока локально тестирую все, типа стенд собрал.
Одна машина с убунту, вот это сейчас пробую.
И три с coreos отдельные собираю. Интересно и то и другое.
M
Чуть-чуть разобрался.
Даже с weave, пока все "работает".
root@supernova:/opt/cni/bin# kubectl describe svc kubernetes-dashboard -n kube-system
Name: kubernetes-dashboard
Namespace: kube-system
Labels: app=kubernetes-dashboard
Selector: app=kubernetes-dashboard
Type: NodePort
IP: 100.72.204.245
Port: <unset> 80/TCP
NodePort: <unset> 30838/TCP
Endpoints: 10.32.0.16:9090
Session Affinity: None
No events.
root@supernova:/opt/cni/bin# curl -L 10.32.0.16:9090
<!doctype html> <html ng-app="kubernetesDashboard"> <head> <meta charset="utf-8"> <title>Kubernetes Dashboard</title> <link rel="icon" type="image/png" href="assets/images/kubernetes-logo.png"> <meta name="viewport" content="width=device-width"> <link rel="stylesheet" href="static/vendor.36bb79bb.css"> <link rel="stylesheet" href="static/app.d2318302.css"> </head> <body> <!--[if lt IE 10]>
<p class="browsehappy">You are using an <strong>outdated</strong> browser.
Please <a href="http://browsehappy.com/">upgrade your browser</a> to improve your
experience.</p>
<![endif]--> <kd-chrome layout="column" layout-fill> </kd-chrome> <script src="static/vendor.633c6c7a.js"></script> <script src="api/appConfig.json"></script> <script src="static/app.9ed974b1.js"></script> </body> </html>
Таким образом с локальной машины доступ я получаю, как бы.
Скажите, какая дальше правильная идеология всего этого, для выставления во внешний мир?
Не думаю же, что это pod network на реальных адресах?
nginx-прокси на внешнем интерфейсе? Или как?
Вот, например, в данном случае ip у машины 172.17.0.2, а сервис 10.32.0.16:9090
Чтоб туда попасть, я могу на роутере добавить еще один маршрут и это ок для тестов, но чувствую, что это правильный путь :) Подскажите, плз :)
Если выставляешь веб сервис то рекомендованный путь ингресс контроллер в даемонсете
M
Если подходит рандомный порт то сервис с nodeport
invariance
Ребят, странное дело :D http://194.67.213.24:443/
invariance
что это
Zon
это https
Sergei
это не https.
Zon
curl -k -v https://194.67.213.24:443/
* Trying 194.67.213.24...
* Connected to 194.67.213.24 (194.67.213.24) port 443 (#0)
* TLS 1.2 connection using TLS_ECDHE_RSA_WITH_AES_128_GCM_SHA256
* Server certificate: kube-apiserver
> GET / HTTP/1.1
> Host: 194.67.213.24
> User-Agent: curl/7.49.1
> Accept: */*
>
< HTTP/1.1 401 Unauthorized
< Content-Type: text/plain; charset=utf-8
< X-Content-Type-Options: nosniff
< Date: Thu, 20 Oct 2016 13:28:10 GMT
< Content-Length: 13
<
Unauthorized
* Connection #0 to host 194.67.213.24 left intact
Kayama
invariance
А можно ли рядом с kn создать докер-контейнер? Ну т.е. отдельный. Или лучше не стоит
Anonymous
можно
Anonymous
можно даже попробовать создать его в нужной подсети
invariance
Я вот просто думаю бэкэнд сайта разместить прямо на мастер-сервере. Или эта идея не оч?)
Sn00part
а что там за бекендам
Sn00part
бекенд
invariance
Ну, реализация взаимодействия с контейнерами, которые кластерятся с помощью kn
invariance
Хотя мне что-то подсказывает, что это реализацию лучше сделать микросервисом, а уж никак не бэкэндовой частью сайта
Sn00part
угу имхо так и надо
Anonymous
Пасаны, митап будет?
Alexander
в тяпницу во всех питейных заведениях точно будет :))
Sn00part
можно и на митап
Sn00part
можно и в питейную
Sn00part
можно и не в пятницу
invariance
можно и не митап)
Sergii
@kay_rus если мы говорим про HostPath то это ожидаемо ... я наблюдаю такое же поведение
Sergii
@kay_rus из документации
HostPath (single node testing only – local storage is not supported in any way and WILL NOT WORK in a multi-node cluster)
kay
да мало ли что там написано. всё работает
kay
и код вполне вменяемый
kay
у меня в production используется активно hostPath
Sergii
сейчас проверю на бизибоксе
Sergii
@kay_rus в пределах одного неймспейса работает