Sergey
Тем более
Pavel
tenni
вы от темы отошли, подскажите самый беспроблемный вариант, я так понимаю на хосте создаем KVM, внутри будет что-то типа ubuntu, на ней поднимаем k8 и выбираем контейнеры или виртуализацию на coreos (не помню как называется, libvirte или что-то такое).
tenni
для меня это тоже сейчас актуальная тема.
Anonymous
Я бы без виртуалок делал, зачем еще один уровень
ну, хочется единую точку входа, вполне возможно что через n-ое время я воткну еще одну такую же ноду или помощнее и хотелось бы также просто масштабировать ее (порезать на виртуалки и добавить как агентов в кластер)
tenni
https://gist.github.com/dghubble/c2dc319249b156db06aff1d49c15272e
tenni
вчера вот такое нарыл
Anonymous
вчера вот такое нарыл
а деплоить что-то в итоге начал или тоже пока рисечишь как лучше всего это приготовить?
tenni
тоже как ты, думаю над грамотным деплоем
tenni
мне k8 как оркестратор очень понравился, вот и загорелся
Anonymous
++
tenni
++
кстати, красная шапка будет 23 августа проводить вебинар, можешь загуглить и подписаться, он по k8
tenni
это бесплатно, не реклама =)
Sn00part
я бы поставил бареметал,
Pavel
Да у шапки все семинары - рекламма
Sn00part
вот только проверил бы сначала, подойдет ли центос
Sn00part
nfs не работает (
Sn00part
RPC: fragment too large
tenni
redhat
Sn00part
я к ним один раз съездил на сеимнар. Сначала всех споили до бесчувственного состояния, а потом заставили два дня слушать рекламу с легким налетом технологий )
tenni
😂
Sn00part
и хрен уедешь, за руль нельзя. и не кормят, пока не прослушаешь про еще одну вундервафлю. А вдали с нетерпением цисковцы ждут очереди ))
больше на семинары не хожу. К Бунину тоже.
Sergey
У нага тоже так крос проходит ?
tenni
tenni
если не смотрел - на 6 минуту примерно
🪰
Друзья! У меня маленькая, но непонятная мне проблемка с кубом. У меня куб на coreOS. И после апгрейда куба на 1.7 возникла циклическая зависимость между flannel-docker-opts, flanneld, etcd3, docker на мастер нодах.
И вроде все логично. flannel-docker-opts должен запускаться после flanneld и формировать файлик с настройками. Свои настройки flannel считывает из etcd3, etcd3 запускается в докере. Но докеру перед запуском сервиса нужны настройки, которые сформирует flannel-docker-opts. Может etcd3 должен не в докере запускаться, а в rkt? Может кто у себя посмотрит? Ведь у всех работает.
Anahan
Sergey
Я бы етсд вынес за пределы докера и стартовал первым
Sergey
Если учесть что это умная го бинарь со стат линковкой то вообще можно через стстемд юнит
Vitalii
В coreos есть сервис etcd-member который запускает etcd3 через rkt. Он по умолчанию выключен.
Logan
Zloy-Dobry
Вот так сео
Andrei
😂
Andrei
Скорее всего человек из тусовки Бизнес Молодости
Роман
Ребята. Сталкивался ли кто-нибудь с таким?
Обычно под вечер (но бывало и с утра) переставал работать nginx-ingress-controller. При попытке войти на сайты с https, происходила очень долгая попытка загрузки, которая ничем не заканчивалась. Просто белый экран и никаких ошибок ни в логах контроллера, ни в логах куба. Вход на http давал ответ 301. Есть предположение, что, поскольку 443 порт слушает не nginx, а контроллер (и дальше направляет трафик на 442 порт nginx'а), то проблема именно в этом месте.
Помогите советом, что глянуть.
Maksim
Ivan
Доброе утро, народ!
А есть тут кто нибудь, кто заливает coreos по pxe с помощью matchbox?
Maksim
Роман
Сам удивлён.
Maksim
CNI?
Maksim
мне да же стало интересно пойду посмотрю что там)
Роман
Maksim
listen [:😏:443 default_server ipv6only=off reuseport backlog=511 ssl http2;
Maksim
server {
server_name _;
listen [:😏:80 default_server ipv6only=off reuseport backlog=511;
listen [:😏:443 default_server ipv6only=off reuseport backlog=511 ssl http2;
Maksim
Не таки сам nginx
Роман
Maksim
gcr.io/google-containers/nginx-ingress-controller:0.9.0-beta.3
Роман
0.9.0-beta.11
Роман
А в темплейте написан коммент:
Listen on 442 because port 443 is used in the TLS sni server This listener must always have proxy_protocol enabled, because the SNI listener forwards on source IP info in it.
Maksim
ху из sni серевер Оо
Роман
ху из sni серевер Оо
Расширение TLS, позволяющее сообщить имя хоста, с которым они пытаются связаться во время хендшейка. Так контроллер выбирает ингресс, который использовать для соединения.
Роман
Похоже в этом моя проблема, но как решить, не даунгредясь...
Maksim
у меня одно имя) и сертификат на имя)
𝚔𝚟𝚊𝚙𝚜
Ivan
Я убунту разливаю, очень удобно
о! круто!
я тут столкнулся с такой странностью, что не всё написанное в конфиге игнишена исполняется.
например успешно задаётся ключ для авыторизации юзера, но пароль - ни в какую.
файлы некоторые создаются, некоторые нет...
хотя все блоки беру копипастом из экзаплов самого мачбокса...
не сталкивался с таким?
𝚔𝚟𝚊𝚙𝚜
сорри не пользуюсь мачбоксом :)
не знал что он убунту умеет разливать
bebebe
ээээ а кто-нибудь скрещивал k8s 1.6.x с aws блок стораджем для pvc?
Ivan
bebebe
Ivan
создал pv(в 1 зоне), и pvc. Все вроде работает. Интересует вопрос рейсайза в будущем=)
bebebe
bebebe
а то ловлю такую неприятную ситуацию:
kubectl describe pvc myclaim
Name: myclaim
Namespace: default
StorageClass: slow
Status: Pending
Volume:
Labels: <none>
Annotations: kubectl.kubernetes.io/last-applied-configuration={"apiVersion":"v1","kind":"PersistentVolumeClaim","metadata":{"annotations":{},"name":"myclaim","namespace":"default"},"spec":{"accessModes":["ReadWrit...
Capacity:
Access Modes:
Events:
FirstSeen LastSeen Count From SubObjectPath Type Reason Message
--------- -------- ----- ---- ------------- -------- ------ -------
25m 11s 104 persistentvolume-controller Warning ProvisioningFailed no volume plugin matched
bebebe
no volume plugin matched :/
Ivan
после создаешь pv
bebebe
да, storageclass у меня определенн именно таким образом
Ivan
а сам pv создан?
bebebe
я остановился на том, что у меня pvc показывает no plugin matched :/
bebebe
и висят в статусе pending
kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESSMODES STORAGECLASS AGE
myclaim Pending slow 34m
myclaim2 Pending slow2 6m
bebebe
что бы динамически аллоцировался
Ivan
apiVersion: "v1"
kind: "PersistentVolume"
metadata:
name: "postgres-pv"
spec:
capacity:
storage: "30Gi"
accessModes:
- "ReadWriteOnce"
awsElasticBlockStore:
fsType: "ext4"
volumeID: "vol-id"
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name:
namespace:
spec:
storageClassName: postgres-aws-ebs
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 9Gi
`
Ivan
Примерно так должно быть
Ivan
скорее всего, т.к. он отрезает от него куски, насколько я понял
Ivan
Т.е. для кубера создается pv, а для сервисов(подов) нарезаются pvc