
bebebe
15.08.2017
14:55:22
да я как бы не просил правду матку
я про опыт деплоя спиннакера в k8s

Artem
15.08.2017
15:00:04
поставился
helm install stable/spinnaker -n spinnaker
вроде работает даже

Google

Alisa
15.08.2017
16:02:38
есть супер мощный физический сервак на centos и нужно там равзернуть кластер kubernetes, агенты которого можно будет потом масштабировать и на другие серваки
как это правильнее сделать?
сначала натыкать виртуалок и потом kubeadm/kubespray или сразу kubeadm можно?

Artem
15.08.2017
16:20:49
а виртуалки там под чем?
проверь, что у тебя работает nfs, например. у меня не работает под centos7
и что такое супермощный ?

Alisa
15.08.2017
16:23:58
виртуалок еще нет, я вот думаю как это лучше всего приготовить ?
и что такое супермощный ?
64gb ddr4, i7, gtx1080, 1tb ssd
ну то есть туда можно виртуальных нод понатыкать и вроде как это даже будет хорошо работать (мне так хотелось бы)
я прекрасно понимаю что это не прям гигант вычислительных возможностей если что)
просто пока что это самый мощный сервак, который я арендовал и хочу выжать из него максимум >:з

Artem
15.08.2017
16:27:56
ну тяжело с одной нодой будет

Сергей
15.08.2017
16:28:33
Это супер мощный?
Вон у меня 10 деллов r9xx серии
Там под тэр памяти и сотню кпу

Fike
15.08.2017
16:29:07
только не процомерка
ради всего святого

Google

Сергей
15.08.2017
16:29:35
Письками не вариант, я сразу проиграю

Fike
15.08.2017
16:30:07
интересует еще меньше, чем выислительные мощности, управляемые участниками

Сергей
15.08.2017
16:30:42
Тем более

Pavel
15.08.2017
16:30:54

Tenni
15.08.2017
16:37:26
вы от темы отошли, подскажите самый беспроблемный вариант, я так понимаю на хосте создаем KVM, внутри будет что-то типа ubuntu, на ней поднимаем k8 и выбираем контейнеры или виртуализацию на coreos (не помню как называется, libvirte или что-то такое).
для меня это тоже сейчас актуальная тема.

Alisa
15.08.2017
16:38:42
Я бы без виртуалок делал, зачем еще один уровень
ну, хочется единую точку входа, вполне возможно что через n-ое время я воткну еще одну такую же ноду или помощнее и хотелось бы также просто масштабировать ее (порезать на виртуалки и добавить как агентов в кластер)

Tenni
15.08.2017
16:38:48
https://gist.github.com/dghubble/c2dc319249b156db06aff1d49c15272e
вчера вот такое нарыл

Alisa
15.08.2017
16:41:38
вчера вот такое нарыл
а деплоить что-то в итоге начал или тоже пока рисечишь как лучше всего это приготовить?

Tenni
15.08.2017
16:42:28
тоже как ты, думаю над грамотным деплоем
мне k8 как оркестратор очень понравился, вот и загорелся

Alisa
15.08.2017
16:43:01
++

Tenni
15.08.2017
16:45:47
++
кстати, красная шапка будет 23 августа проводить вебинар, можешь загуглить и подписаться, он по k8
это бесплатно, не реклама =)

Artem
15.08.2017
16:48:48
я бы поставил бареметал,

Pavel
15.08.2017
16:49:09
Да у шапки все семинары - рекламма

Artem
15.08.2017
16:49:15
вот только проверил бы сначала, подойдет ли центос
nfs не работает (

Tenni
15.08.2017
16:50:28

Google

Artem
15.08.2017
16:50:28
RPC: fragment too large

Tenni
15.08.2017
17:22:09
redhat

Artem
15.08.2017
17:24:16
я к ним один раз съездил на сеимнар. Сначала всех споили до бесчувственного состояния, а потом заставили два дня слушать рекламу с легким налетом технологий )

Tenni
15.08.2017
17:32:45
?

Artem
15.08.2017
17:37:39
и хрен уедешь, за руль нельзя. и не кормят, пока не прослушаешь про еще одну вундервафлю. А вдали с нетерпением цисковцы ждут очереди ))
больше на семинары не хожу. К Бунину тоже.

Сергей
15.08.2017
17:54:33
У нага тоже так крос проходит ?

Tenni
15.08.2017
17:58:21
если не смотрел - на 6 минуту примерно

Пашкин
15.08.2017
19:23:49
Друзья! У меня маленькая, но непонятная мне проблемка с кубом. У меня куб на coreOS. И после апгрейда куба на 1.7 возникла циклическая зависимость между flannel-docker-opts, flanneld, etcd3, docker на мастер нодах.
И вроде все логично. flannel-docker-opts должен запускаться после flanneld и формировать файлик с настройками. Свои настройки flannel считывает из etcd3, etcd3 запускается в докере. Но докеру перед запуском сервиса нужны настройки, которые сформирует flannel-docker-opts. Может etcd3 должен не в докере запускаться, а в rkt? Может кто у себя посмотрит? Ведь у всех работает.

Сергей
15.08.2017
20:06:24
Я бы етсд вынес за пределы докера и стартовал первым
Если учесть что это умная го бинарь со стат линковкой то вообще можно через стстемд юнит

Vitaliy
15.08.2017
20:53:27
В coreos есть сервис etcd-member который запускает etcd3 через rkt. Он по умолчанию выключен.

Paul
15.08.2017
21:09:00

Zloy Dobriy
16.08.2017
04:48:25
Вот так сео

Andrey
16.08.2017
06:14:07
?
Скорее всего человек из тусовки Бизнес Молодости

Роман
16.08.2017
06:51:33
Ребята. Сталкивался ли кто-нибудь с таким?
Обычно под вечер (но бывало и с утра) переставал работать nginx-ingress-controller. При попытке войти на сайты с https, происходила очень долгая попытка загрузки, которая ничем не заканчивалась. Просто белый экран и никаких ошибок ни в логах контроллера, ни в логах куба. Вход на http давал ответ 301. Есть предположение, что, поскольку 443 порт слушает не nginx, а контроллер (и дальше направляет трафик на 442 порт nginx'а), то проблема именно в этом месте.
Помогите советом, что глянуть.

Maksim
16.08.2017
07:04:10

Ivan
16.08.2017
07:08:54
Доброе утро, народ!
А есть тут кто нибудь, кто заливает coreos по pxe с помощью matchbox?

Maksim
16.08.2017
07:27:47

Google

Роман
16.08.2017
07:28:59
Сам удивлён.

Maksim
16.08.2017
07:29:28
CNI?
мне да же стало интересно пойду посмотрю что там)

Роман
16.08.2017
07:30:15

Admin
ERROR: S client not available

Maksim
16.08.2017
07:32:56
listen [:?:443 default_server ipv6only=off reuseport backlog=511 ssl http2;
server {
server_name _;
listen [:?:80 default_server ipv6only=off reuseport backlog=511;
listen [:?:443 default_server ipv6only=off reuseport backlog=511 ssl http2;
Не таки сам nginx

Роман
16.08.2017
07:38:38

Maksim
16.08.2017
07:55:54
gcr.io/google-containers/nginx-ingress-controller:0.9.0-beta.3

Роман
16.08.2017
08:04:06
0.9.0-beta.11
А в темплейте написан коммент:
Listen on 442 because port 443 is used in the TLS sni server This listener must always have proxy_protocol enabled, because the SNI listener forwards on source IP info in it.

Maksim
16.08.2017
08:12:06
ху из sni серевер Оо

Роман
16.08.2017
08:18:06
ху из sni серевер Оо
Расширение TLS, позволяющее сообщить имя хоста, с которым они пытаются связаться во время хендшейка. Так контроллер выбирает ингресс, который использовать для соединения.
Похоже в этом моя проблема, но как решить, не даунгредясь...

Maksim
16.08.2017
08:33:01
у меня одно имя) и сертификат на имя)

kvaps
16.08.2017
08:47:17

Google

Ivan
16.08.2017
08:49:38
Я убунту разливаю, очень удобно
о! круто!
я тут столкнулся с такой странностью, что не всё написанное в конфиге игнишена исполняется.
например успешно задаётся ключ для авыторизации юзера, но пароль - ни в какую.
файлы некоторые создаются, некоторые нет...
хотя все блоки беру копипастом из экзаплов самого мачбокса...
не сталкивался с таким?

kvaps
16.08.2017
08:51:07
сорри не пользуюсь мачбоксом :)
не знал что он убунту умеет разливать

bebebe
16.08.2017
09:14:55
ээээ а кто-нибудь скрещивал k8s 1.6.x с aws блок стораджем для pvc?

Ivan
16.08.2017
09:15:43

bebebe
16.08.2017
09:15:57

Ivan
16.08.2017
09:16:51
создал pv(в 1 зоне), и pvc. Все вроде работает. Интересует вопрос рейсайза в будущем=)

bebebe
16.08.2017
09:17:49
а то ловлю такую неприятную ситуацию:
kubectl describe pvc myclaim
Name: myclaim
Namespace: default
StorageClass: slow
Status: Pending
Volume:
Labels: <none>
Annotations: kubectl.kubernetes.io/last-applied-configuration={"apiVersion":"v1","kind":"PersistentVolumeClaim","metadata":{"annotations":{},"name":"myclaim","namespace":"default"},"spec":{"accessModes":["ReadWrit...
Capacity:
Access Modes:
Events:
FirstSeen LastSeen Count From SubObjectPath Type Reason Message
--------- -------- ----- ---- ------------- -------- ------ -------
25m 11s 104 persistentvolume-controller Warning ProvisioningFailed no volume plugin matched
no volume plugin matched :/

Ivan
16.08.2017
09:18:37
после создаешь pv

bebebe
16.08.2017
09:18:55
да, storageclass у меня определенн именно таким образом

Ivan
16.08.2017
09:22:08
а сам pv создан?

bebebe
16.08.2017
09:24:42
я остановился на том, что у меня pvc показывает no plugin matched :/
и висят в статусе pending
kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESSMODES STORAGECLASS AGE
myclaim Pending slow 34m
myclaim2 Pending slow2 6m
что бы динамически аллоцировался