@kubernetes_ru

Страница 239 из 958
bebebe
15.08.2017
14:55:22
да я как бы не просил правду матку

я про опыт деплоя спиннакера в k8s

Artem
15.08.2017
15:00:04
поставился helm install stable/spinnaker -n spinnaker

вроде работает даже

Google
Alisa
15.08.2017
16:02:38
есть супер мощный физический сервак на centos и нужно там равзернуть кластер kubernetes, агенты которого можно будет потом масштабировать и на другие серваки как это правильнее сделать? сначала натыкать виртуалок и потом kubeadm/kubespray или сразу kubeadm можно?

Artem
15.08.2017
16:20:49
а виртуалки там под чем?

проверь, что у тебя работает nfs, например. у меня не работает под centos7

и что такое супермощный ?

Alisa
15.08.2017
16:23:58
виртуалок еще нет, я вот думаю как это лучше всего приготовить ?

и что такое супермощный ?
64gb ddr4, i7, gtx1080, 1tb ssd ну то есть туда можно виртуальных нод понатыкать и вроде как это даже будет хорошо работать (мне так хотелось бы)

я прекрасно понимаю что это не прям гигант вычислительных возможностей если что) просто пока что это самый мощный сервак, который я арендовал и хочу выжать из него максимум >:з

Artem
15.08.2017
16:27:56
ну тяжело с одной нодой будет

Сергей
15.08.2017
16:28:33
Это супер мощный?

Вон у меня 10 деллов r9xx серии

Там под тэр памяти и сотню кпу

Fike
15.08.2017
16:29:07
только не процомерка

ради всего святого

Google
Сергей
15.08.2017
16:29:35
Письками не вариант, я сразу проиграю

Fike
15.08.2017
16:30:07
интересует еще меньше, чем выислительные мощности, управляемые участниками

Сергей
15.08.2017
16:30:42
Тем более

Tenni
15.08.2017
16:37:26
вы от темы отошли, подскажите самый беспроблемный вариант, я так понимаю на хосте создаем KVM, внутри будет что-то типа ubuntu, на ней поднимаем k8 и выбираем контейнеры или виртуализацию на coreos (не помню как называется, libvirte или что-то такое).

для меня это тоже сейчас актуальная тема.

Alisa
15.08.2017
16:38:42
Я бы без виртуалок делал, зачем еще один уровень
ну, хочется единую точку входа, вполне возможно что через n-ое время я воткну еще одну такую же ноду или помощнее и хотелось бы также просто масштабировать ее (порезать на виртуалки и добавить как агентов в кластер)

Tenni
15.08.2017
16:38:48
https://gist.github.com/dghubble/c2dc319249b156db06aff1d49c15272e

вчера вот такое нарыл

Alisa
15.08.2017
16:41:38
вчера вот такое нарыл
а деплоить что-то в итоге начал или тоже пока рисечишь как лучше всего это приготовить?

Tenni
15.08.2017
16:42:28
тоже как ты, думаю над грамотным деплоем

мне k8 как оркестратор очень понравился, вот и загорелся

Alisa
15.08.2017
16:43:01
++

Tenni
15.08.2017
16:45:47
++
кстати, красная шапка будет 23 августа проводить вебинар, можешь загуглить и подписаться, он по k8

это бесплатно, не реклама =)

Artem
15.08.2017
16:48:48
я бы поставил бареметал,

Pavel
15.08.2017
16:49:09
Да у шапки все семинары - рекламма

Artem
15.08.2017
16:49:15
вот только проверил бы сначала, подойдет ли центос

nfs не работает (

Tenni
15.08.2017
16:50:28
Да у шапки все семинары - рекламма
но много интересного рассказывают, вторая часть обычно реклама, угу

Google
Artem
15.08.2017
16:50:28
RPC: fragment too large

Tenni
15.08.2017
17:22:09
redhat

Artem
15.08.2017
17:24:16
я к ним один раз съездил на сеимнар. Сначала всех споили до бесчувственного состояния, а потом заставили два дня слушать рекламу с легким налетом технологий )

Tenni
15.08.2017
17:32:45
?

Artem
15.08.2017
17:37:39
и хрен уедешь, за руль нельзя. и не кормят, пока не прослушаешь про еще одну вундервафлю. А вдали с нетерпением цисковцы ждут очереди )) больше на семинары не хожу. К Бунину тоже.

Сергей
15.08.2017
17:54:33
У нага тоже так крос проходит ?

Пашкин
15.08.2017
19:23:49
Друзья! У меня маленькая, но непонятная мне проблемка с кубом. У меня куб на coreOS. И после апгрейда куба на 1.7 возникла циклическая зависимость между flannel-docker-opts, flanneld, etcd3, docker на мастер нодах. И вроде все логично. flannel-docker-opts должен запускаться после flanneld и формировать файлик с настройками. Свои настройки flannel считывает из etcd3, etcd3 запускается в докере. Но докеру перед запуском сервиса нужны настройки, которые сформирует flannel-docker-opts. Может etcd3 должен не в докере запускаться, а в rkt? Может кто у себя посмотрит? Ведь у всех работает.

Сергей
15.08.2017
20:06:24
Я бы етсд вынес за пределы докера и стартовал первым

Если учесть что это умная го бинарь со стат линковкой то вообще можно через стстемд юнит

Vitaliy
15.08.2017
20:53:27
В coreos есть сервис etcd-member который запускает etcd3 через rkt. Он по умолчанию выключен.

Zloy Dobriy
16.08.2017
04:48:25
Вот так сео

Andrey
16.08.2017
06:14:07
?

Скорее всего человек из тусовки Бизнес Молодости

Роман
16.08.2017
06:51:33
Ребята. Сталкивался ли кто-нибудь с таким? Обычно под вечер (но бывало и с утра) переставал работать nginx-ingress-controller. При попытке войти на сайты с https, происходила очень долгая попытка загрузки, которая ничем не заканчивалась. Просто белый экран и никаких ошибок ни в логах контроллера, ни в логах куба. Вход на http давал ответ 301. Есть предположение, что, поскольку 443 порт слушает не nginx, а контроллер (и дальше направляет трафик на 442 порт nginx'а), то проблема именно в этом месте. Помогите советом, что глянуть.

Ivan
16.08.2017
07:08:54
Доброе утро, народ! А есть тут кто нибудь, кто заливает coreos по pxe с помощью matchbox?

Google
Роман
16.08.2017
07:28:59
ООоООООоОО...Ты меня удивил. оба порта и 443 и 80 слуашет сам nginx
Сейчас приеду в офис, покажу netstat. 442 слушает nginx. 443 ингресс контроллер для SNI.

Сам удивлён.

Maksim
16.08.2017
07:29:28
CNI?

мне да же стало интересно пойду посмотрю что там)

Роман
16.08.2017
07:30:15
CNI?
Нет. Именно SNI.

Admin
ERROR: S client not available

Maksim
16.08.2017
07:32:56
listen [:?:443 default_server ipv6only=off reuseport backlog=511 ssl http2;

server { server_name _; listen [:?:80 default_server ipv6only=off reuseport backlog=511; listen [:?:443 default_server ipv6only=off reuseport backlog=511 ssl http2;

Не таки сам nginx

Роман
16.08.2017
07:38:38
listen [:?:443 default_server ipv6only=off reuseport backlog=511 ssl http2;
А какая версия контроллера?

Maksim
16.08.2017
07:55:54
gcr.io/google-containers/nginx-ingress-controller:0.9.0-beta.3

Роман
16.08.2017
08:04:06
gcr.io/google-containers/nginx-ingress-controller:0.9.0-beta.3
server { server_name foo.bar.com; listen 80; listen [:?:80; set $proxy_upstream_name "-"; listen 442 proxy_protocol ssl http2; listen [:?:442 proxy_protocol ssl http2;

0.9.0-beta.11

А в темплейте написан коммент: Listen on 442 because port 443 is used in the TLS sni server This listener must always have proxy_protocol enabled, because the SNI listener forwards on source IP info in it.

Maksim
16.08.2017
08:12:06
ху из sni серевер Оо

Роман
16.08.2017
08:18:06
ху из sni серевер Оо
Расширение TLS, позволяющее сообщить имя хоста, с которым они пытаются связаться во время хендшейка. Так контроллер выбирает ингресс, который использовать для соединения.

Похоже в этом моя проблема, но как решить, не даунгредясь...

ху из sni серевер Оо
А у тебя только один сайт на твоём ip?

Maksim
16.08.2017
08:33:01
у меня одно имя) и сертификат на имя)

Google
Ivan
16.08.2017
08:49:38
Я убунту разливаю, очень удобно
о! круто! я тут столкнулся с такой странностью, что не всё написанное в конфиге игнишена исполняется. например успешно задаётся ключ для авыторизации юзера, но пароль - ни в какую. файлы некоторые создаются, некоторые нет... хотя все блоки беру копипастом из экзаплов самого мачбокса... не сталкивался с таким?

kvaps
16.08.2017
08:51:07
сорри не пользуюсь мачбоксом :) не знал что он убунту умеет разливать

bebebe
16.08.2017
09:14:55
ээээ а кто-нибудь скрещивал k8s 1.6.x с aws блок стораджем для pvc?

Ivan
16.08.2017
09:15:43
bebebe
16.08.2017
09:15:57
Ivan
16.08.2017
09:16:51
создал pv(в 1 зоне), и pvc. Все вроде работает. Интересует вопрос рейсайза в будущем=)

bebebe
16.08.2017
09:17:49
а то ловлю такую неприятную ситуацию: kubectl describe pvc myclaim Name: myclaim Namespace: default StorageClass: slow Status: Pending Volume: Labels: <none> Annotations: kubectl.kubernetes.io/last-applied-configuration={"apiVersion":"v1","kind":"PersistentVolumeClaim","metadata":{"annotations":{},"name":"myclaim","namespace":"default"},"spec":{"accessModes":["ReadWrit... Capacity: Access Modes: Events: FirstSeen LastSeen Count From SubObjectPath Type Reason Message --------- -------- ----- ---- ------------- -------- ------ ------- 25m 11s 104 persistentvolume-controller Warning ProvisioningFailed no volume plugin matched

no volume plugin matched :/

Ivan
16.08.2017
09:18:37
а нужно ли каким-либо образом ставить aws-ebd provisioner
да, примерно так: kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: postgres-aws-ebs labels: env: production provisioner: kubernetes.io/aws-ebs parameters: type: gp2 zone: eu-west-1a

после создаешь pv

bebebe
16.08.2017
09:18:55
да, storageclass у меня определенн именно таким образом

Ivan
16.08.2017
09:22:08
а сам pv создан?

bebebe
16.08.2017
09:24:42
я остановился на том, что у меня pvc показывает no plugin matched :/

и висят в статусе pending kubectl get pvc NAME STATUS VOLUME CAPACITY ACCESSMODES STORAGECLASS AGE myclaim Pending slow 34m myclaim2 Pending slow2 6m

а сам pv создан?
а у вас pvc есть ресурс?

что бы динамически аллоцировался

Страница 239 из 958