@kubernetes_ru

Страница 196 из 958
Denis
30.06.2017
08:57:46
coreos/hyperkube
а в чем разница между v1.6.6_coreos.1 и v1.6.6_coreos.0 ?

а также никого не смущает что там в отчете security scan 18 critical CVE ?

https://quay.io/repository/coreos/hyperkube/image/2b695152fc71ce2aca6e0ecd3fddae43c8602fb374c65260a9a3806f8d671986?tab=vulnerabilities

например

Google
Let Eat
30.06.2017
08:59:30
а также никого не смущает что там в отчете security scan 18 critical CVE ?
ты кликни на них, я глянул парочку, там CVE только на apple платформах применимы были

(тем любопытнее, что quay security scanner принадлежит самим coreos)

Denis
30.06.2017
09:00:27
Вот меня тоже это удивило )

А насчет суффикса 0 и 1 не подскажешь?

Let Eat
30.06.2017
09:01:21
мне кажется суффикс это пересборка на новом базовом образе

но никогда не проверял, беру последние )

Andrey
30.06.2017
09:20:36
хм, а если я requests.cpu нигде не прописываю, а прописываю только limits.cpu то почему вижу сообщение No nodes are available that match all of the following predicates:: Insufficient cpu (5).? или я что-то пропустил в доках?

Let Eat
30.06.2017
09:21:38
была ручка где-то, которая за тебя прописывала лимиты, если не указано

Denis
30.06.2017
09:22:20
Andrey
30.06.2017
09:22:56
а ок значит надо явно указывать, спасибо

Arthur
30.06.2017
13:10:38
подскажите как понять какой StorageClass нужен?

Maksim
30.06.2017
13:20:43
Всмысле?

сам оценивай какое твое хранилище быстрее какое медленее

Google
Maksim
30.06.2017
13:21:31
например ceph на 30Gb/s явно быстрое)

Paul
30.06.2017
13:21:51
подскажите как понять какой StorageClass нужен?
в смысле - какой? название же из головы

Айбелив
30.06.2017
13:24:25
для базы fast, для статики slow

Maksim
30.06.2017
13:25:00
Дык там сам назначаешь название для каждой своей хранилки подключенной к куберу)

Ayrat
30.06.2017
13:25:08
Называй как хочешь :) главное указать к чему цепляешь чепез provisioner parametre

Maksim
30.06.2017
13:25:14
хоть серое-бурое в крапинку назови) куберу не важно

Paul
30.06.2017
13:40:23
как туда указать ноду в которой будут хранится данные?
в смысле? сторадж - отдельная сущность

Arthur
30.06.2017
13:41:33
похоже я что то не так делаю

ну вот есть у меня машина в которая будет выступать стораджем. вот как ее указать в параметрах для PersistentVolume?

Fike
30.06.2017
13:46:17
машина сама по себе не может быть стораджем, стораджем может быть сервис

либо (в виде исключения) hostPath и прочие штуки, созданные исключительно для отработки интересующих штук, но не использования в проде

под сервисом имеется в виду какой-то поставщик вольюмов хранения (ceph, nfs, прочее), а не кубернетесовский сервис

Айбелив
30.06.2017
13:48:00
hostPath он наверное имеет в виду

Fike
30.06.2017
13:48:23
он имеет в виду одну машину, которая будет хранить данные всего кластера

Arthur
30.06.2017
13:50:15
ну не совсем всего кластера

hostPath он наверное имеет в виду
работает только на мастере?

Maksim
30.06.2017
13:51:28
работает только на мастере?
Работает только на хосте

Google
Maksim
30.06.2017
13:51:50
При создания пода, создаёт Папку на Хосте и монтирует в под в качестве vilume

И кажись очищает при смерти пода)

В последнем не уверен, нужно доку читать

Arthur
30.06.2017
13:52:54
теперь понял

спасибо

Айбелив
30.06.2017
13:53:21
Maksim
30.06.2017
13:53:52
не очищает
я просто сразу на ceph и nfs сел)

Айбелив
30.06.2017
13:53:59
один hostPath могут примонтировать много под, если хоть одна очистит, то остальные повалятся по сути

Arthur
30.06.2017
13:54:01
Работает только на хосте
а хост имеется ввиду та нода, на котором Pod поднялся?

Айбелив
30.06.2017
13:55:19
я просто сразу на ceph и nfs сел)
мы потыкали в gluster, но что-то как-то не очень. Решили вообще от provisioning'а отказаться

Айбелив
30.06.2017
13:55:51
а они не разные для разных подов?
как папка на одной машине может быть разная?

и юзаете сейчас hostPath ?
да, с самописным драйвером монтирования шард

Fike
30.06.2017
14:01:44
И кажись очищает при смерти пода)
полчаса пытался сообразить, откуда у меня такие же воспоминания - это emptyDir, оказывается

Paul
30.06.2017
14:18:30
Sergey
30.06.2017
15:35:03
Ребят кто пускал websocket через nginx ingress? Делаю по мануалу а ingress стирает заголовки "Connection" и "Upgrade"

и в итоге не получается открыть ws коннект

Google
Alexey
30.06.2017
16:17:06
А есть ли в кубах возможность сделать локальный named volume из докера? Или только hostPath и всё?

Fike
30.06.2017
16:19:27
зачем? в поде все контейнеры видят вольюм

Admin
ERROR: S client not available

Alexey
30.06.2017
16:41:56
зачем? в поде все контейнеры видят вольюм
Как минимум из за того, что можно случайно обосраться с mount'ом на несуществующие директории и из за прав на директории, конечно.

Fike
30.06.2017
16:54:50
вы /etc собрались маунтить?

Alexey
30.06.2017
18:34:21
@rossmohax Да, вроде этого, но с персистом.

@etkee нет, собрался маунтить эластик, к примеру. Но у эластик запускается в контейнере от юзера отличного от рута. При маунте на хост я ожидаемо получу ошибку с правами.

Fike
30.06.2017
18:57:23
мда, я думал это говно уже везде починили

в хабовском репозитории по умолчанию рут

Alexey
30.06.2017
19:01:28
@etkee Вот, кстати, об этом в хорошей статье https://blog.amartynov.ru/docker-named-volumes/

Fike
30.06.2017
19:01:58
спасибо, я давно уже решил, что вольюмов надо просто избегать как огня

Alexey
30.06.2017
23:30:51
@rossmohax Спасибо! Попробую поиграться с этим.

Nderimar
01.07.2017
03:39:15
@FolderArchive - канал, где сливают платный полезный - образовательный контент и курсы, например можно скачать курсы "Нетологии" или все курсы "Бизнес Молодости".

Rick
02.07.2017
17:58:40
Хочу бабу

Alexey
02.07.2017
18:06:03
@nodekra В случае с маунтами на хосте ("/state/elastic:/usr/share/elasticsearch/data") будет сохраняться мета хоста, что логично и решение приходит простое и убогое: chmod на нужные права снаружи или chown изнутри. Но это чисто проблема на инициализации. Если юзать named volumes(ну или олдовый вариант с data containers и volumes-from), то проблема, естественно, пропадает, потому что мета сохраняется контейнерная.

Google
Alexey
02.07.2017
20:17:49
@nodekra Увы, на инициализации не назначает. Можешь проверить с эластиком к примеру. Просто я часто попадался на такое, у нас были любители делать host mounts вместо named volume.

Он просто отваливается из за недостатка прав

Konstantin
02.07.2017
20:18:26
Я буквально вчера elk поднимал

Alexey
02.07.2017
20:18:29
Также логстеш, кстати

Официальный контейнер?

https://www.elastic.co/guide/en/elasticsearch/reference/current/docker.html

Konstantin
02.07.2017
20:18:55
Сначала через маунт, потом на волумы перевёл- удобнее

Alexey
02.07.2017
20:20:09
У named volumes ещё есть замечательная особеность. Возможность чистится через docker volume prune, когда они в детаче. Иногда полезно бывает, хотя иногда можно неосторожным движением убить всё.

Konstantin
02.07.2017
20:21:24
Он просто отваливается из за недостатка прав
Так ты файлы подсовывал свои, не те что контейнер создаёт?

Alexey
02.07.2017
20:22:24
На эластике был просто маунт что-то вроде такого ```/state-dir/elastic:/usr/share/elasticsearch/data

Konstantin
02.07.2017
20:24:56
ну папка на хосте пустая была? и еластик не поднялся?

Официальный контейнер?
да, его. да собвственно не в образе дело

Alexey
02.07.2017
20:29:30
Ну они всё правильно делают. Там User заменяется на elastic, кажется. А прямого маппинга нет. В этом весь и цимес.

Маппинга юзера с хостмашины и в контейнере. Теоретически так и с рутом можно попасть если запускать докер демон с ремаппингом рута контейнера, чтобы рут хоста и контейнера отличались. Ну это так, с позиции диванного теоретика говорю :)

Страница 196 из 958