
yopp
06.07.2016
07:59:11
я ваще ожидал что оно из сокета хоста получит всё чо надо

R-omk
06.07.2016
07:59:55
хост про авторизацию ничего не знает

bama^boy
06.07.2016
08:00:08
вообще крутить докер в докере как-то не очень

Google

R-omk
06.07.2016
08:00:34

bama^boy
06.07.2016
08:00:52
http://i1.kym-cdn.com/photos/images/original/000/531/557/a88.jpg

Artur
06.07.2016
08:01:19

bama^boy
06.07.2016
08:02:20
это не конфигурируемо
конфигурируемо, если ты конфиг приносишь каким-нить менеджером конфигурации, например ansible ну или монтируй хомяк из хоста в докер

yopp
06.07.2016
08:02:58
CI в докере

R-omk
06.07.2016
08:03:31
у меня вот есть контейнеры самоавторизующиеся для CI , им в ENV даешь все что нужно и они сами авторизуются в докер регистр, в ssh/git.

bama^boy
06.07.2016
08:04:18
у нас имеджи собираются в CI на виртуалках. под каждый проект выделен свой слейв-виртуалка. Если нужно, можно на каждый билд поднимать временную виртуалку

R-omk
06.07.2016
08:09:01
у нас имаджи собирает специальный самоавторизующийся контейнер с dind наборту и всем необходимым для билда чего угодно.
такойконтейнер запускается gitlab runner'ом , раннер подсовывает этому контейнеру файлик с данными для авторизации
Раннер устанавливается через ansible , и в этот момент подсовываются авторизационные данные
все абсолютно секьюрно

yopp
06.07.2016
08:09:39
вот у нас тоже самое, только тимсити

bama^boy
06.07.2016
08:10:45
а у нас jenkins =)

Google

R-omk
06.07.2016
08:11:05
у кого drone ?

yopp
06.07.2016
08:12:56
или не шелл

R-omk
06.07.2016
08:15:27
есть контейнер с диндом, он просто умеет башем сделать source /some/mount/file/with.env и потом сделать docker login -p ${REG..PASS} -u ${REG..USER} ${REG..URL} и всё... тоесть он авторизауетсякаждый раз при старте, все это вшито в entrypoint и состороны никак нельзя заафектить или вытащит приватные данные
в итоге такой CI RUNNER шареный для любого проекта в пределах нашего гита
урл для пула строит из урла гита,
имаджи жмет в один слой
пушит тэги всяие..

yopp
06.07.2016
08:28:16
м

Pavel
06.07.2016
09:48:51
Если на хост машине ubutnu 16.04 и в базовом контейнере ubutnu 16.04, то какие-то куски библиотек будут шариться или только ядро?

yopp
06.07.2016
09:49:54
только ядро
если ты специально что-то монтировать снаружи не будешь
так то ты можешь хоть альпин гонять внутри контейнера который на убунте работает

Ivan
06.07.2016
09:51:06
только ядро
аааа вот хз, там были какие-то костыли для шаринга в памяти шаред библиотек. Ты точно уверен, что только ядро? Я вот - нет, так как не помню, о чем сейчас вспомнил)

yopp
06.07.2016
09:55:09
а, чёрт, я вопрос не совсем правильно понял. да, дедупликацию впилили вроде, ага
но да, я тоже не уверен что оно работает всегда и везде, там всё как-то сложно было

Pavel
06.07.2016
09:56:42
Ну лан будем считать что это не гарантированная фича

yopp
06.07.2016
09:58:11
вон в рассылке по этому поводу
Which (if I read the tea leaves right) confirms what Jérôme is saying - if you use aufs, then the memory is shared, but if you use one of the other 'real' device based FS's, it isn't.
https://groups.google.com/forum/#!topic/docker-dev/NOeA2YHl1sU
от 2014 года
кстати, а кто-то уже пробовал докера на zfs на бубунте 16.04?

Google

Phil
06.07.2016
11:21:23
я бы спросил "кто решился на zfs на птицуксе" )

Aleksey
06.07.2016
11:22:20
есть опыт, правда не с докером, а lxd. Подкупило нативная в zfs реализация рейдов и встроенный кеш на ssd диске
оказалось крайне удобно и производительно

Phil
06.07.2016
11:23:37

Aleksey
06.07.2016
11:24:30
ну overlay и zfs это вроде разные драйвера для стораджей или я что-то путаю?

yopp
06.07.2016
11:24:38
и тут какбе снепшоты у zfs?
aufs тоже вполне себе умеет в слои
или я не понял пассажа про overlayfs

Aleksey
06.07.2016
11:26:16
zfs в линксе, имхо, все-таки про удобства работы с рейдами, снепшотами и ssd кешем, профита от zfs на сингл диске относительно aufs скорей всего просто нет

yopp
06.07.2016
11:26:55
у меня есть эфемерный sata ssd, и есть куча nbd
я хочу на ssd кеш, а из сетевых блочных устройств наделать себе пулов
мне больше всего интересно что будет c named volumes и можно ли их будет нормально снепшотить

Aleksey
06.07.2016
11:28:42
нет такого опыта нет - на бэкап средствами zfs не завязывался, да для каких то вещей скорей ок, плюс дедупликация

yopp
06.07.2016
11:29:11
в девопс чятике плохо отзывались про дедупликацию на ZoL

Aleksey
06.07.2016
11:29:21
но мой юзкейс в zfs иметь "много" места за счет sata и чтобы оно быстро работало
второй юзкейс - zvol по iscsi
тут вообще все хорошо

Phil
06.07.2016
11:34:29

Google

yopp
06.07.2016
11:36:33
c 15.04 ситуация вроде как заметно изменилась
меня пугает в целом две вещи
1) докер там активно использует снепшоты, а большое количество снепшотов для зфс так себе
2) не очень понятно насколько драйвер для зфс в докере вменяемый. информации ничтожно мало

Aleksey
06.07.2016
11:38:38
в общем плюсов от zfs в 16.04 - я вообщем даже понимаю Космонавта - это очень серьезное и походу очень правильное решение было, вкупе с lxd - там громадные перспективы
а что под вменяемостью понимать?
драйвер в ядре, прослоек нет. Да там вроде есть баги про acl и все такое, но это актально темЮ кто самбу собрался гонять на zfs

Admin
ERROR: S client not available

yopp
06.07.2016
11:39:24
насколько оно адекватно использует все возможности zfs
м, не правильно сказал, стораджадапетр то есть же

Aleksey
06.07.2016
11:40:36
ну свои кейсы я выще описал, в кернел паник не уходил ни разу, при чем сижу с беты 16.04 работает быстро, но разумеется надо много памяти

yopp
06.07.2016
11:40:59
много — для дедупликации или для ARC?

Aleksey
06.07.2016
11:41:47
это слишком большой пласт для внедрения - тестирование всей конструкции займет много времени -по этому пока в такие дебри и не лезли

yopp
06.07.2016
11:42:45
и много, это сколько? :)
у всех разные понятия много :)
кстати, про smartos, это который от joyent?

Aleksey
06.07.2016
11:44:15
Много? Ну там же много кейсов - everybody wants backup nobody wants to rrestore - то есть надо моделировать отказ и потом восстанавливать, при чем не на малых данныхз
и это уже много времени получается на полноцененое внедрение

yopp
06.07.2016
11:44:31
вы её как вообще деплоите? мне очень нравится идея, но после того как я почитал их доку по железным требованиям и понял что всё очень сложно
про много, я про память

Google

Aleksey
06.07.2016
11:45:16
ааа
чем больше тем лучше :))
на сторадже с 16tib 32 гига - уже тяжко
хотелось бы больше
но и так работает, по isci на мелких файла стабильно около 600 mib канал забит
локально тестить - надо еще понять как - поскольку как я поняль нельзя сказать -o direct
там очень все на память завязано

yopp
06.07.2016
11:48:33
16тб у нас пока не будет, у нас основная проблема субд хранить, а там уже и так всё оптимизированно и я предпологаю около 10гб в месяц роста, так что далеко :)

Phil
06.07.2016
11:49:02
Мне кстати не очень понятно, overlayfs он поверх zfs будет работать?

yopp
06.07.2016
11:50:22
нет
https://docs.docker.com/engine/userguide/storagedriver/zfs-driver/
точнее как, наверное конечно можно, но зачем

Phil
06.07.2016
11:51:11
ммм... чтобы не дублировать?

yopp
06.07.2016
11:51:32
так в zfs вместо слоёв снепшоты

Aleksey
06.07.2016
11:51:41
про базу в контейнере - вопрос релизиозный, простой пример: автовакуум не отработал, в это время снашот - что в спаншоте, как стартанет потом с него?

yopp
06.07.2016
11:52:59

Aleksey
06.07.2016
11:53:26
а я и не делаю, я бекаплю со слейва :)