Artemy
@adiantum чел в лс срет про крипту
Это вот этот который тут счас пишет?
Viktor
Он походу только ради этого сюда и пришёл
Artemy
Вот и всё
Artemy
Не бывать нам всем криптоинвесторами
Artemy
В этом чатике инвестировать надо в опенстек и его разработчиков 😊
Maksimus Ulibikus
Парни, привет. Что должен выдать API Glance, если curl host:9292 ? У меня выдаёт: # curl https://os-api.xxx.ru:9292 curl: (52) Empty reply from server
Maksimus Ulibikus
Я правда сам сервис еще не запускал🤣
Maksimus Ulibikus
Я правда сам сервис еще не запускал🤣
Запустил, но все равно curl: (52) Empty reply from server Может кто-нибудь у себя проверить и показать вывод?
Ilya
Запустил, но все равно curl: (52) Empty reply from server Может кто-нибудь у себя проверить и показать вывод?
{"versions": [{"id": "v2.12", "status": "CURRENT", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.11", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.10", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.9", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.8", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.7", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.6", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.5", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.4", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.3", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.2", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.1", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}, {"id": "v2.0", "status": "SUPPORTED", "links": [{"rel": "self", "href": "http://172.16.0.19:9292/v2/"}]}]}
Ilya
haproxy родной
Maksimus Ulibikus
haproxy родной
А блин. Просто у меня SSL и тут похоже c просто http в конфиге не обойтись
Ilya
А блин. Просто у меня SSL и тут похоже c просто http в конфиге не обойтись
Я в песочнице виртуальной без необходимости не поднимаю - траффик иногда интересно глядеть. С сертификатоми это немножко менее удобно
Maksimus Ulibikus
Может у кого есть конфиг Apache для Glance API через SSL? Не могу найти, нашёл для nginx, натсроил, но возвращает curl: (52) Empty reply from server 🤦‍♂️
I
Ребят, просто уточняющий вопрос, создавая снапшоты дисков с работающей ВМ, это ведь не может как-то негативно отразиться на работе самой ВМ?
NS 🇷🇺
а если его нет?
Ну не совсем консистентный снимок будет
I
А как снимается снапшот ?
если без подробностей, то это копия состояния диска, ну да, наверное немного лишний вопрос был, просто как-то клонировал ВМ, с выключением, т.е. получается чтобы снимки были консистентные, после включения некоторые ВМ не завелись..
Andrei
qemu с рабочих вм в 90% случаев снимает нерабочий снапшот
Andrei
собсно, openstack скорее всего тоже
I
если без подробностей, то это копия состояния диска, ну да, наверное немного лишний вопрос был, просто как-то клонировал ВМ, с выключением, т.е. получается чтобы снимки были консистентные, после включения некоторые ВМ не завелись..
т.е. стек здесь не причем, просто есть часть ВМ, которые не я настраивал и не могу точно сказать поднимутся они после выключения или нет, просто задался вопросом, существует ли вероятность, что механизм создания снапшота повлияет на их работу) скорее всего никак не повлияет
I
qemu с рабочих вм в 90% случаев снимает нерабочий снапшот
2-3 ВМ клонировал на горячую, запустились, т.е. собственно это и нужно проверить, запускаемость некоторых машин)
Andrei
2 ВМ до этого заснапшотились без проблем
I
в моем случае факап произошел на самой критичной вм
вот у меня нечто похожее произошло)) только немного в другом плане, некоторые ВМ не пережили выключение)
Andrei
я пошел по гарантированно надёжному пути - выковыриваю аппрув на шатдаун вм перед снапшотом
I
я пошел по гарантированно надёжному пути - выковыриваю аппрув на шатдаун вм перед снапшотом
ну да, вот у меня получается схожая задача, провести анализ не нарушая работу исходной ВМ на предмет переживет она выключение или нет
Artemy
собсно, openstack скорее всего тоже
Зависит от стораджа и настроек. По опыту снапшотит нормально
Artemy
Но кэши на гипер могут очень сильно испортить жизнь. Поэтому их лучше сразу нафиг (кэши в смысле, не гиперы)
Artemy
Имхо единственно правильная настройка это cache=none
Artemy
Остальное лотерея. Ну ещё writethrough туда сюда но профит от него немного
Илья | 😶☮️🐸
Andrei
Но кэши на гипер могут очень сильно испортить жизнь. Поэтому их лучше сразу нафиг (кэши в смысле, не гиперы)
лучший гипервизор в критерии минимизации факапов в моей истории девопсины - это гиперви
Stanley
Цеф хуже Свифта, лучший гипер от микрософта, Кеши надо отключать. К пятнице ойтишники с пива на кокс переходят что ли? :)
J
Цеф хуже Свифта, лучший гипер от микрософта, Кеши надо отключать. К пятнице ойтишники с пива на кокс переходят что ли? :)
Про кэши то понятно почему, хотя и не согласен, считаю что writeback ок если ты знаешь где и чем эт рискованно. Но остальное да, любопытно, так сказать)
Stanley
Да все там хорошо с писаниемвзадницу. Батарейки вовремя менять просто надо.
Stanley
Ну и гиперви это конечно да. Хоть бы esxi назвали...
J
Да все там хорошо с писаниемвзадницу. Батарейки вовремя менять просто надо.
Про аппаратный кэш дисковых контроллеров речи не шло)
Stanley
J
Там про риск того что когда используешь файлы для хранения дисков машин и режим writeback, надо всегда помнить что ты можешь ткнуть снятие снапшота с работающей без агента машины, а в это время у тебя в кэше vfs грязные данные, которые на диск не успели скинуться.
J
Точнее, тут даже и агент не поможет.
Stanley
Снепшоты наживую в принципе зло в любой виртуализации.
J
Ну вот так вот)
Илья | 😶☮️🐸
@Outlingo
Илья | 😶☮️🐸
Делаем бэкапы, по 9-11% коррапта данных
J
Делаем бэкапы, по 9-11% коррапта данных
Зарабатываем на продаже диффов исходного и получившегося образа.
Илья | 😶☮️🐸
kn
Снепшоты наживую в принципе зло в любой виртуализации.
нет, не зло. где не используется кеширование записи вполне нормальный crash consistent, для многих случаев подходит
J
Ну ничо! Я верю что когда-нибудь коммьюнити перестанет быть таким токсичным и враждебным и будет позволять людям зарабатывать на разнице курсов межу обменниками!
Даниил
Привет всем. Вопрос про RBD (ceph) Три Volume по 20000 гигабайт были запущены на rbd, при том что в пуле с учётом избыточности помещалось только ~40 ТБ данных. До некоторого момента это безобразие работало. Но вот настал долгожданный час, когда OSDшки стали nearfull. Заказали диски, чтобы докинуть в пул, а пока они мучительно долго едут, наблюдаю печальную картину: заполненность растёт, хотя внитри ВМок данных, как будто и нет столько, сколько занято на пуле. Озадачился вопросом, а почему так происходит? Это здоровое поведение RBD? Может, какого-то "сборщика мусора" не хватает в настройках?
Даниил
Ceph - сервис Rbd - протокол Osd - демон Volume - виртуальный контейнер данных Что спросить то хотел? :)
Да думаю, может, как-то место можно освободить, чтобы не отключился пул от переполнения, до момента пока новые диски поставлю )
kn
Ceph - сервис Rbd - протокол Osd - демон Volume - виртуальный контейнер данных Что спросить то хотел? :)
"почему суммарный объем занятого места в пуле osd растёт, хотя кажется, что внутри ВМ, использующих этот пул для хранения, объем хранимых данных не уаеличивается"
kn
Да думаю, может, как-то место можно освободить, чтобы не отключился пул от переполнения, до момента пока новые диски поставлю )
можно удалить какие-то ВМ и их тома. когда место кончится такой опции уже, вероятнее всего, не будет.
Nikolay
А как место на вм определяется? И какая там фс?
Nikolay
Сейчас точно не вспомню, но кажись Кассандра очень быстро пустую qcow разжимала до всего доступного объёма, при этом на диске ничего почти небыло
Даниил
А как место на вм определяется? И какая там фс?
изнутри df-ом Предполагаю что умолчальный ext3 Пробовал смотреть при помощи команды rbd diff, данные были несколько неожиданные: почти полностью заполненный один диск (19 с лишним Тб), при том, что он размечен только на 916 Гб и занаято на нём аж целых 4,6Гб долблюсь в глаза, простите. Там четверть где-то занята
Stanley
нет, не зло. где не используется кеширование записи вполне нормальный crash consistent, для многих случаев подходит
Зло это по двум причинам. Во первых, возникает соблазн заменить срк снепшотами, а во вторых, рано или поздно имеем тыкву вместо слепка при уверенности что снеп рабочий.
George
Привет всем. Вопрос про RBD (ceph) Три Volume по 20000 гигабайт были запущены на rbd, при том что в пуле с учётом избыточности помещалось только ~40 ТБ данных. До некоторого момента это безобразие работало. Но вот настал долгожданный час, когда OSDшки стали nearfull. Заказали диски, чтобы докинуть в пул, а пока они мучительно долго едут, наблюдаю печальную картину: заполненность растёт, хотя внитри ВМок данных, как будто и нет столько, сколько занято на пуле. Озадачился вопросом, а почему так происходит? Это здоровое поведение RBD? Может, какого-то "сборщика мусора" не хватает в настройках?
я не в курсе про поддержку по всему стеку, но минимум надо начать с вопроса а делается ли в гостях trim, иначе нижележащим слоям точно будет неоткуда понять что блоки уже не нужны при удалении данных. Но без понимания этого процесса оверкоммит делать не стоит точно
Viktor
Зло это по двум причинам. Во первых, возникает соблазн заменить срк снепшотами, а во вторых, рано или поздно имеем тыкву вместо слепка при уверенности что снеп рабочий.
Это часто встречается. Подменяют резервное копирование снимком, а попытка делать снимки вм с БД вызывает вопросы без ответов
Georgy
Это часто встречается. Подменяют резервное копирование снимком, а попытка делать снимки вм с БД вызывает вопросы без ответов
Ктож так делает то..?.. Снапшот это всего лишь инструмент для бэкапа. Снапшот и бэкап это не одно и то же.
Viktor
Много кто, это вообще не редкость
Ilya
@adiantum чел в лс срет про крипту
Заблокируй и зарепорти спам
Анатолий
Привет всем. Вопрос про RBD (ceph) Три Volume по 20000 гигабайт были запущены на rbd, при том что в пуле с учётом избыточности помещалось только ~40 ТБ данных. До некоторого момента это безобразие работало. Но вот настал долгожданный час, когда OSDшки стали nearfull. Заказали диски, чтобы докинуть в пул, а пока они мучительно долго едут, наблюдаю печальную картину: заполненность растёт, хотя внитри ВМок данных, как будто и нет столько, сколько занято на пуле. Озадачился вопросом, а почему так происходит? Это здоровое поведение RBD? Может, какого-то "сборщика мусора" не хватает в настройках?
вообще, ceph поддерживает unmap, но комментатор выше прав, trim/discard должен быть сконфигурирован в гостях. если trim в госте не включен, то df в госте совсем не обязательно будет показывать актуальный размер sparse диска, например: диск 100 гб, внутри занято 20 гб, фактически размер диска - 20 гб, удаляем 10 и записываем 10, в госте после этого всё ещё занято 20 гб, а фактический размер диска - 30. это, конечно, без trim
Stanley
стоит ли считать тиски злом по той лишь причине, что кто-то умудрился засунуть в них свои тестикулы 🙄
Если тиски на уровне тестикул, обиты замшей, а сверху надпись «вы можете зажать в тисках даже тестикулы», то вне всяких сомнений это зло. :) Тем более что эти тестикулы потом тебе же (мне же) освобождать.