@pro_openstack

Страница 48 из 117
Danila
01.12.2016
10:42:39
memorymb - это ключ ?

Roman
01.12.2016
10:43:51
memory_mb

openstack hypervisor show <hypervisor ID>

Danila
01.12.2016
10:44:15
openstack hypervisor list --memory_Mb

Google
Roman
01.12.2016
10:44:23
нет

Danila
01.12.2016
10:44:26
:(

Roman
01.12.2016
10:44:31
openstack hypervisor list

покажет список гиперов их айди

Danila
01.12.2016
10:44:42
да

Roman
01.12.2016
10:44:58
потом натравливаешь openstack hypervisor show на каждый из айлишников в отдельности

Danila
01.12.2016
10:45:29
эх,я думал сразу будет красивая табличка с ресурсами (

тогда понятно

спасибо

Roman
01.12.2016
10:45:53
эх,я думал сразу будет красивая табличка с ресурсами (
Никогда такого в опенсорсе не будет )))

Arthur
01.12.2016
10:46:33
Так все-таки кто для чего использует openstack?

Пока все что видел - поиграться

Roman
01.12.2016
10:46:57
для облаков, публичных

Google
Roman
01.12.2016
10:47:06
iaas

Arthur
01.12.2016
10:47:40
т.е. в продакшене тоже используют?

Arthur
01.12.2016
10:48:24
http://active.uz
о, так мы соседи

Max
01.12.2016
10:49:04
о, так мы соседи
Зачем спрашивать если знаете ответ

Arthur
01.12.2016
10:51:23
Зачем спрашивать если знаете ответ
на сайте не написано на чем облако построено

Михаил
02.12.2016
07:17:02
А у меня только что начальник вынул рандомные диски из цефовых нод. чисто посмотреть, оно же цеф. Хаос монкей блин. Расчитыано было на падение ноды а не на выпадения двух дисков в разных машинах с репликой в 2.

Теперь вы знаете, что двойная реплика не очень)

Pavel
02.12.2016
07:21:24
Теперь вы знаете, что двойная реплика не очень)
С тройной оно точно так же бы упало, если не бить по пулам

Denis 災 nobody
02.12.2016
08:02:20
а иностранцы разбежались? :)

надо запросить как у скайпа сделать, встроенный перевод. Качество конечно так себе, но понять можно

Михаил
02.12.2016
08:04:19
Denis 災 nobody
02.12.2016
08:05:01
можно бота добавить, который автоматом переведет
с ботом много спама будет, неудобно

перевод именно отображаемый

Xeniya MTS
03.12.2016
20:54:34
кто-то с Sahara работал? Там какой сейчас Spark?

всё, разобралась

https://github.com/openstack/sahara/blob/stable/newton/sahara/plugins/spark/plugin.py

def get_versions(self): return ['1.6.0', '1.3.1']

Google
Xeniya MTS
03.12.2016
21:15:44
Все спят :(

Блин, мне не нравится очень, что в master ветке та же фигня

похоже, что в Ocata попадёт та же версия

Кто-нибудь знает разработчиков Sahara?

ptchol
03.12.2016
21:21:46
нет, просто не разговаривают с тобой

Xeniya MTS
03.12.2016
21:25:24
нет, просто не разговаривают с тобой
не велика печаль. В данном случае мне нужны разработчики sahara :)

Марк ☢
08.12.2016
07:31:50
# ceph status cluster 0dd1c5c6-02d8-4fb5-8450-d8ab262e1246 health HEALTH_WARN 128 pgs degraded 128 pgs stuck unclean 128 pgs undersized recovery 4/8 objects degraded (50.000%) monmap e1: 1 mons at {node2=10.80.48.2:6789/0} election epoch 3, quorum 0 node2 osdmap e51: 3 osds: 3 up, 3 in flags sortbitwise pgmap v227: 128 pgs, 1 pools, 114 bytes data, 4 objects 15471 MB used, 2746 GB / 2761 GB avail 4/8 objects degraded (50.000%) 128 active+undersized+degraded

ПАМАГИТЕ ХРИСТА РАДИ

Александр
08.12.2016
07:32:11
Ты забыл написать сколько дисков используешь и т.п.

Марк ☢
08.12.2016
07:32:15
3

там написано вобщем-то

Александр
08.12.2016
07:33:38
А точно, я в глаза ебусь

Марк ☢
08.12.2016
08:08:48
понятно. всем похуй

Марк ☢
08.12.2016
08:10:10
да

ptchol
08.12.2016
08:10:26
Сеф говорили они, это надежно говорили они, он СР говорили они...

Pavel
08.12.2016
08:10:33
да
ССЗБ

Марк ☢
08.12.2016
08:10:53
[root@node2 /]# ceph osd pool ls rbdbench [root@node2 /]# ceph osd pool get rbdbench size size: 2

Ну так и в чём же я не прав ?

Pavel
08.12.2016
08:11:30
Во всем

Google
Марк ☢
08.12.2016
08:11:30
Сеф говорили они, это надежно говорили они, он СР говорили они...
Надёжно. просто "если в башне поебень, то хоть ебень, хоть не ебень"

Во всем
а можно поконкретнее?

Pavel
08.12.2016
08:11:53
Все хуйня, давай по-новой

Марк ☢
08.12.2016
08:12:00
?

Михаил
08.12.2016
08:12:24
Все хуйня, давай по-новой
У него там чистый кластер

Марк ☢
08.12.2016
08:12:27
да

Михаил
08.12.2016
08:12:40
3 OSD на одной ноде

Марк ☢
08.12.2016
08:12:43
да

и вобще в кластере одна нода :)

@alsvartr как отдебажить почему происходит то что происходит?

?!

Taki
08.12.2016
10:04:03
посмотри что с PG творится, ceph health detail, ceph pg PG_ID query

Марк ☢
08.12.2016
10:06:30
pg 4.7 is active+undersized+degraded, acting [1] pg 4.6 is active+undersized+degraded, acting [0] pg 4.5 is active+undersized+degraded, acting [1]

и т.д .все ПГ

Taki
08.12.2016
10:06:57
ceph pg 4.6 query, там куча инфы

Марк ☢
08.12.2016
10:07:16
ceph pg 4.6f query { "state": "active+undersized+degraded", "snap_trimq": "[]", "epoch": 64, "up": [ 2 ], "acting": [ 2 ], "actingbackfill": [ "2" ], "info": { "pgid": "4.6f", "last_update": "0'0", "last_complete": "0'0", "log_tail": "0'0", "last_user_version": 0, "last_backfill": "MAX", "last_backfill_bitwise": 0, "purged_snaps": "[1~3]", "history": { "epoch_created": 52, "last_epoch_started": 64, "last_epoch_clean": 64, "last_epoch_split": 0, "last_epoch_marked_full": 0, "same_up_since": 52, "same_interval_since": 63, "same_primary_since": 52, "last_scrub": "0'0", "last_scrub_stamp": "2016-12-08 13:21:07.555212", "last_deep_scrub": "0'0", "last_deep_scrub_stamp": "2016-12-08 13:21:07.555212", "last_clean_scrub_stamp": "0.000000" }, "stats": { "version": "0'0", "reported_seq": "23", "reported_epoch": "64", "state": "active+undersized+degraded", "last_fresh": "2016-12-08 15:06:05.416194", "last_change": "2016-12-08 15:06:05.333637", "last_active": "2016-12-08 15:06:05.416194", "last_peered": "2016-12-08 15:06:05.416194", "last_clean": "2016-12-08 15:06:04.425617", "last_became_active": "2016-12-08 15:06:05.333637", "last_became_peered": "2016-12-08 15:06:05.333637", "last_unstale": "2016-12-08 15:06:05.416194", "last_undegraded": "2016-12-08 15:06:04.425900", "last_fullsized": "2016-12-08 15:06:04.425900", "mapping_epoch": 52, "log_start": "0'0", "ondisk_log_start": "0'0", "created": 52, "last_epoch_clean": 64, "parent": "0.0", "parent_split_bits": 0, "last_scrub": "0'0", "last_scrub_stamp": "2016-12-08 13:21:07.555212", "last_deep_scrub": "0'0", "last_deep_scrub_stamp": "2016-12-08 13:21:07.555212", "last_clean_scrub_stamp": "0.000000", "log_size": 0, "ondisk_log_size": 0, "stats_invalid": false, "dirty_stats_invalid": false, "omap_stats_invalid": false, "hitset_stats_invalid": false, "hitset_bytes_stats_invalid": false, "pin_stats_invalid": false, "stat_sum": { "num_bytes": 0, "num_objects": 0, "num_object_clones": 0, "num_object_copies": 0, "num_objects_missing_on_primary": 0, "num_objects_missing": 0, "num_objects_degraded": 0, "num_objects_misplaced": 0, "num_objects_unfound": 0, "num_objects_dirty": 0, "num_whiteouts": 0, "num_read": 0, "num_read_kb": 0, "num_write": 0, "num_write_kb": 0, "num_scrub_errors": 0, "num_shallow_scrub_errors": 0, "num_deep_scrub_errors": 0, "num_objects_recovered": 0, "num_bytes_recovered": 0, "num_keys_recovered": 0, "num_objects_omap": 0, "num_objects_hit_set_archive": 0, "num_bytes_hit_set_archive": 0, "num_flush": 0, "num_flush_kb": 0, "num_evict": 0, "num_evict_kb": 0, "num_promote": 0, "num_flush_mode_high": 0, "num_flush_mode_low": 0, "num_evict_mode_some": 0, "num_evict_mode_full": 0, "num_objects_pinned": 0 }, "up": [ 2 ], "acting": [ 2 ],

"blocked_by": [], "up_primary": 2, "acting_primary": 2 }, "empty": 1, "dne": 0, "incomplete": 0, "last_epoch_started": 64, "hit_set_history": { "current_last_update": "0'0", "history": [] } }, "peer_info": [], "recovery_state": [ { "name": "Started\/Primary\/Active", "enter_time": "2016-12-08 15:06:05.249584", "might_have_unfound": [], "recovery_progress": { "backfill_targets": [], "waiting_on_backfill": [], "last_backfill_started": "MIN", "backfill_info": { "begin": "MIN", "end": "MIN", "objects": [] }, "peer_backfill_info": [], "backfills_in_flight": [], "recovering": [], "pg_backend": { "pull_from_peer": [], "pushing": [] } }, "scrub": { "scrubber.epoch_start": "0", "scrubber.active": 0, "scrubber.state": "INACTIVE", "scrubber.start": "MIN", "scrubber.end": "MIN", "scrubber.subset_last_update": "0'0", "scrubber.deep": false, "scrubber.seed": 0, "scrubber.waiting_on": 0, "scrubber.waiting_on_whom": [] } }, { "name": "Started", "enter_time": "2016-12-08 15:06:04.425787" } ], "agent_state": {} }

Александр
08.12.2016
10:08:44
пастбин не?

Марк ☢
08.12.2016
10:08:52
не

такое ощущение что не не может, а не хочет, потому что правила круш мап ему не разрешают соседние ОСД использовать

Google
Марк ☢
08.12.2016
10:11:21
@takilazy

Михаил
08.12.2016
10:14:24
ceph osd tree

покажи

Марк ☢
08.12.2016
10:17:47
[root@node2 /]# ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 2.69688 root default -2 2.69688 host node2 0 0.87849 osd.0 up 1.00000 1.00000 1 0.90919 osd.1 up 1.00000 1.00000 2 0.90919 osd.2 up 1.00000 1.00000

только что добавил ещё один осд. результат тот же

Михаил
08.12.2016
10:55:20
@alsvartr помоги человеку, а то он уже все чаты заспамил )

только что добавил ещё один осд. результат тот же
Слелай erasure coding из трех осд и не делай мозг)

Марк ☢
08.12.2016
12:46:12
всеравно он не юзает соседние осд для копий или для ерасуре (я не пробовал правда с ерасуре, но мне просто это не нужно)

Михаил
08.12.2016
13:18:16
Не очень

[Anonymous]
08.12.2016
13:18:38
Не очень
это может ему помочь ?

f you are trying to create a cluster on a single node, you must change the default of the osd crush chooseleaf type setting from 1 (meaning host or node) to 0 (meaning osd) in your Ceph configuration file before you create your monitors and OSDs. This tells Ceph that an OSD can peer with another OSD on the same host. If you are trying to set up a 1-node cluster and osd crush chooseleaf type is greater than 0, Ceph will try to peer the PGs of one OSD with the PGs of another OSD on another node, chassis, rack, row, or even datacenter depending on the setting.

сения

Страница 48 из 117