
Ilya
01.09.2016
09:12:51

Andrey
01.09.2016
09:14:39
@EKbfh выбирать все, кроме notebook и dev
в выпадающем списке на Деплой выбрать Install Everything

Ilya
01.09.2016
09:29:11
@dvolodin привет, схему mlag в ноке не прорабатывали?

Google

Dmitry
01.09.2016
09:29:51
не прорабатывали

Ilya
01.09.2016
09:29:58
может сделать проверку на mc-lag?
caps
в плане?
не удалять линк с карты, если он down и при этом mc-lag
он же hot standby
гм.... это хороший вопрос) я так понимаю, mc-lag подключается к разным железкам?
да
active/standby режим
там где standby - там линки down
но при этом lldp видит соседа
sdc-gw02Eth1/46 120 R Te0/0/1/1
Ethernet1/46 is down (Hot standby in bundle)
Dedicated Interface
Belongs to Po2

Google

Ilya
01.09.2016
09:29:58
не... тут, скорее всего, дело в том, что он часть интерфейса более высокого уровня
так он не может к 2 железкам одновременно подключаться

Dmitry
01.09.2016
09:31:38
линк может подключать любое количество железок
по определению
:)

Ilya
01.09.2016
09:33:00
2016-09-01 12:32:40,882 [scheduler.discovery] [49] [discovery|box|sdc-gw02|lldp] Terminated due RPC error: Failed: DictParameter: {'neighbors': [{'remote_port_subtype': 128, 'remote_port': 'Eth1/46', 'remote_capabilities': 4, 'remote_chassis_id': '00:2A:6A:78:B9:F5', 'remote_system_name': 'SDC-C-S1.***', 'remote_chassis_id_subtype': 4}], 'local_interface': 'Te0/0/1/0'}. Invalid value for 'local_interface': Invalid interface 'Te0/0/1/0'
этот интерфейс eth1/46 down (hot standby)
Вот почему оно не опрашивается?
при дискавери mlag клиента этого интерфейса вообще нет (./noc discovery —debug run —check=lldp box sdc-c-s2)
хотя просто вывоод lldp_nei показывает соседа за этим интерфейсом
есть проверка на статус интерфейса? (up/down)

Dmitry
01.09.2016
09:37:59
что за железка ?

Ilya
01.09.2016
09:38:27
xr+nxos

E_zombie
01.09.2016
09:40:18
эко тя раскорячило

Ilya
01.09.2016
09:40:18
но их нет на карте из-за статуса интерфейса, видимо (down hot standby)

Dmitry
01.09.2016
09:40:50
2016-09-01 12:32:40,882 [scheduler.discovery] [49] [discovery|box|sdc-gw02|lldp] Terminated due RPC error: Failed: DictParameter: {'neighbors': [{'remote_port_subtype': 128, 'remote_port': 'Eth1/46', 'remote_capabilities': 4, 'remote_chassis_id': '00:2A:6A:78:B9:F5', 'remote_system_name': 'SDC-C-S1.***', 'remote_chassis_id_subtype': 4}], 'local_interface': 'Te0/0/1/0'}. Invalid value for 'local_interface': Invalid interface 'Te0/0/1/0'
дебаг можно ?
по фотографии у нас лечить не умеют
дебаг get_interfaces и get_lldp_neighbor

Ilya
01.09.2016
09:42:09

Алексей
01.09.2016
09:43:14

Google

Ilya
01.09.2016
09:43:40

Andrey
01.09.2016
09:44:16
@freeseacher я поменял

Ilya
01.09.2016
09:44:17
линки до sdc-gw02 от s1 и s2 down (hot standby) т.к. mc-lag клиенты

Алексей
01.09.2016
09:44:31

Andrey
01.09.2016
09:46:22
я тут поменял https://kb.nocproject.org/pages/viewpage.action?pageId=22380903

Алексей
01.09.2016
09:47:25
а
внезапно

Ilya
01.09.2016
09:49:37
дебаг get_interfaces и get_lldp_neighbor
{'neighbors': [{'remote_port_subtype': 128, 'remote_port': 'Eth1/46', 'remote_capabilities': 4, 'remote_chassis_id': '00:2A:6A:78:B9:F5', 'remote_system_name': 'SDC-C-S1.***', 'remote_chassis_id_subtype': 4}], 'local_interface': 'Te0/0/1/0'}
{'neighbors': [{'remote_port_subtype': 128, 'remote_port': 'Te0/0/1/0', 'remote_capabilities': 16, 'remote_chassis_id': 'E4:C7:22:75:D6:CD', 'remote_system_name': 'sdc-gw02.***', 'remote_chassis_id_subtype': 4}], 'local_interface': 'Et 1/46'}

Алексей
01.09.2016
09:56:16

Evgeniy
01.09.2016
10:46:48
Всем доброго
решил обновиться (tower, noc) и... "500 Internal Server Error"

Andrey
01.09.2016
10:48:16
перезапусти нок

Evgeniy
01.09.2016
10:48:24
в tower когда заходишь в Services - "Failed to get config"
в консоле tower: вывод питона и в конце "AttributeError: 'NoneType' object has no attribute 'iteritems'

Алексей
01.09.2016
10:50:36
обновить башню надо бы

Evgeniy
01.09.2016
10:50:55
с нее родимой и начал

Andrey
01.09.2016
10:50:57
обновлялся, похоже, через tower-upgrade

Evgeniy
01.09.2016
10:51:15
через pip ...

Ivan
01.09.2016
10:51:20
а как выбирать, простите?

Evgeniy
01.09.2016
10:51:32
взял с гитхаба

Google

Evgeniy
01.09.2016
10:51:37
как я понял вы перехали

Andrey
01.09.2016
10:51:51
@EKbfh надо тыкнуть на крестик, поставить 1 и тыкнуть где-то вне поля с крестиком

Ilya
01.09.2016
10:52:10

Andrey
01.09.2016
10:52:10
Evgeniy нет

Ivan
01.09.2016
10:52:20
ОХРЕНЕТЬ
интуитивно, ребята!

Ilya
01.09.2016
10:52:31

Andrey
01.09.2016
10:52:42
Evgeniy ./bin/pip install https://cdn.nocproject.org/tower/noc-tower-master.zip

Ivan
01.09.2016
10:53:09

Andrey
01.09.2016
10:53:13
да

Evgeniy
01.09.2016
10:53:20
@aversant ок. попробую.... у меня выбирался lastest

Andrey
01.09.2016
10:53:40
вот вот:) латест, он, на самом деле, самый старый

Evgeniy
01.09.2016
10:54:00
https://gitlab.com/nocproject/tower
тут бы поправить

Andrey
01.09.2016
10:54:58
не) надо, просто релиз башни сделать
тогда latest станет последним

Ivan
01.09.2016
10:55:35
Всё, пошло деплоиться
посмотрим

Алексей
01.09.2016
10:55:48

Google

Ivan
01.09.2016
10:57:19
TASK [node : Pull NOC] 00:31fatal: [Node_1]: FAILED! => {"changed": false, "failed": true, "msg": "Failed to find required executable hg"}
hg нет в рекомендациях на установке?

Andrey
01.09.2016
10:57:53
есть

Алексей
01.09.2016
10:58:06

Evgeniy
01.09.2016
10:58:11
@freeseacher в Install Tower: noc-tower-latest.zip, а не master

Ivan
01.09.2016
10:58:18
деплой опшенс?
блин, в мануале есть, я проглядел.
TASK [node : Setup hostname] 00:06fatal: [Node_1]: FAILED! => {"changed": false, "failed": true, "msg": "Command failed rc=1, out=, err=hostname: the specified hostname is invalid\n"}
должно совпадать с хостнеймом машины? или можно алиас по днс?

Evgeniy
01.09.2016
11:01:11
@aversant спасиб, ошибка пропала... попробую накатить noc, может оживет...

Andrey
01.09.2016
11:01:27
а ты пробовал его перезапускать?:)

Evgeniy
01.09.2016
11:01:51
да
7 бед - 1 ресет

Andrey
01.09.2016
11:03:28
не, просто, иногда, башня при обновлении его не перезапускает:)
пару раз сталкивался
очень долго искал проблему ^_^

Evgeniy
01.09.2016
11:03:59
тоже было, поэтому проверяю service status'ом

Zek
01.09.2016
11:04:50
после локальных изменений )