@linkmeup_chat

Страница 198 из 1252
Sergey
11.05.2017
08:24:02
# ADDRESS NETWORK INTERFACE 0 ;;; Loopback 10.200.255.11/32 10.200.255.11 lo0 1 ;;; Local Area Network 10.200.6.65/26 10.200.6.64 lan

Sergey
11.05.2017
08:24:16
Вот более понятный пример

Alex
11.05.2017
08:24:21
))

Google
Vladislav
11.05.2017
08:24:55
ну это сеть-несктхоп-интерфейс

не?

Sergey
11.05.2017
08:25:34
Ну да )

Получается и так )

Vladislav
11.05.2017
08:25:42
вот

тогда из вашего примера на сателитах настроен один и тот же адрес, который анонсится серверу

Alex
11.05.2017
08:26:14
вот это я эникастом и назвал

Sergey
11.05.2017
08:26:42
Да, один и тотже адрес, но только в поле NETWORK

в полу ADRESS у него свой IP

Sergey
11.05.2017
08:27:36
Клиент

Vladislav
11.05.2017
08:28:10
ок

тогда адрес 10.40.0.1 настроен на сервере, так?

Google
Sergey
11.05.2017
08:28:48
Да, как анамберед ip для всех тунелей l2tp

Vladislav
11.05.2017
08:28:48
почему он в RIB на сервере указан, как D, а не как напрямую подключенный?

Sergey
11.05.2017
08:28:52
он его шлюз

почему он в RIB на сервере указан, как D, а не как напрямую подключенный?
Вот это я не понял, он его считает напрямуб подключенный - но в интерфейсе всего 2 ip

которые оба unnumbered

Snake
11.05.2017
08:34:57
если у тебя лупы в оспф значит у тебя неправильный дизайн
А почему? лупы в ospf как passive, потом поверх ibgp - классика же, ни?

Sergey
11.05.2017
08:35:32
Классика то оно может и классика

но гемороя в конфигурации добавляет

Snake
11.05.2017
08:35:55
в чём?

Alex
11.05.2017
08:36:03
Sergey
11.05.2017
08:36:03
А мне MPLS ы и L3VPN гонять не надо

Vladislav
11.05.2017
08:36:04
лупы - кольца, а не лупбеки. :)

Snake
11.05.2017
08:36:08
аа

Вообще ospf поверх ppp это, имхо, зло. Ну либо на каждого пира делать свой Local-address

костыль, конечно, но может помочь

Sergey
11.05.2017
08:38:59
Вообще ospf поверх ppp это, имхо, зло. Ну либо на каждого пира делать свой Local-address
Ну какбы в ospf есть тип интерфейса Point to point - я не думаю что разработчики OSPF не расчитывали что он не будет работать в ppp

Alex
11.05.2017
08:39:36
Никакой связи на самом деле

Между п2п в оспф и ппп

Snake
11.05.2017
08:40:14
p2p - это именно p2p линки. gre-туннели и direct подключения

Alex
11.05.2017
08:40:42
И HDLC и Ethernet без бриджа посередине

Google
Alex
11.05.2017
08:41:30
Ппп умеет например держать адреса в разных сабнетах на двух сторонах одного Линка

Оспф это воспринимает как бред сумасшедшего

Sergey
11.05.2017
08:42:17
Воот

Так как с такой проблемой бороться ?

Snake
11.05.2017
08:44:56
как вариант - поднять gre поверх l2tp и в нём уже гонять ospf

Alex
11.05.2017
08:45:32
не?
С помощью молотка и какой то матери можно

Snake
11.05.2017
08:45:50
Snake
11.05.2017
08:46:25
в настройках ppp-юзера можно указать remote-address и local address

Sergey
11.05.2017
08:46:31
Типа вешать еще ip лишние ?

Snake
11.05.2017
08:46:35
ну да

я ж говорю, костыль

но по крайней мере lsa будут нормальные

Sergey
11.05.2017
08:47:48
BGP юзать. Это геморой

Snake
11.05.2017
08:48:06
тоже вариант

только bfd не забудь

Alex
11.05.2017
08:48:58
А оно умеет вообще?

Железо в смысле

Google
Alex
11.05.2017
08:49:12
Бгп и бфд

Sergey
11.05.2017
08:49:19
Да

Этож не Циска какаето

Snake
11.05.2017
08:49:30
Это ж микротик

Sergey
11.05.2017
08:49:40
Которая bfd в gre не умеет )

Alex
11.05.2017
08:49:44
Каюсь

Snake
11.05.2017
08:49:52
там линукс внутри, оно даже mpls умеет

Alex
11.05.2017
08:50:08
В софте или в железе?

Admin
ERROR: S client not available

Snake
11.05.2017
08:50:13
в софте

Sergey
11.05.2017
08:50:24
ipsec в железе

Snake
11.05.2017
08:50:24
там из железных плюшек только AES кое где

Alex
11.05.2017
08:50:29
А сателлитов сколько?

Sergey
11.05.2017
08:50:43
20 - 30

но может быть больше

Alex
11.05.2017
08:51:03
30 сессий бфд не убьют?

Sergey
11.05.2017
08:51:46
не проверял

но думаю CCR это не сильно нагрузит

Alex
11.05.2017
08:52:48
Включай по одному и следи

Бфд в софте это опасно

Google
Sergey
11.05.2017
08:57:01
Ну bfd я и не планировал использывать

Vladislav
11.05.2017
09:00:59
bfd же на датаплейне работает?

или разговор всё ещё про микротик? %)

Alex
11.05.2017
09:11:27
Bfd и на цисках некоторых софтовый

Sergey
11.05.2017
12:27:08
На 7200 ?

Alexandr
11.05.2017
12:54:01
https://izvestia.ru/news/703694

Dmitry
11.05.2017
12:57:30
А прямо сейчас Евгений Касперский в пряямом эфире отвечает на вопросы на реддите

https://www.reddit.com/r/IAmA/comments/6ajstf/im_eugene_kaspersky_cybersecurity_guy_and_ceo_of/

A
12.05.2017
06:46:26
Замечательный сборник сетевых и не только фейлов https://queue.acm.org/detail.cfm?id=2655736

Anton Klochkov
12.05.2017
08:11:40
Напоминаю :) http://www.comnews.ru/content/106932/2017-05-11/17-maya-peterburg-prazdnuet-den-svyazi

Andrey
12.05.2017
09:15:21
Так снег же )

Anton Klochkov
12.05.2017
09:40:00
Так снег же )
Это временно)

Snake
12.05.2017
09:41:03
Так снег же )
И ваще, никакой в тебе романтики!

Vsevolod
12.05.2017
10:04:05


Всем привет, есть такая упрощенная схема, есть центральный офис(хаб) и филиалы(spoke). В данном случае филиал один для простоты указан. Как обеспечить максимально отказоустойчивую схему. Имею ввиду, что на хабе и споках по 2 тунельных интерфейса, переключение обеспечивает eigrp. Вроде бы резервирование есть. Но в такой схеме есть недостаток, что один туннель на споке и хабе может быть привязан только к одному source interface, плюс на spoke в nhrp nhs map должно быть указано соответствие туннельного ip хаба и внешнего ip хаба. Если по схеме смотреть то при падении isp1 на споке и isp4 на хабе связность пропадет и оба туннеля умрут. Как-то можно обеспечить полный резерв не прибегая к sla и eem?

Anton Klochkov
12.05.2017
10:07:35
В каждом туннеле поднимай два nhrp nhs.

Далее SLA настрой

Профит.

У меня сейчас так и сделано.

Итого 4 туннеля

Vsevolod
12.05.2017
10:08:52
ок, спасибо, я не знал, что можно так

Страница 198 из 1252