The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]




Версия для распечатки Пред. тема | След. тема
Новые ответы [ Отслеживать ]
CSR1000v за линуксовым натом - получение public ip, !*! lightspeed, 08-Сен-17, 15:47  [смотреть все]
Коллеги,

Есть гипервизор, на нем висит csr1000v на внутренних ip адресах.
У нее есть шлюз - внешний линуксовый роутер (локальный шлюз). Который натит все что приходит из гипервизора (в том числе и циску).
Есть удаленный линукс бокс, на нем есть несколько внешних паблик ip адресов.
Задача - пробросить один-два паблика на csr1000v.
Для тестов, сделал ipsec/gre туннель между двумя линусами - и пробросил внутри паблик с удаленного на локальный шлюз. Все работает. Не могу понять как прокинуть паблик за нат локального шлюза через гипервизор на циску.

Если что-то не понятно, пишите.
Спасибо!

  • CSR1000v за линуксовым натом - получение public ip, !*! zanswer CCNA RS and S, 08:25 , 09-Сен-17 (1)
    • CSR1000v за линуксовым натом - получение public ip, !*! lightspeed, 10:49 , 09-Сен-17 (2)
      > Можете сделать ровно так же, с помощью GRE over IPSec или можете
      > посмотреть в сторону Proxy ARP на вашем NAT маршрутизаторе.

      Эм. Можете показать кусок конфига циски? Что там прописывать в tunnel source в этом случае, в tun интерфейсе? Я пока сделал просто gre:

      interface Tunnel1
      ip address 10.118.0.1 255.255.255.252
      ip mtu 1436
      tunnel source GigabitEthernet4
      tunnel destination 139.59.xx.xxx
      !

      gi4 - это egress в сторону шлюза.
      Соответственно, на стороне ремоте линукс-бокса 10.118.0.2/30 в туннеле.
      И за ним уже маршрутизирую сетку.
      Но с циски даже .2 не пингуется через tun1.

      NAT и исключения конечно прописаны с обеих сторон.

      P.S. ARP proxy. Идея. Подумаю. Если есть рабочий конфиг, буду рад если сможете показать.


      • CSR1000v за линуксовым натом - получение public ip, !*! zanswer CCNA RS and S, 14:13 , 09-Сен-17 (3)
        • CSR1000v за линуксовым натом - получение public ip, !*! lightspeed, 21:52 , 09-Сен-17 (4)
          Приветствую Zanwer,

          Спасибо, за ваш ответ! И так, по-порядку:

          > Давайте начнём с вашего GRE туннеля. Вы сейчас строите напрямую между удалённым
          > маршрутизатором и вашим виртуальным CSR1000V, через NAT маршрутизатор?

          Совершенно верно.

          > И так, ваш CSR1000V может выполнить пинг до tunnel destiantion? ICMP уходя
          > и возвращаются? Если так, значит мы можем предположить, что tunnel source
          > интерфейс содержит правильные настройки, а таблица маршрутизации содержит маршрут до адреса
          > назначения.

          Все правильно. Все пингуется:

          vgw#ping 139.59.142.112
          Type escape sequence to abort.
          Sending 5, 100-byte ICMP Echos to 139.59.142.112, timeout is 2 seconds:
          !!!!!
          Success rate is 100 percent (5/5), round-trip min/avg/max = 40/41/43 ms

          > В таком случае переходим непосредственно к GRE туннелю, вы сказали, что не
          > можете выполнить пинг адреса назначения туннеля, иными словами 10.118.0.2. Это означает,
          > что туннель не поднялся, покажите вывод команд:
          > show ip int br или show interfaces tunnel 1 | include protocol

          Вывод:
          vgw#show interfaces tunnel 1 | include protocol
          Tunnel1 is up, line protocol is up
            Tunnel protocol/transport GRE/IP
               0 unknown protocol drops

          Т.о., видно что протокол в апе, и туннель должен строиться..(

          В тоже время, tcpdump -i eth0 proto gre
          на удаленном линукс-боксе показывает пустоту..
          соответственно tcpdump -i tun1 - тоже.

          включил дебаг gre и icmp на циске - ничего.
          Что вызывает подозрение, откровенно говоря.

          Причем, icmp пакеты на циске вижу, если пингую что-то за пределами туннеля.


          vgw#ping 10.118.0.1
          Type escape sequence to abort.
          Sending 5, 100-byte ICMP Echos to 10.118.0.1, timeout is 2 seconds:
          !!!!!
          Success rate is 100 percent (5/5), round-trip min/avg/max = 1/1/1 ms

          vgw#
          Sep  9 18:51:01.410: ICMP: echo reply sent, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.411: ICMP: echo reply rcvd, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.411: ICMP: echo reply sent, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.412: ICMP: echo reply rcvd, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.412: ICMP: echo reply sent, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.413: ICMP: echo reply rcvd, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          vgw#
          vgw#
          Sep  9 18:51:01.413: ICMP: echo reply sent, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.414: ICMP: echo reply rcvd, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.414: ICMP: echo reply sent, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.415: ICMP: echo reply rcvd, src 10.118.0.1, dst 10.118.0.1, topology BASE, dscp 0 topoid 0
          Sep  9 18:51:01.424: Tunnel1: Maximum interface MTU over-ridden to 10132

          vgw#ping 10.118.0.2
          Type escape sequence to abort.
          Sending 5, 100-byte ICMP Echos to 10.118.0.2, timeout is 2 seconds:
          ...
          Sep  9 18:51:11.424: Tunnel1: Maximum interface MTU over-ridden to 10132..
          Success rate is 0 percent (0/5)

          vgw#sh deb
          IOSXE Conditional Debug Configs:

          Conditional Debug Global State: Stop


          IOSXE Packet Tracing Configs:


          Generic IP:
            ICMP packet debugging is on
          General-purpose tunnel:
            Tunnel Interface Event debugging is on





Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру