Jump to content

vasek00

Forum Members
  • Posts

    4,399
  • Joined

  • Last visited

  • Days Won

    75

Posts posted by vasek00

  1. Для ДНС лучше жестко прописать свой маршрут на свой интерфейс, второе при пропадании одного из каналов роутер его поднимет и опять же настройки слетят (будет обычный default, который роутер восстановит согласно своих настроек) => вывод лучше в cron, только для быстроты его работы нужно минимально использовать команды - ip ro и первая проверка на наличие

    test "$R_nexthop"

    а уже потом все остальное. 

    • Thanks 1
  2. 1 час назад, r13 сказал:

    @vasek00

    Было:

    
    default via 95.220.192.1 dev eth2.4

    после удаления через некоторое время проставился роут с 2го интерфейса:

    
    default via 178.140.196.1 dev eth3

    После следующего удаления снова перещелкнулось на 1й интерфейс:

    
    default via 95.220.192.1 dev eth2.4

     

    Ну и определите тогда путем удаления маршрута (командой удаления) и определением из "ip ro" нужного шлюза или если не ждать некоторое время то дополнительно команда

    # ip route get 8.8.8.8

    покажет интерфейс и его шлюз при текущем default.

    ip route | awk '/default/ {print $4}' # тек интерфейс например eth2.4
    if [текущ_шлюз=eth2.4] then
    ip route | awk '/defualt/ {print $3}' # тек IP шлюза
    ip route get 4.4.4.4 # получить тек.IP шлюза
    ip route del default
    ip route add default dev eth3
    ip route get 8.8.8.8 # получить тек.IP шлюз для eth3 
    else
    ...
    fi

     

    Или смотреть переменные при текущем маршруте default в /opt/etc/ndm/wan.d при запуске в данном каталоге скрипта.

    • Thanks 1
  3. Имеем два провода от провайдера подключенные к WAN и LAN порту со стат IP адресами для выхода в интернет, в конфиге записи :
     

    # ndmq -p "show running-config" -P message
    ...
    !interface FastEthernet0/Vlan2
        name ISP
        description "Broadband connection"
    ...
    
       ip address 10.10.10.100 255.255.255.0
    ...
    
       up
    
    !interface FastEthernet0/Vlan3
        description VLAN3
     ...
        ip address хх.хх.хх.52 255.255.224.0
    ....
        up
    !
    
    ...
    
    !
    ip route default хх.хх.хх.1 FastEthernet0/Vlan3
    ip route default 10.10.10.1 ISP
    
    ...

    по маршрутам, по умолчанию у кого приоритет выше там и default

    /dev # ip ro | grep default
    default via хх.хх.хх.1 dev eth2.3
    /dev #

    Ваш вид второго подключения, с первым понятно на WAN порту и ISP?

  4. 15 часов назад, r13 сказал:

    @vasek00 с прямым не так, нужен гейт, а его в выводе ifconfig нету

    Какая разница, прямой он или "кривой". Смотрим конфиг и пробуем брать от туда  (на данном интерфейсе должен быть маршрут по default ) :
     

    interface FastEthernet0/Vlan3
        description VLAN3
        security-level public
        ip address хх.хх.хх.52 255.255.224.0
        ip dhcp client hostname My-Keen
        ip dhcp client dns-routes
        ip dhcp client name-servers
        ip mtu 1500
        ip global 700
        up
    !
    interface FastEthernet0/3
        name 3
        role inet for FastEthernet0/Vlan3
        switchport mode access
        switchport access vlan 3
        up
    !
    
    ...
    
    !
    ip route default хх.хх.хх.1 FastEthernet0/Vlan3
    
    ...

    или их будет два, так как два интерфейса для провайдера
     

    ...
    
    ip route default хх.хх.хх.1 FastEthernet0/Vlan3
    ip route default 10.10.10.1 ISP
    
    ...

    Взять можно прочитав конфиг и взять из него нужные переменные
     

    / # ndmq -p "show running-config" -P message | awk '/^ip route default/'
    ip route default хх.хх.хх.1 FastEthernet0/Vlan3
    ip route default 10.10.10.1 ISP
    / #

    Прогнать по "FastEthernet0/Vlan3" и по "ISP", как душе угодно через awk c grep

    / # ndmq -p "show running-config" -P message | awk '/^ip route default/ {print $4}'
    хх.хх.хх.1
    10.10.10.1
    / # 

     

  5. Пример

    Есть "ifconfig" и "ip" с помощью этих команд и берете нужные вам переменные (а именно зная имена интерфейсов без разницы ppp0 он или ppp1).
    У меня один pppoe другой pptp => подняты два ppp интерфейса (два проводных провайдера) => ppp0 и ppp1. Теперь сами варианты

    ppp0      Link encap:Point-to-Point Protocol  
              inet addr:хх.хх.хх.204  P-t-P:хх.хх.хх.1  Mask:255.255.255.255
              UP POINTOPOINT RUNNING NOARP MULTICAST  MTU:1492  Metric:1
              RX packets:1346 errors:0 dropped:0 overruns:0 frame:0
              TX packets:1120 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:1000
              RX bytes:622677 (608.0 KiB)  TX bytes:122811 (119.9 KiB)
    
    ppp1      Link encap:Point-to-Point Protocol  
              inet addr:yy.yy.yy.52  P-t-P:yy.yy.yy.25  Mask:255.255.255.255
              UP POINTOPOINT RUNNING NOARP MULTICAST  MTU:1400  Metric:1
              RX packets:6 errors:0 dropped:0 overruns:0 frame:0
              TX packets:15 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:1000
              RX bytes:1015 (1015.0 B)  TX bytes:1635 (1.5 KiB)
    
    / # ndmq -p 'show interface PPTP0' -P address
    
    yy.yy.yy.52
    
    / # ndmq -p 'show interface PPPoE0' -P address
    xx.xx.xx.204
    
    ...
    R_nexthop=`ip route | awk '/nexthop via / {print $1}'`
    if [ "$R_nexthop" == "" ]; then
     echo "No router nexthop"
     inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
     inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
     PtoP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
     PtoP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
     ...
     route del default
     ip ro flush cache
     ip ro add default scope global nexthop via $inet_addr1 dev ppp0 weight 10 nexthop via $inet_addr2 dev ppp1 weight 10
     echo "Yes router nexthop"
     exit;
    fi
    ...
    
    ...

    Для прямого аналогично только имена интерфейсов другие. В Cron проверка.

     

  6. 14 часа назад, Le ecureuil сказал:

    В те года никто не ожидал что Трендчип он же Ралинк он же Медиатек полностью "положит" на поддержку RT63xxx и RT68xx и оставит их только в ядре 2.6.22 (опыт с переносом на 2.6.36 вы тут сами на форуме все единогласно забраковали как неудачный).....

    Маленькая ремарка к слову (по тексту показать содержимое) ;)
     

    Цитата

     

    на мое предложение (2013года)

    Думаю перспективней все таки пропустить данный релиз 6865, а перейти сразу на 7620

     

     

  7. 8 часов назад, r13 сказал:

    Здравствуйте, Ultra 2 v2.08(AAUX.0)A4 + Entware-3x

    eth3 основной интерфейс, eth2.4 резервный

    Выполняю команды

     

    
    route del default
    ip ro flush cache
    ip ro add default scope global nexthop  dev eth3 weight 10 nexthop  dev eth2.4 weight 10

    Все вроде выполняется, но вместо балансировки интернет пропадает.

    Пинги в интерфейс до этих команд работают, после пинги идут только через eth2.4

    вывод команды ip ro:

    multiwan.jpg

    Что я делаю не так??? :???:

    Аналогично, все про что писал выше так и есть, маршрут работает только через второй интерфейс и то тот который идет в команде последний.

  8. 19 часов назад, Le ecureuil сказал:

    Вообще да, все что было сделать легко: включить опции в сборке и модули ядра, мы сделали. Разработку новых фич для 2.06 на столетнем ядре никто не планирует.

    Практически такой подход везде приходиться привыкать.

    Только вот http://www.allnet.de/en/allnet-brand/produkte/neuheiten/p/allnet-all-vpn10-vpnfirewall-wlan-wan-router/ как говорится на "столетнем" ядре еще в 2013году реализовал данную функцию на данный проц, Multi-WAN Traffic Control - ... Load Balance ...; Network Interface - 1~2x WAN Port, 3~4x LAN 10/100 Mbps RJ45 ... . Сейчас 2016г. оно "ядро" конечно устарело, да и тянуть "лямку" на данный проц смысла нет.

     

    Скрытый текст

    Вспомнился один диалог по поводу развития в январе 2013г.

    на мое предложение

    Думаю перспективней все таки пропустить данный релиз 6865, а перейти сразу на 7620

    был дан ответ

    Вот это больше всего подняло настроение laugh.gif , предлагается пропустить посадку на 600 мерина и сразу сесть в ЗАЗ 968M lol.gif МТ7620 это чип для бюджетных решений, аля Keenetic Lite, к тому же, их еще не на клепали столько, что бы хоть один завод начал на них массово что-то производить...

    MT7620N это замена RT3x5x в бюджетном сегменте рынка, хоть у него и 600МГц, и такой вот он карандаш с губой, но чудес не бывает, и сравнения я подобрал очень верное, т.к. закончил заниматься этим процессором и знаю, на что он способен и куда его воткнут. 100Мбит + 100Мбит в фулдуплексе на L2TP он не тянет, а вот 60+60 делает легко, хотя это еще не окончательный вердикт, т.к. мы ведем свою разработку L2TP, может и выжмем что-то большее. Если речь идет про MT7620A, то CPU core у него полностью идентичен с N, правда он по дороже, из-за наличия 2х RGMII, одного PCI-E и некоторых плюшек для VOIP, по сравнению с RT3x5x, MT7620х практически не греются, только их еще нет на производстве, пока только пробные партии, но раз они вам так интересны, то ждите, для бюджетников будет отличный вариант... ZyXEL не сильно будет переживать, если начнет их использовать самым последним из производителей

    Делаю вывод быть внимательнее при следующем выборе роутера на новых процах (например 7621).

     

  9. v2.06(AAFG.11)B4  - релиз, изменений ноль. Тему можно думаю закрывать использование ip ro add default scope global nexthop на данном ядре 2.6.22.15, как не нужную (по мнению наверное разработчиков) в устаревающем оборудовании, есть более интересные идеи для 762х релизов.

    Якобы данная функция работает в ядре 3.х (но наводят на сомнения данный факт) так как думаю если есть там, то можно сделать и в текущей.

    Проверено v2.06(AAFG.11)B4 по схеме выше, только в обратную сторону ip ro add default scope global nexthop, на K-II

    Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1

    мало того так K-II через некоторое время еще посчитал что default не правильный и грохнул его к первоначальному состоянию на ppp0.

     

  10. 2 часа назад, Александр Рыжов сказал:

    А гостевая?


    Гостевая по умолчанию при включенном Wi-fi

    interface WifiMaster0/AccessPoint1
        name GuestWiFi
        description "Guest access point"
        mac access-list type none
        security-level protected
        authentication wpa-psk ns3 Bi/qF......HJ5Si
        encryption enable
        encryption wpa2
        ip address 10.1.30.1 255.255.255.0
        ip dhcp client dns-routes
        ip dhcp client name-servers
        ssid My-Keen-wap
        wmm
        up
    
    
    / # ifconfig
    br0       Link encap:Ethernet  HWaddr EC:xx:AA  
              inet addr:192.168.1.1  Bcast:192.168.1.255  Mask:255.255.255.0
    
    ...
    
    ra0       Link encap:Ethernet  HWaddr EC:xx:AA  
    ...
              Interrupt:25
    
    ra1       Link encap:Ethernet  HWaddr E2:xx:AA  
              inet addr:10.1.30.1  Bcast:10.1.30.255  Mask:255.255.255.0
    ...
              RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)
    
    / # ip ro
    ...
    10.1.30.0/24 dev ra1  proto kernel  scope link  src 10.1.30.1 
    ...
    / # iptables -nvL | grep ra1
        0     0 ACCEPT     all  --  ra1    *       0.0.0.0/0            0.0.0.0/0           
    / # iptables -t nat -nvL | grep ra1
        0     0 MASQUERADE  all  --  ra1    *       0.0.0.0/0            0.0.0.0/0           
        0     0 MASQUERADE  all  --  ra1    ra1     0.0.0.0/0            0.0.0.0/0           
    / # 

     

    • Thanks 1
  11. Проверил

    Клиент (...130.2)---роутер-----Инет----K-II(...130.100)

    На K-II поднят No-ip и VPN сервер, клиент ПК с 192.192.168.130.2 через интернет подключился по VPN с серверу поднятому на K-II.

    Настройки клиента ПК было прописано доменное имя. Подключился без проблем на v2.06

    Без имени-4.jpg

    Без имени-2.jpg

    Без имени-3.jpg

    Без имени-1.jpg

    Без имени-5.jpg

  12. Ситуация в том что по умолчанию проводные клиенты и wi-fi клиенты образуют мост br0
     

    interface Bridge0
        name Home
        description "Home network (Wired and wireless hosts)"
        inherit FastEthernet0/Vlan1
        include AccessPoint
        ip address 192.168.1.1 255.255.255.0
    ...

    поэтому все настройки одинаковы для любого клиента Bridge0 (Home network), вывод разделите клиентов на разные сегменты и произвидите настройку для данных клиентов.

    По умолчанию (default) один маршрут для всех, в данном случае у вас получиться один сегмент по одному маршруту (через WAN порт) другой сегмент по другому маршруту (через VPN). В базе знаний есть примеры.

  13. Берем другую схему :

    Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1

    На роутере1 делаю настройки
     

    # ifconfig | grep ppp
    ppp0      Link encap:Point-to-Point Protocol  
    # route del default
    # ip ro flush cache
    # ip ro add default scope global nexthop via [IP_ppp] dev ppp0 weight 5 nexthop via [IP_KII] dev br0 weight 10
    # ip ro
    default
            nexthop via [IP_ppp]  dev ppp0 weight 5
            nexthop via [IP_KII] dev br0 weight 10
    
    ...
    
    # ping -I ppp0 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.027 ms
    64 bytes from 8.8.8.8: seq=1 ttl=56 time=8.967 ms
    ^C
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 packets received, 0% packet loss
    round-trip min/avg/max = 8.967/8.997/9.027 ms
    # ping -I br0 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=57 time=19.033 ms
    64 bytes from 8.8.8.8: seq=1 ttl=57 time=18.544 ms
    ^C
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 packets received, 0% packet loss
    round-trip min/avg/max = 18.544/18.788/19.033 ms
    # 

    Проверяю балансировку работу клиентом и так же по смотрим на роутере1 (после ping на разные интерфейсы)

    #cat ip_conntrack | grep 8.8.8.8
    icmp     1 10 src=[IP_ppp] dst=8.8.8.8 type=8 code=0 id=39173 packets=2 bytes=168 src=8.8.8.8 dst=[IP_ppp] type=0 code=0 id=39173 packets=2 bytes=168 mark=0 use=2
    icmp     1 1 src=[IP_роутер1] dst=8.8.8.8 type=8 code=0 id=38405 packets=2 bytes=168 src=8.8.8.8 dst=[IP_роутер1] type=0 code=0 id=38405 packets=2 bytes=168 mark=0 use=2
    # 

    Работает как надо, через роутер1, если шлюзом для клиентов будет именно он роутер1.

    K-II пока для такой работы не готов на v2.06(AAFG.10)B4

  14. Может я что-то не так делаю.

    Два канала ppp0 (PPPoE, приоритет 1000) и ppp1 (PPTP, приоритет 900) на проводных провайдеров
     

    /opt/tmp # ifconfig | grep ppp
    ppp0      Link encap:Point-to-Point Protocol  
    ppp1      Link encap:Point-to-Point Protocol  
    /opt/tmp # ip ro | grep default
    default dev ppp0  scope link
    
    /opt/tmp # ping -I ppp0 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=58 time=17.774 ms
    64 bytes from 8.8.8.8: seq=1 ttl=58 time=17.743 ms
    
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 packets received, 0% packet loss
    round-trip min/avg/max = 17.743/17.758/17.774 ms
    /opt/tmp # ping -I ppp1 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.598 ms
    64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.525 ms
    
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 packets received, 0% packet loss
    round-trip min/avg/max = 9.525/9.561/9.598 ms
    /opt/tmp #

    Оба канала работают, но маршрут default указывает на ppp0. Все правильно. Меняем по простенькому скрипту

    #!/bin/sh
    inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
    inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
    PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
    PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
    
    route del default
    ip ro flush cache
    
    ip ro add default scope global nexthop via $inet_addr1 dev ppp0 weight 10 nexthop via $inet_addr2 dev ppp1 weight 10
    
    R_nexthop=`ip route | awk '/nexthop via / {print $1}'`
    if [ "$R_nexthop" == "" ]; then
     echo "No router"
     exit;
    fi
    echo "Yes router nexthop"
    exit;

    получили
     

    /opt/tmp #  ip ro | grep nexthop
            nexthop via [inet_addr1] dev ppp0 weight 10
            nexthop via [inet_addr2]  dev ppp1 weight 10
    
    /opt/tmp # ping -I ppp0 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    
    --- 8.8.8.8 ping statistics ---
    3 packets transmitted, 0 packets received, 100% packet loss
    /opt/tmp # ping -I ppp1 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.618 ms
    
    --- 8.8.8.8 ping statistics ---
    1 packets transmitted, 1 packets received, 0% packet loss
    round-trip min/avg/max = 9.618/9.618/9.618 ms
    /opt/tmp #

    И естественно балансировка через ip ro add default scope global nexthop опять не работает.

    K-II на v2.06(AAFG.10)B4

     

     

     

     

  15. 13 часа назад, Le ecureuil сказал:

    Пока интерфейсы, которые являются концами VPN-подключений у VPN-сервера, никак не обрабатываются в прошивке, потому управлять и снимать с них статистику невозможно.

    Однако мы поставим эту задачу в план, и посмотрим в будущем как ее можно решить.

    ОК.

  16. Потерял один интерфейс - имеем провайдер PPTP и подключен клиент по VPN для доступа (как раз этого интерфейса и не видно, ведь он должен же быть как например ppp1), к каждому  LAN порту подключен клиент плюс wi-fi клиенты.

    Съем идет через клиента который подключился к VPN, так же что-то датчиков в данном подключении маловато будет видно в отличие от локального.

    SNMP-rem-3.jpg

    SNMP-rem-1.jpg

  17. Выбор работы данного канала основан на настройках приоритета на этих каналах, т.е. меняя его можно делать выбор того или другого канала. Он задается в конфиге на интерфейсе например :  "ip global 900" или  "ip global 1000". Через cli команда задается как : "(config-if)> ip global ‹priority›" или "(config-if)> no ip global" => меняя его в нужное время можно переключать канал.

    При использовании двух каналов от выбранного приоритета создается маршрут по умолчанию на нужный канал, подняты например два ppp интерфейса ppp0 (приоритет 1000) и ppp1 (приоритет 900) тогда будет маршрут по умолчанию указывать на ppp0

    0.0.0.0         0.0.0.0         0.0.0.0         U     0      0        0 ppp0

    меняя его в нужное время на ppp1 средствами cron получим переключение.

    0.0.0.0         0.0.0.0         0.0.0.0         U     0      0        0 ppp1

    Примечание:

    1. будет ли долгим данное переключение, не вернет ли переменная приоритет (так как они остались прежними) в исходное состояние нужно проверить.

     

    Другой вариант использование "schedule" т.е. выключение нужного интерфейса в нужное время и включение другого, т.е. на нужных интерфейсах есть период работы один с 08:00-20:00 другой с 20:00-08:00, тут система сама уже будет поднимать соединение после включения канала.

  18. Обязательно проверю в след. сборке по

    Цитата

    На 2.06 @ 2.6.22 не были до конца включены алгоритмы для multipath.

    Нет оба канала подняты как pppoe так и pptp, согласно приоритета устанавливается default на тот или другой интерфейс.

    При использовании настройки ниже не проходят на одном из интерфейсов ppp0 или ppp1 (ping -c2 -I ppp0 8.8.8.8 проходят , а ping -c2 -I ppp1 4.4.4.4 нет или наоборот) естественно балансировки нет никакой, так как один из каналов не пропускает пакеты. По отдельности все работает в зависимости от приоритетов.

    / #  route del default
    / #  ip ro flush cache
    
    / # ip ro add default scope global nexthop via IP_IF1 dev ppp1 weight 10 nexthop via IP_IF2 dev ppp0 weight 10
    / # ip ro
    
    ....
    
    default
            nexthop via IP_IF1 dev ppp1 weight 10
            nexthop via IP_IF2 dev ppp0 weight 10

     

    В постах выше были выдержки из команд ifconfig и ip route

  19. В 06.08.2016 в 13:22, dexter сказал:

    Настроил на Ultra 2 через chroot Debian, 2 шлюза с весом 50/50. Все работает. Пакеты бегают через оба маршрута. Огонь железка получается. 

    Entware 3x - работает. 

    Не могу только допетрить, как в скрипте вытаскивать "gateway 1" и "gateway2". Gateway 1 добыть легко, а вот Gateway 2 пока не догадался. В обоих случаях DHCP.

    При ppp интерфейсах :

    inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
    inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
    PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
    PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`

    Можно так


    На K-II c v2.06(AAFG.9)B4 не работает с двумя интернет провайдерами на PPPoE и PPTP.

  20. Проверил работу на v2.06(AAFG.9)B4 . Теперь считает eth2.1 eth2.2, так же был поднят второй провайдер eth2.3 и его ppp1 так же все считает.

    Проверил IPTV от провайдера на eth2.3 потоки 720х576 и 1920х1080 так же все видно. Теперь по br0 так как это мост в данном случае eth2.1 и ra то следовательно тарфик клиента наприме на eth2.1 должен быть и в br0, если только нет фильтрации vlan в br (на скрине видно есть трафик от клиента на eth2.1 а в br0 его нет).

    Так же все возможные счетчики на скринет, красные - не включен интерфейс, синий остановлены, зеленый работают.

     

    SNMP-1.jpg

    SNMP-3.jpg

    SNMP-2.jpg

  21. Второй вариант все заведено на один роутер - пров1 и пров2
     

    / # ifconfig
    ...
    
    eth2.2    Link encap:Ethernet  HWaddr
    ...
    
    eth2.3    Link encap:Ethernet  HWaddr
              inet addr:ххх.хх.хх.52  Bcast:ххх.хх.хх.255  Mask:255.255.224.0
    ...
    
    ppp0      Link encap:Point-to-Point Protocol  
    
              inet addr:1yy.1yy.yy3.230  P-t-P:1yy.1yy.0.1  Mask:255.255.255.255
    
    ...
    
    ppp1      Link encap:Point-to-Point Protocol  
              inet addr:1xx.18х.хх.52  P-t-P:1хх.ххх.148.26  Mask:255.255.255.255
    ...
    
    / # ip ro
    IP_DNS1 dev ppp0  scope link
    IP_DNS2 dev ppp0  scope link
    1хх.ххх.148.14 dev ppp1  scope link
    IP_серв_пров2 via IP_шлюз_пров2 dev eth2.3
    1yy.1yy.0.1 dev ppp0  proto kernel  scope link  src 1yy.1yy.yy3.230
    IP_пров2 dev ppp1  scope link
    1хх.ххх.148.26 dev ppp1  proto kernel  scope link  src 1xx.18х.хх.52
    192.168.1.0/24 dev br0  proto kernel  scope link  src 192.168.1.1
    ххх.хх.хх.0/19 dev eth2.3  proto kernel  scope link  src ххх.хх.хх.52
    default dev ppp0  scope link
    / #
    
    убираем default и даем на два канала
    
    / #  route del default
    / #  ip ro flush cache
    
    / # ip ro add default scope global nexthop via 1xx.18х.хх.52 dev ppp1 weight 10 nexthop via 1yy.1yy.yy3.230 dev ppp0 weight 10
    / # ip ro
    
    ....
    
    default
            nexthop via 1xx.18х.хх.52  dev ppp1 weight 10
            nexthop via 1yy.1yy.yy3.230  dev ppp0 weight 10
    
    / # 

    Интернет работает, но как то странно, полсекундные есть timeout, возможно один канал провайдера не фурычит (по анализу данных пакетов, их маловато на ppp1) по данной схеме.

    По подключению - ppp0 (приоритет 1000) ppp1 (приоритет 900), думаю если сменить приоритеты получим опять работу на одном канале.

    Странно при установки ppp1 приоритет 1000, ppp0 приоритет 900 и nexthop:
     

    / # ping -c2 -I ppp0 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=48 time=35.867 ms
    64 bytes from 8.8.8.8: seq=1 ttl=48 time=36.023 ms
    
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 packets received, 0% packet loss
    round-trip min/avg/max = 35.867/35.945/36.023 ms
    / #
    / # ping -c2 -I ppp1 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 0 packets received, 100% packet loss
    / #
    / # ifconfig | grep ppp
    ppp0      Link encap:Point-to-Point Protocol  
    ppp1      Link encap:Point-to-Point Protocol  
    / # 
    ...
    default 
            nexthop via хх.хх.хх.хх dev ppp1 weight 10
            nexthop via хх.хх.хх.хх dev ppp0 weight 10
    ...
    / # 
    / # tc qdisc show | grep ppp
    qdisc pfifo_fast 0: dev ppp0 root bands 3 priomap  1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1
    qdisc pfifo_fast 0: dev ppp1 root bands 3 priomap  1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1
    / # iptables -t nat -nvL | grep ppp
      213 14680 _NDM_STATIC_SNAT  all  --  *      ppp0    0.0.0.0/0            0.0.0.0/0           
       28  3210 _NDM_STATIC_SNAT  all  --  *      ppp1    0.0.0.0/0            0.0.0.0/0           
    / #

    При сбросе приоритетов ppp0 - в 1000, ppp1 - в 900 ping проходят :

    / # ping -c2 -I ppp0 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=46 time=64.814 ms
    
    --- 8.8.8.8 ping statistics ---
    1 packets transmitted, 1 packets received, 0% packet loss
    round-trip min/avg/max = 64.814/64.814/64.814 ms
    / # ping -c2 -I ppp1 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=56 time=13.436 ms
    64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.592 ms
    
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 packets received, 0% packet loss
    round-trip min/avg/max = 9.592/11.514/13.436 ms
    / # 

    при использовании nexthop опять проблема
     

    default
            nexthop via хх.хх.хх.хх  dev ppp0 weight 10
            nexthop via yy.yy.yy.yy  dev ppp1 weight 5
    
    ...
    
    ppp0      Link encap:Point-to-Point Protocol  
              inet addr:xx.xx.xx.xx  P-t-P:xx.xx.xx.xx  Mask:255.255.255.255
    
    ppp1      Link encap:Point-to-Point Protocol  
              inet addr:yy.yy.yy.yy  P-t-P:yy.yy.yy.yy  Mask:255.255.255.255
    
    ...
    / # ping -c2 -I ppp1 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.714 ms
    64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.187 ms
    
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 packets received, 0% packet loss
    round-trip min/avg/max = 9.187/9.450/9.714 ms
    / # ping -c2 -I ppp0 8.8.8.8
    PING 8.8.8.8 (8.8.8.8): 56 data bytes
    
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 0 packets received, 100% packet loss
    / #
    

     

×
×
  • Create New...