Jump to content

Question

Posted

Предлагаю добавить возможность в маршрутизаторах Keenetic использовать маршрут по умолчанию на несколько интерфейсов (для 2 подключений интернета одновременно).

  • Thanks 1

Recommended Posts

  • 0
Posted

При использовании команды

ip route add default scope global nexthop via 192.168.105.5 dev eth2 weight 1 \
nexthop via 192.168.106.3 dev eth3.9 weight 1

и таблицы table все бы не чего но сказать про балансировку как то не так, так как определенный сегмент сети идет на один маршрут, другой сегмент на другой, т.е. все зависит от работы юзеров в сегменте.

При использовании же

route del default
ip ro flush cache
ip route add default scope global nexthop via [iP_шлюз_1] dev [iF_1] weight 10 \
nexthop via [iP_шлюз_2] dev [iF_2] weight 5

без применения table речь уже идет о балансировке, так как без разницы в каком сегменте клиент, но тут если пакет ушел с одного интерфейса то он и должен вернуться на тот-же интерфейс. В таком варианте при наличии двух каналов будет работать - торрент и просмотр WEB, weight лучше делать не 1 а разный в зависимости от скорости по каналам например 10:5 или 8:3. Так же нужно прописать жесткий маршрут на DNS сервер.

При работе же с сайтами типа "rusfolder" такой вариант не пройдет.

Ну и процедуру контроля.

Такой вариант удобен при низко скоростных каналах например 20Мбит и 10Мбит, при 100Мбит необходимость отпадает лучше шейпер в котором DNS и HTM/HTML пакеты например в приоритете по отношению к остальным пакетам.

  • 0
Posted
В 22.02.2016 в 20:11, Le ecureuil сказал:

Активно занимаюсь проблемой, и по факту выяснилось, что вот так сразу удовлетворительно работать не будет.

В ядре по умолчанию не включен multipath для advanced routing, потому балансировка между двумя каналами через несколько nexthop не заработает.

Плюс для полностью автоматической работы скриптов не хватает данных, которые может предоставить ndm - а значит все нужно вбивать руками, что недопустимо.

Как только эти рабочие вопросы будут улажены - будет создана тема с подробным описанием как и что сделать.

Я так понимаю на новом ядре 3.4 multipath уже включен?, и можно использовать конструкцию представленную ниже для задействования балансировки?

 

В 18.05.2016 в 08:15, vasek00 сказал:

 


route del default
ip ro flush cache
ip route add default scope global nexthop via [iP_шлюз_1] dev [iF_1] weight 10 \
nexthop via [iP_шлюз_2] dev [iF_2] weight 5
 

 

  • 0
Posted

FYI по серьезному iproute2 никто не тестировал. В Entware-Keenetic старая версия, которая перекочевала из туда  Zyxware.

В Entware-3x собрали свежий вариант. Если что не так - маякните....

  • 0
Posted
16 минут назад, Le ecureuil сказал:

Да, включен еще с февраля, и можно пользоваться.

Осталось только допилить все до рабочего варианта :) 

9 минут назад, zyxmon сказал:

FYI по серьезному iproute2 никто не тестировал. В Entware-Keenetic старая версия, которая перекочевала из туда  Zyxware.

В Entware-3x собрали свежий вариант. Если что не так - маякните....

Нам то как раз Zyxel вроде бы нужен для впиливания... 

Тема интересная я думаю многим.

  • 0
Posted (edited)

Не на zyxel не проверял, а так все работало.
 

#!/bin/sh
WANup_ppp0=`ifconfig | awk '/ppp0/ {print $1}'`
R_nexthop=`ip route | awk '/nexthop via 192.168/ {print $1}'`
if [ "$WANup_ppp0" == "ppp0" ]; then
 if [ "$R_nexthop" == "" ]; then
  route del default
  ip ro flush cache
  ip ro add default scope global nexthop via [IP_ppp0] dev ppp0 weight 5 nexthop via 192.168.1.100 dev br0 weight 10

...

  exit
 else
  Count_ping=`ping -c2 -I ppp0 194.186.хх.хх | awk '/packets received/ {print $4}'`
  if [ "$Count_ping" = 0 ]; then
   route del default
   ip ro add default via 192.168.1.100 dev br0
   ip ro flush cache

...


  fi
 fi
 exit;
else
 route del default
 ip ro add default via 192.168.1.100 dev br0
 ip ro flush cache

...

fi
exit;

при схеме

Инет1------(WAN)роутер(LAN)-----(LAN)роутер2-----Инет2

Роутер был основным и на нем все крутилось, данный скрипт весел в cron и каждые 5мин проверял канал (проблемный) по ping до определенного адреса. Так же был определен маршрут на сервера DNS жестко (канал был скоростной и менее проблемный)
 

route add -host хх.хх.хх.25 gw 192.168.1.100
route add -host хх.хх.хх.24 gw 192.168.1.100

Для разных клиентов были разные шлюзы заданны через dnsmasq, т.е. если шлюз ...1.1 то nexthop, если ...1.100 то напрямую.
 

dhcp-option=6, хх.хх.хх.25, хх.хх.хх.24
dhcp-option=lan, 3, 192.168.1.100

Для WEB и торрента все отлично, для качалок проблема использование данного метода выше.

Edited by vasek00
  • 0
Posted

Имеется два подключения к интернет, маршрут по умолчанию в первый канал, а нужно чтоб если со второго придёт входящее подключение оно установилось через второй канал.

Такое реализуемо?

  • 0
Posted (edited)

Команда отработала по схеме выше на двух провайдеров, осталось проверить по пакетикам на два шлюза ....40 и .....100

/ # ip ro add default scope global nexthop via 1хх.хх6.хх8.40 dev ppp0 weight 10 nexthop via 192.168.1.100 dev br0 weight 10
/ # ip ro
IP_DNS1 dev ppp0  scope link
IP_DNS2 dev ppp0  scope link
1хх.хх6.хх2.1 dev ppp0  proto kernel  scope link  src 1хх.хх6.хх8.40
192.168.1.0/24 dev br0  proto kernel  scope link  src 192.168.1.1
default
        nexthop via 1хх.хх6.хх8.40 dev ppp0 weight 10
        nexthop via 192.168.1.100 dev br0 weight 10
/ # 

где K-II - 192.168.1.1 и 1xx.xx6.xx8.40 его ppp0 (пров1), 192.168.1.100 второй шлюз для (пров2)

Edited by vasek00
  • 0
Posted
1 час назад, Дмитрий сказал:

Имеется два подключения к интернет, маршрут по умолчанию в первый канал, а нужно чтоб если со второго придёт входящее подключение оно установилось через второй канал.

Такое реализуемо?

ip route default nexthop с двумя таблицами маршрутизации именно так и работает.

  • Thanks 1
  • 0
Posted (edited)

Второй вариант все заведено на один роутер - пров1 и пров2
 

/ # ifconfig
...

eth2.2    Link encap:Ethernet  HWaddr
...

eth2.3    Link encap:Ethernet  HWaddr
          inet addr:ххх.хх.хх.52  Bcast:ххх.хх.хх.255  Mask:255.255.224.0
...

ppp0      Link encap:Point-to-Point Protocol  

          inet addr:1yy.1yy.yy3.230  P-t-P:1yy.1yy.0.1  Mask:255.255.255.255

...

ppp1      Link encap:Point-to-Point Protocol  
          inet addr:1xx.18х.хх.52  P-t-P:1хх.ххх.148.26  Mask:255.255.255.255
...

/ # ip ro
IP_DNS1 dev ppp0  scope link
IP_DNS2 dev ppp0  scope link
1хх.ххх.148.14 dev ppp1  scope link
IP_серв_пров2 via IP_шлюз_пров2 dev eth2.3
1yy.1yy.0.1 dev ppp0  proto kernel  scope link  src 1yy.1yy.yy3.230
IP_пров2 dev ppp1  scope link
1хх.ххх.148.26 dev ppp1  proto kernel  scope link  src 1xx.18х.хх.52
192.168.1.0/24 dev br0  proto kernel  scope link  src 192.168.1.1
ххх.хх.хх.0/19 dev eth2.3  proto kernel  scope link  src ххх.хх.хх.52
default dev ppp0  scope link
/ #

убираем default и даем на два канала

/ #  route del default
/ #  ip ro flush cache

/ # ip ro add default scope global nexthop via 1xx.18х.хх.52 dev ppp1 weight 10 nexthop via 1yy.1yy.yy3.230 dev ppp0 weight 10
/ # ip ro

....

default
        nexthop via 1xx.18х.хх.52  dev ppp1 weight 10
        nexthop via 1yy.1yy.yy3.230  dev ppp0 weight 10

/ # 

Интернет работает, но как то странно, полсекундные есть timeout, возможно один канал провайдера не фурычит (по анализу данных пакетов, их маловато на ppp1) по данной схеме.

По подключению - ppp0 (приоритет 1000) ppp1 (приоритет 900), думаю если сменить приоритеты получим опять работу на одном канале.

Странно при установки ppp1 приоритет 1000, ppp0 приоритет 900 и nexthop:
 

/ # ping -c2 -I ppp0 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=48 time=35.867 ms
64 bytes from 8.8.8.8: seq=1 ttl=48 time=36.023 ms

--- 8.8.8.8 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 35.867/35.945/36.023 ms
/ #
/ # ping -c2 -I ppp1 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes

--- 8.8.8.8 ping statistics ---
2 packets transmitted, 0 packets received, 100% packet loss
/ #
/ # ifconfig | grep ppp
ppp0      Link encap:Point-to-Point Protocol  
ppp1      Link encap:Point-to-Point Protocol  
/ # 
...
default 
        nexthop via хх.хх.хх.хх dev ppp1 weight 10
        nexthop via хх.хх.хх.хх dev ppp0 weight 10
...
/ # 
/ # tc qdisc show | grep ppp
qdisc pfifo_fast 0: dev ppp0 root bands 3 priomap  1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1
qdisc pfifo_fast 0: dev ppp1 root bands 3 priomap  1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1
/ # iptables -t nat -nvL | grep ppp
  213 14680 _NDM_STATIC_SNAT  all  --  *      ppp0    0.0.0.0/0            0.0.0.0/0           
   28  3210 _NDM_STATIC_SNAT  all  --  *      ppp1    0.0.0.0/0            0.0.0.0/0           
/ #

При сбросе приоритетов ppp0 - в 1000, ppp1 - в 900 ping проходят :

/ # ping -c2 -I ppp0 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=46 time=64.814 ms

--- 8.8.8.8 ping statistics ---
1 packets transmitted, 1 packets received, 0% packet loss
round-trip min/avg/max = 64.814/64.814/64.814 ms
/ # ping -c2 -I ppp1 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=56 time=13.436 ms
64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.592 ms

--- 8.8.8.8 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 9.592/11.514/13.436 ms
/ # 

при использовании nexthop опять проблема
 

default
        nexthop via хх.хх.хх.хх  dev ppp0 weight 10
        nexthop via yy.yy.yy.yy  dev ppp1 weight 5

...

ppp0      Link encap:Point-to-Point Protocol  
          inet addr:xx.xx.xx.xx  P-t-P:xx.xx.xx.xx  Mask:255.255.255.255

ppp1      Link encap:Point-to-Point Protocol  
          inet addr:yy.yy.yy.yy  P-t-P:yy.yy.yy.yy  Mask:255.255.255.255

...
/ # ping -c2 -I ppp1 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.714 ms
64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.187 ms

--- 8.8.8.8 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 9.187/9.450/9.714 ms
/ # ping -c2 -I ppp0 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes

--- 8.8.8.8 ping statistics ---
2 packets transmitted, 0 packets received, 100% packet loss
/ #

 

Edited by vasek00
  • 0
Posted (edited)

Настроил на Ultra 2 через chroot Debian, 2 шлюза с весом 50/50. Все работает. Пакеты бегают через оба маршрута. Огонь железка получается. 

Entware 3x - работает. 

Не могу только допетрить, как в скрипте вытаскивать "gateway 1" и "gateway2". Gateway 1 добыть легко, а вот Gateway 2 пока не догадался. В обоих случаях DHCP.

Edited by dexter
  • 0
Posted
8 часов назад, dexter сказал:

Настроил на Ultra 2 через chroot Debian, 2 шлюза с весом 50/50. Все работает. Пакеты бегают через оба маршрута. Огонь железка получается. 

Entware 3x - работает. 

Не могу только допетрить, как в скрипте вытаскивать "gateway 1" и "gateway2". Gateway 1 добыть легко, а вот Gateway 2 пока не догадался. В обоих случаях DHCP.

В плане реализация недостающих фич в ndmq, чтобы вытаскивать нужные данные из ndm.
Кстати необязательно указывать gateway, можно указывать просто dev - сетевое устройство как назначение.

На мой взгляд чтобы понять кто у нас wan - это нужно сначала через configuration-request запросить у ndmq на каких интерфейсах ip global > 0 и какие из них в состоянии enabled, и затем оттуда опять запросом через ndmq узнать их системное имя, и уже эти системные имена использовать в скрипте. В итоге все будет автоматически работать, если веса равные на шлюзах.

  • 0
Posted (edited)
В 06.08.2016 в 13:22, dexter сказал:

Настроил на Ultra 2 через chroot Debian, 2 шлюза с весом 50/50. Все работает. Пакеты бегают через оба маршрута. Огонь железка получается. 

Entware 3x - работает. 

Не могу только допетрить, как в скрипте вытаскивать "gateway 1" и "gateway2". Gateway 1 добыть легко, а вот Gateway 2 пока не догадался. В обоих случаях DHCP.

При ppp интерфейсах :

inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`

Можно так


На K-II c v2.06(AAFG.9)B4 не работает с двумя интернет провайдерами на PPPoE и PPTP.

Edited by vasek00
  • 0
Posted (edited)

Там ядро 2.6.22, поддержки не будет.

Edited by dexter
  • 0
Posted

Ну как всегда не привыкать, что 2.6.22 в утиль для 2.06.

СПС за информацию

  • 0
Posted

На 2.06 @ 2.6.22 не были до конца включены алгоритмы для multipath.

В следующей пятничной сборке все должно быть, перепроверьте на ней.

Цитата

На K-II c v2.06(AAFG.9)B4 не работает с двумя интернет провайдерами на PPPoE и PPTP.

Не работает в смысле "Не поднимаются два соединения" или в смысле что невозможно через ip route добавить команду и не идут пакеты?

  • 0
Posted (edited)

Обязательно проверю в след. сборке по

Цитата

На 2.06 @ 2.6.22 не были до конца включены алгоритмы для multipath.

Нет оба канала подняты как pppoe так и pptp, согласно приоритета устанавливается default на тот или другой интерфейс.

При использовании настройки ниже не проходят на одном из интерфейсов ppp0 или ppp1 (ping -c2 -I ppp0 8.8.8.8 проходят , а ping -c2 -I ppp1 4.4.4.4 нет или наоборот) естественно балансировки нет никакой, так как один из каналов не пропускает пакеты. По отдельности все работает в зависимости от приоритетов.

/ #  route del default
/ #  ip ro flush cache

/ # ip ro add default scope global nexthop via IP_IF1 dev ppp1 weight 10 nexthop via IP_IF2 dev ppp0 weight 10
/ # ip ro

....

default
        nexthop via IP_IF1 dev ppp1 weight 10
        nexthop via IP_IF2 dev ppp0 weight 10

 

В постах выше были выдержки из команд ifconfig и ip route

Edited by vasek00
  • 0
Posted
В 8/8/2016 в 12:50, vasek00 сказал:

Обязательно проверю в след. сборке по

Нет оба канала подняты как pppoe так и pptp, согласно приоритета устанавливается default на тот или другой интерфейс.

При использовании настройки ниже не проходят на одном из интерфейсов ppp0 или ppp1 (ping -c2 -I ppp0 8.8.8.8 проходят , а ping -c2 -I ppp1 4.4.4.4 нет или наоборот) естественно балансировки нет никакой, так как один из каналов не пропускает пакеты. По отдельности все работает в зависимости от приоритетов.


/ #  route del default
/ #  ip ro flush cache

/ # ip ro add default scope global nexthop via IP_IF1 dev ppp1 weight 10 nexthop via IP_IF2 dev ppp0 weight 10
/ # ip ro

....

default
        nexthop via IP_IF1 dev ppp1 weight 10
        nexthop via IP_IF2 dev ppp0 weight 10

 

В постах выше были выдержки из команд ifconfig и ip route

Все уже доступно в прошивке, проверяйте.

  • 0
Posted

Может я что-то не так делаю.

Два канала ppp0 (PPPoE, приоритет 1000) и ppp1 (PPTP, приоритет 900) на проводных провайдеров
 

/opt/tmp # ifconfig | grep ppp
ppp0      Link encap:Point-to-Point Protocol  
ppp1      Link encap:Point-to-Point Protocol  
/opt/tmp # ip ro | grep default
default dev ppp0  scope link

/opt/tmp # ping -I ppp0 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=58 time=17.774 ms
64 bytes from 8.8.8.8: seq=1 ttl=58 time=17.743 ms

--- 8.8.8.8 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 17.743/17.758/17.774 ms
/opt/tmp # ping -I ppp1 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.598 ms
64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.525 ms

--- 8.8.8.8 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 9.525/9.561/9.598 ms
/opt/tmp #

Оба канала работают, но маршрут default указывает на ppp0. Все правильно. Меняем по простенькому скрипту

#!/bin/sh
inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`

route del default
ip ro flush cache

ip ro add default scope global nexthop via $inet_addr1 dev ppp0 weight 10 nexthop via $inet_addr2 dev ppp1 weight 10

R_nexthop=`ip route | awk '/nexthop via / {print $1}'`
if [ "$R_nexthop" == "" ]; then
 echo "No router"
 exit;
fi
echo "Yes router nexthop"
exit;

получили
 

/opt/tmp #  ip ro | grep nexthop
        nexthop via [inet_addr1] dev ppp0 weight 10
        nexthop via [inet_addr2]  dev ppp1 weight 10

/opt/tmp # ping -I ppp0 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes

--- 8.8.8.8 ping statistics ---
3 packets transmitted, 0 packets received, 100% packet loss
/opt/tmp # ping -I ppp1 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.618 ms

--- 8.8.8.8 ping statistics ---
1 packets transmitted, 1 packets received, 0% packet loss
round-trip min/avg/max = 9.618/9.618/9.618 ms
/opt/tmp #

И естественно балансировка через ip ro add default scope global nexthop опять не работает.

K-II на v2.06(AAFG.10)B4

 

 

 

 

  • 0
Posted

Берем другую схему :

Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1

На роутере1 делаю настройки
 

# ifconfig | grep ppp
ppp0      Link encap:Point-to-Point Protocol  
# route del default
# ip ro flush cache
# ip ro add default scope global nexthop via [IP_ppp] dev ppp0 weight 5 nexthop via [IP_KII] dev br0 weight 10
# ip ro
default
        nexthop via [IP_ppp]  dev ppp0 weight 5
        nexthop via [IP_KII] dev br0 weight 10

...

# ping -I ppp0 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.027 ms
64 bytes from 8.8.8.8: seq=1 ttl=56 time=8.967 ms
^C
--- 8.8.8.8 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 8.967/8.997/9.027 ms
# ping -I br0 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=57 time=19.033 ms
64 bytes from 8.8.8.8: seq=1 ttl=57 time=18.544 ms
^C
--- 8.8.8.8 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 18.544/18.788/19.033 ms
# 

Проверяю балансировку работу клиентом и так же по смотрим на роутере1 (после ping на разные интерфейсы)

#cat ip_conntrack | grep 8.8.8.8
icmp     1 10 src=[IP_ppp] dst=8.8.8.8 type=8 code=0 id=39173 packets=2 bytes=168 src=8.8.8.8 dst=[IP_ppp] type=0 code=0 id=39173 packets=2 bytes=168 mark=0 use=2
icmp     1 1 src=[IP_роутер1] dst=8.8.8.8 type=8 code=0 id=38405 packets=2 bytes=168 src=8.8.8.8 dst=[IP_роутер1] type=0 code=0 id=38405 packets=2 bytes=168 mark=0 use=2
# 

Работает как надо, через роутер1, если шлюзом для клиентов будет именно он роутер1.

K-II пока для такой работы не готов на v2.06(AAFG.10)B4

  • 0
Posted

v2.06(AAFG.11)B4  - релиз, изменений ноль. Тему можно думаю закрывать использование ip ro add default scope global nexthop на данном ядре 2.6.22.15, как не нужную (по мнению наверное разработчиков) в устаревающем оборудовании, есть более интересные идеи для 762х релизов.

Якобы данная функция работает в ядре 3.х (но наводят на сомнения данный факт) так как думаю если есть там, то можно сделать и в текущей.

Проверено v2.06(AAFG.11)B4 по схеме выше, только в обратную сторону ip ro add default scope global nexthop, на K-II

Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1

мало того так K-II через некоторое время еще посчитал что default не правильный и грохнул его к первоначальному состоянию на ppp0.

 

  • 0
Posted
2 часа назад, vasek00 сказал:

v2.06(AAFG.11)B4  - релиз, изменений ноль. Тему можно думаю закрывать использование ip ro add default scope global nexthop на данном ядре 2.6.22.15, как не нужную (по мнению наверное разработчиков) в устаревающем оборудовании, есть более интересные идеи для 762х релизов.

Якобы данная функция работает в ядре 3.х (но наводят на сомнения данный факт) так как думаю если есть там, то можно сделать и в текущей.

Проверено v2.06(AAFG.11)B4 по схеме выше, только в обратную сторону ip ro add default scope global nexthop, на K-II


Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1

мало того так K-II через некоторое время еще посчитал что default не правильный и грохнул его к первоначальному состоянию на ppp0.

 

Вообще да, все что было сделать легко: включить опции в сборке и модули ядра, мы сделали. Разработку новых фич для 2.06 на столетнем ядре никто не планирует.

  • 0
Posted
19 часов назад, Le ecureuil сказал:

Вообще да, все что было сделать легко: включить опции в сборке и модули ядра, мы сделали. Разработку новых фич для 2.06 на столетнем ядре никто не планирует.

Практически такой подход везде приходиться привыкать.

Только вот http://www.allnet.de/en/allnet-brand/produkte/neuheiten/p/allnet-all-vpn10-vpnfirewall-wlan-wan-router/ как говорится на "столетнем" ядре еще в 2013году реализовал данную функцию на данный проц, Multi-WAN Traffic Control - ... Load Balance ...; Network Interface - 1~2x WAN Port, 3~4x LAN 10/100 Mbps RJ45 ... . Сейчас 2016г. оно "ядро" конечно устарело, да и тянуть "лямку" на данный проц смысла нет.

 

Скрытый текст

Вспомнился один диалог по поводу развития в январе 2013г.

на мое предложение

Думаю перспективней все таки пропустить данный релиз 6865, а перейти сразу на 7620

был дан ответ

Вот это больше всего подняло настроение laugh.gif , предлагается пропустить посадку на 600 мерина и сразу сесть в ЗАЗ 968M lol.gif МТ7620 это чип для бюджетных решений, аля Keenetic Lite, к тому же, их еще не на клепали столько, что бы хоть один завод начал на них массово что-то производить...

MT7620N это замена RT3x5x в бюджетном сегменте рынка, хоть у него и 600МГц, и такой вот он карандаш с губой, но чудес не бывает, и сравнения я подобрал очень верное, т.к. закончил заниматься этим процессором и знаю, на что он способен и куда его воткнут. 100Мбит + 100Мбит в фулдуплексе на L2TP он не тянет, а вот 60+60 делает легко, хотя это еще не окончательный вердикт, т.к. мы ведем свою разработку L2TP, может и выжмем что-то большее. Если речь идет про MT7620A, то CPU core у него полностью идентичен с N, правда он по дороже, из-за наличия 2х RGMII, одного PCI-E и некоторых плюшек для VOIP, по сравнению с RT3x5x, MT7620х практически не греются, только их еще нет на производстве, пока только пробные партии, но раз они вам так интересны, то ждите, для бюджетников будет отличный вариант... ZyXEL не сильно будет переживать, если начнет их использовать самым последним из производителей

Делаю вывод быть внимательнее при следующем выборе роутера на новых процах (например 7621).

 

  • 0
Posted
11 минуту назад, vasek00 сказал:

Практически такой подход везде приходиться привыкать.

Только вот http://www.allnet.de/en/allnet-brand/produkte/neuheiten/p/allnet-all-vpn10-vpnfirewall-wlan-wan-router/ как говорится на "столетнем" ядре еще в 2013году реализовал данную функцию на данный проц, Multi-WAN Traffic Control - ... Load Balance ...; Network Interface - 1~2x WAN Port, 3~4x LAN 10/100 Mbps RJ45 ... . Сейчас 2016г. оно "ядро" конечно устарело, да и тянуть "лямку" на данный проц смысла нет.

 

  Показать содержимое

 

В те года никто не ожидал что Трендчип он же Ралинк он же Медиатек полностью "положит" на поддержку RT63xxx и RT68xx и оставит их только в ядре 2.6.22 (опыт с переносом на 2.6.36 вы тут сами на форуме все единогласно забраковали как неудачный). Тут остается только повиноваться воле вендора, а не героически выполнять за них чужую работу. Плюс со смертью трендчипа некоторые вещи уже принципиально невозможно получить: например новую сборку ADSL драйверов под ядра отличные от 2.6.22 и 2.6.36.

В то время как 7620, 7621 и 7628 поддерживаются даже в vanilla linux kernel.

  • 0
Posted

Здравствуйте, Ultra 2 v2.08(AAUX.0)A4 + Entware-3x

eth3 основной интерфейс, eth2.4 резервный

Выполняю команды

 

route del default
ip ro flush cache
ip ro add default scope global nexthop  dev eth3 weight 10 nexthop  dev eth2.4 weight 10

Все вроде выполняется, но вместо балансировки интернет пропадает.

Пинги в интерфейс до этих команд работают, после пинги идут только через eth2.4

вывод команды ip ro:

multiwan.jpg

Что я делаю не так??? :???:

  • 0
Posted
8 часов назад, r13 сказал:

Здравствуйте, Ultra 2 v2.08(AAUX.0)A4 + Entware-3x

eth3 основной интерфейс, eth2.4 резервный

Выполняю команды

 


route del default
ip ro flush cache
ip ro add default scope global nexthop  dev eth3 weight 10 nexthop  dev eth2.4 weight 10

Все вроде выполняется, но вместо балансировки интернет пропадает.

Пинги в интерфейс до этих команд работают, после пинги идут только через eth2.4

вывод команды ip ro:

multiwan.jpg

Что я делаю не так??? :???:

Аналогично, все про что писал выше так и есть, маршрут работает только через второй интерфейс и то тот который идет в команде последний.

  • 0
Posted (edited)
14 часа назад, Le ecureuil сказал:

В те года никто не ожидал что Трендчип он же Ралинк он же Медиатек полностью "положит" на поддержку RT63xxx и RT68xx и оставит их только в ядре 2.6.22 (опыт с переносом на 2.6.36 вы тут сами на форуме все единогласно забраковали как неудачный).....

Маленькая ремарка к слову (по тексту показать содержимое) ;)
 

Цитата

 

на мое предложение (2013года)

Думаю перспективней все таки пропустить данный релиз 6865, а перейти сразу на 7620

 

 

Edited by vasek00
  • 0
Posted
В 06.08.2016 в 22:18, Le ecureuil сказал:

Кстати необязательно указывать gateway, можно указывать просто dev - сетевое устройство как назначение.

Вопреки этой рекомендации так не завелось, писал об этом выше, с указанием gateway все завелось :D

  • 0
Posted
2 минуты назад, r13 сказал:

Вопреки этой рекомендации так не завелось, писал об этом выше, с указанием gateway все завелось :D

А на каком устройстве?

  • 0
Posted (edited)
Только что, dexter сказал:

А на каком устройстве?

Ultra 2 v2.08(AAUX.0)A4 + Entware-3x + 2 IPoE

Edited by r13
Guest
This topic is now closed to further replies.
  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...