-
Posts
4,399 -
Joined
-
Last visited
-
Days Won
75
Content Type
Profiles
Forums
Gallery
Downloads
Blogs
Events
Posts posted by vasek00
-
-
Для ДНС лучше жестко прописать свой маршрут на свой интерфейс, второе при пропадании одного из каналов роутер его поднимет и опять же настройки слетят (будет обычный default, который роутер восстановит согласно своих настроек) => вывод лучше в cron, только для быстроты его работы нужно минимально использовать команды - ip ro и первая проверка на наличие
test "$R_nexthop"
а уже потом все остальное.
- 1
-
1 час назад, r13 сказал:
Было:
default via 95.220.192.1 dev eth2.4
после удаления через некоторое время проставился роут с 2го интерфейса:
default via 178.140.196.1 dev eth3
После следующего удаления снова перещелкнулось на 1й интерфейс:
default via 95.220.192.1 dev eth2.4
Ну и определите тогда путем удаления маршрута (командой удаления) и определением из "ip ro" нужного шлюза или если не ждать некоторое время то дополнительно команда
# ip route get 8.8.8.8
покажет интерфейс и его шлюз при текущем default.
ip route | awk '/default/ {print $4}' # тек интерфейс например eth2.4 if [текущ_шлюз=eth2.4] then ip route | awk '/defualt/ {print $3}' # тек IP шлюза ip route get 4.4.4.4 # получить тек.IP шлюза ip route del default ip route add default dev eth3 ip route get 8.8.8.8 # получить тек.IP шлюз для eth3 else ... fi
Или смотреть переменные при текущем маршруте default в /opt/etc/ndm/wan.d при запуске в данном каталоге скрипта.
- 1
-
Не покажите выполнение двух команд при одинаковом приоритете, не выключая интерфейс
route del default
ip ro
через некоторое время еще раз
route del default
ip ro
через некоторое время еще раз
route del default
ip ro
-
Имеем два провода от провайдера подключенные к WAN и LAN порту со стат IP адресами для выхода в интернет, в конфиге записи :
# ndmq -p "show running-config" -P message ... !interface FastEthernet0/Vlan2 name ISP description "Broadband connection" ... ip address 10.10.10.100 255.255.255.0 ... up !interface FastEthernet0/Vlan3 description VLAN3 ... ip address хх.хх.хх.52 255.255.224.0 .... up ! ... ! ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ip route default 10.10.10.1 ISP ...
по маршрутам, по умолчанию у кого приоритет выше там и default
/dev # ip ro | grep default default via хх.хх.хх.1 dev eth2.3 /dev #
Ваш вид второго подключения, с первым понятно на WAN порту и ISP?
-
15 часов назад, r13 сказал:
@vasek00 с прямым не так, нужен гейт, а его в выводе ifconfig нету
Какая разница, прямой он или "кривой". Смотрим конфиг и пробуем брать от туда (на данном интерфейсе должен быть маршрут по default ) :
interface FastEthernet0/Vlan3 description VLAN3 security-level public ip address хх.хх.хх.52 255.255.224.0 ip dhcp client hostname My-Keen ip dhcp client dns-routes ip dhcp client name-servers ip mtu 1500 ip global 700 up ! interface FastEthernet0/3 name 3 role inet for FastEthernet0/Vlan3 switchport mode access switchport access vlan 3 up ! ... ! ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ...
или их будет два, так как два интерфейса для провайдера
... ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ip route default 10.10.10.1 ISP ...
Взять можно прочитав конфиг и взять из него нужные переменные
/ # ndmq -p "show running-config" -P message | awk '/^ip route default/' ip route default хх.хх.хх.1 FastEthernet0/Vlan3 ip route default 10.10.10.1 ISP / #
Прогнать по "FastEthernet0/Vlan3" и по "ISP", как душе угодно через awk c grep
/ # ndmq -p "show running-config" -P message | awk '/^ip route default/ {print $4}' хх.хх.хх.1 10.10.10.1 / #
-
Пример
Есть "ifconfig" и "ip" с помощью этих команд и берете нужные вам переменные (а именно зная имена интерфейсов без разницы ppp0 он или ppp1).
У меня один pppoe другой pptp => подняты два ppp интерфейса (два проводных провайдера) => ppp0 и ppp1. Теперь сами вариантыppp0 Link encap:Point-to-Point Protocol inet addr:хх.хх.хх.204 P-t-P:хх.хх.хх.1 Mask:255.255.255.255 UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1492 Metric:1 RX packets:1346 errors:0 dropped:0 overruns:0 frame:0 TX packets:1120 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:622677 (608.0 KiB) TX bytes:122811 (119.9 KiB) ppp1 Link encap:Point-to-Point Protocol inet addr:yy.yy.yy.52 P-t-P:yy.yy.yy.25 Mask:255.255.255.255 UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1400 Metric:1 RX packets:6 errors:0 dropped:0 overruns:0 frame:0 TX packets:15 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:1015 (1015.0 B) TX bytes:1635 (1.5 KiB) / # ndmq -p 'show interface PPTP0' -P address yy.yy.yy.52 / # ndmq -p 'show interface PPPoE0' -P address xx.xx.xx.204 ... R_nexthop=`ip route | awk '/nexthop via / {print $1}'` if [ "$R_nexthop" == "" ]; then echo "No router nexthop" inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` PtoP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` PtoP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` ... route del default ip ro flush cache ip ro add default scope global nexthop via $inet_addr1 dev ppp0 weight 10 nexthop via $inet_addr2 dev ppp1 weight 10 echo "Yes router nexthop" exit; fi ... ...
Для прямого аналогично только имена интерфейсов другие. В Cron проверка.
-
14 часа назад, Le ecureuil сказал:
В те года никто не ожидал что Трендчип он же Ралинк он же Медиатек полностью "положит" на поддержку RT63xxx и RT68xx и оставит их только в ядре 2.6.22 (опыт с переносом на 2.6.36 вы тут сами на форуме все единогласно забраковали как неудачный).....
Маленькая ремарка к слову (по тексту показать содержимое)
Цитатана мое предложение (2013года)
Думаю перспективней все таки пропустить данный релиз 6865, а перейти сразу на 7620
-
8 часов назад, r13 сказал:
Здравствуйте, Ultra 2 v2.08(AAUX.0)A4 + Entware-3x
eth3 основной интерфейс, eth2.4 резервный
Выполняю команды
route del default ip ro flush cache ip ro add default scope global nexthop dev eth3 weight 10 nexthop dev eth2.4 weight 10
Все вроде выполняется, но вместо балансировки интернет пропадает.
Пинги в интерфейс до этих команд работают, после пинги идут только через eth2.4
вывод команды ip ro:
Что я делаю не так???
Аналогично, все про что писал выше так и есть, маршрут работает только через второй интерфейс и то тот который идет в команде последний.
-
19 часов назад, Le ecureuil сказал:
Вообще да, все что было сделать легко: включить опции в сборке и модули ядра, мы сделали. Разработку новых фич для 2.06 на столетнем ядре никто не планирует.
Практически такой подход везде приходиться привыкать.
Только вот http://www.allnet.de/en/allnet-brand/produkte/neuheiten/p/allnet-all-vpn10-vpnfirewall-wlan-wan-router/ как говорится на "столетнем" ядре еще в 2013году реализовал данную функцию на данный проц, Multi-WAN Traffic Control - ... Load Balance ...; Network Interface - 1~2x WAN Port, 3~4x LAN 10/100 Mbps RJ45 ... . Сейчас 2016г. оно "ядро" конечно устарело, да и тянуть "лямку" на данный проц смысла нет.
Скрытый текстВспомнился один диалог по поводу развития в январе 2013г.
на мое предложение
Думаю перспективней все таки пропустить данный релиз 6865, а перейти сразу на 7620
был дан ответ
Вот это больше всего подняло настроение , предлагается пропустить посадку на 600 мерина и сразу сесть в ЗАЗ 968M МТ7620 это чип для бюджетных решений, аля Keenetic Lite, к тому же, их еще не на клепали столько, что бы хоть один завод начал на них массово что-то производить...
MT7620N это замена RT3x5x в бюджетном сегменте рынка, хоть у него и 600МГц, и такой вот он карандаш с губой, но чудес не бывает, и сравнения я подобрал очень верное, т.к. закончил заниматься этим процессором и знаю, на что он способен и куда его воткнут. 100Мбит + 100Мбит в фулдуплексе на L2TP он не тянет, а вот 60+60 делает легко, хотя это еще не окончательный вердикт, т.к. мы ведем свою разработку L2TP, может и выжмем что-то большее. Если речь идет про MT7620A, то CPU core у него полностью идентичен с N, правда он по дороже, из-за наличия 2х RGMII, одного PCI-E и некоторых плюшек для VOIP, по сравнению с RT3x5x, MT7620х практически не греются, только их еще нет на производстве, пока только пробные партии, но раз они вам так интересны, то ждите, для бюджетников будет отличный вариант... ZyXEL не сильно будет переживать, если начнет их использовать самым последним из производителей
Делаю вывод быть внимательнее при следующем выборе роутера на новых процах (например 7621).
-
v2.06(AAFG.11)B4 - релиз, изменений ноль. Тему можно думаю закрывать использование ip ro add default scope global nexthop на данном ядре 2.6.22.15, как не нужную (по мнению наверное разработчиков) в устаревающем оборудовании, есть более интересные идеи для 762х релизов.
Якобы данная функция работает в ядре 3.х (но наводят на сомнения данный факт) так как думаю если есть там, то можно сделать и в текущей.
Проверено v2.06(AAFG.11)B4 по схеме выше, только в обратную сторону ip ro add default scope global nexthop, на K-II
Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1
мало того так K-II через некоторое время еще посчитал что default не правильный и грохнул его к первоначальному состоянию на ppp0.
-
2 часа назад, Александр Рыжов сказал:
А гостевая?
Гостевая по умолчанию при включенном Wi-fiinterface WifiMaster0/AccessPoint1 name GuestWiFi description "Guest access point" mac access-list type none security-level protected authentication wpa-psk ns3 Bi/qF......HJ5Si encryption enable encryption wpa2 ip address 10.1.30.1 255.255.255.0 ip dhcp client dns-routes ip dhcp client name-servers ssid My-Keen-wap wmm up / # ifconfig br0 Link encap:Ethernet HWaddr EC:xx:AA inet addr:192.168.1.1 Bcast:192.168.1.255 Mask:255.255.255.0 ... ra0 Link encap:Ethernet HWaddr EC:xx:AA ... Interrupt:25 ra1 Link encap:Ethernet HWaddr E2:xx:AA inet addr:10.1.30.1 Bcast:10.1.30.255 Mask:255.255.255.0 ... RX bytes:0 (0.0 B) TX bytes:0 (0.0 B) / # ip ro ... 10.1.30.0/24 dev ra1 proto kernel scope link src 10.1.30.1 ... / # iptables -nvL | grep ra1 0 0 ACCEPT all -- ra1 * 0.0.0.0/0 0.0.0.0/0 / # iptables -t nat -nvL | grep ra1 0 0 MASQUERADE all -- ra1 * 0.0.0.0/0 0.0.0.0/0 0 0 MASQUERADE all -- ra1 ra1 0.0.0.0/0 0.0.0.0/0 / #
- 1
-
-
Ситуация в том что по умолчанию проводные клиенты и wi-fi клиенты образуют мост br0
interface Bridge0 name Home description "Home network (Wired and wireless hosts)" inherit FastEthernet0/Vlan1 include AccessPoint ip address 192.168.1.1 255.255.255.0 ...
поэтому все настройки одинаковы для любого клиента Bridge0 (Home network), вывод разделите клиентов на разные сегменты и произвидите настройку для данных клиентов.
По умолчанию (default) один маршрут для всех, в данном случае у вас получиться один сегмент по одному маршруту (через WAN порт) другой сегмент по другому маршруту (через VPN). В базе знаний есть примеры.
-
Берем другую схему :
Prov2----роутер1-(LAN)-----(LAN)-K-II------Инет1
На роутере1 делаю настройки
# ifconfig | grep ppp ppp0 Link encap:Point-to-Point Protocol # route del default # ip ro flush cache # ip ro add default scope global nexthop via [IP_ppp] dev ppp0 weight 5 nexthop via [IP_KII] dev br0 weight 10 # ip ro default nexthop via [IP_ppp] dev ppp0 weight 5 nexthop via [IP_KII] dev br0 weight 10 ... # ping -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.027 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=8.967 ms ^C --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 8.967/8.997/9.027 ms # ping -I br0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=57 time=19.033 ms 64 bytes from 8.8.8.8: seq=1 ttl=57 time=18.544 ms ^C --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 18.544/18.788/19.033 ms #
Проверяю балансировку работу клиентом и так же по смотрим на роутере1 (после ping на разные интерфейсы)
#cat ip_conntrack | grep 8.8.8.8 icmp 1 10 src=[IP_ppp] dst=8.8.8.8 type=8 code=0 id=39173 packets=2 bytes=168 src=8.8.8.8 dst=[IP_ppp] type=0 code=0 id=39173 packets=2 bytes=168 mark=0 use=2 icmp 1 1 src=[IP_роутер1] dst=8.8.8.8 type=8 code=0 id=38405 packets=2 bytes=168 src=8.8.8.8 dst=[IP_роутер1] type=0 code=0 id=38405 packets=2 bytes=168 mark=0 use=2 #
Работает как надо, через роутер1, если шлюзом для клиентов будет именно он роутер1.
K-II пока для такой работы не готов на v2.06(AAFG.10)B4
-
Может я что-то не так делаю.
Два канала ppp0 (PPPoE, приоритет 1000) и ppp1 (PPTP, приоритет 900) на проводных провайдеров
/opt/tmp # ifconfig | grep ppp ppp0 Link encap:Point-to-Point Protocol ppp1 Link encap:Point-to-Point Protocol /opt/tmp # ip ro | grep default default dev ppp0 scope link /opt/tmp # ping -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=58 time=17.774 ms 64 bytes from 8.8.8.8: seq=1 ttl=58 time=17.743 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 17.743/17.758/17.774 ms /opt/tmp # ping -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.598 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.525 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 9.525/9.561/9.598 ms /opt/tmp #
Оба канала работают, но маршрут default указывает на ppp0. Все правильно. Меняем по простенькому скрипту
#!/bin/sh inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "` PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "` route del default ip ro flush cache ip ro add default scope global nexthop via $inet_addr1 dev ppp0 weight 10 nexthop via $inet_addr2 dev ppp1 weight 10 R_nexthop=`ip route | awk '/nexthop via / {print $1}'` if [ "$R_nexthop" == "" ]; then echo "No router" exit; fi echo "Yes router nexthop" exit;
получили
/opt/tmp # ip ro | grep nexthop nexthop via [inet_addr1] dev ppp0 weight 10 nexthop via [inet_addr2] dev ppp1 weight 10 /opt/tmp # ping -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes --- 8.8.8.8 ping statistics --- 3 packets transmitted, 0 packets received, 100% packet loss /opt/tmp # ping -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.618 ms --- 8.8.8.8 ping statistics --- 1 packets transmitted, 1 packets received, 0% packet loss round-trip min/avg/max = 9.618/9.618/9.618 ms /opt/tmp #
И естественно балансировка через ip ro add default scope global nexthop опять не работает.
K-II на v2.06(AAFG.10)B4
-
13 часа назад, Le ecureuil сказал:
Пока интерфейсы, которые являются концами VPN-подключений у VPN-сервера, никак не обрабатываются в прошивке, потому управлять и снимать с них статистику невозможно.
Однако мы поставим эту задачу в план, и посмотрим в будущем как ее можно решить.
ОК.
-
Потерял один интерфейс - имеем провайдер PPTP и подключен клиент по VPN для доступа (как раз этого интерфейса и не видно, ведь он должен же быть как например ppp1), к каждому LAN порту подключен клиент плюс wi-fi клиенты.
Съем идет через клиента который подключился к VPN, так же что-то датчиков в данном подключении маловато будет видно в отличие от локального.
-
Выбор работы данного канала основан на настройках приоритета на этих каналах, т.е. меняя его можно делать выбор того или другого канала. Он задается в конфиге на интерфейсе например : "ip global 900" или "ip global 1000". Через cli команда задается как : "(config-if)> ip global ‹priority›" или "(config-if)> no ip global" => меняя его в нужное время можно переключать канал.
При использовании двух каналов от выбранного приоритета создается маршрут по умолчанию на нужный канал, подняты например два ppp интерфейса ppp0 (приоритет 1000) и ppp1 (приоритет 900) тогда будет маршрут по умолчанию указывать на ppp0
0.0.0.0 0.0.0.0 0.0.0.0 U 0 0 0 ppp0
меняя его в нужное время на ppp1 средствами cron получим переключение.
0.0.0.0 0.0.0.0 0.0.0.0 U 0 0 0 ppp1
Примечание:
1. будет ли долгим данное переключение, не вернет ли переменная приоритет (так как они остались прежними) в исходное состояние нужно проверить.
Другой вариант использование "schedule" т.е. выключение нужного интерфейса в нужное время и включение другого, т.е. на нужных интерфейсах есть период работы один с 08:00-20:00 другой с 20:00-08:00, тут система сама уже будет поднимать соединение после включения канала.
-
876974
PRTG, разобраться не долго, но когда разберетесь очень многое можно узнать.
-
Обязательно проверю в след. сборке по
ЦитатаНа 2.06 @ 2.6.22 не были до конца включены алгоритмы для multipath.
Нет оба канала подняты как pppoe так и pptp, согласно приоритета устанавливается default на тот или другой интерфейс.
При использовании настройки ниже не проходят на одном из интерфейсов ppp0 или ppp1 (ping -c2 -I ppp0 8.8.8.8 проходят , а ping -c2 -I ppp1 4.4.4.4 нет или наоборот) естественно балансировки нет никакой, так как один из каналов не пропускает пакеты. По отдельности все работает в зависимости от приоритетов.
/ # route del default / # ip ro flush cache / # ip ro add default scope global nexthop via IP_IF1 dev ppp1 weight 10 nexthop via IP_IF2 dev ppp0 weight 10 / # ip ro .... default nexthop via IP_IF1 dev ppp1 weight 10 nexthop via IP_IF2 dev ppp0 weight 10
В постах выше были выдержки из команд ifconfig и ip route
-
Ну как всегда не привыкать, что 2.6.22 в утиль для 2.06.
СПС за информацию
-
В 06.08.2016 в 13:22, dexter сказал:
Настроил на Ultra 2 через chroot Debian, 2 шлюза с весом 50/50. Все работает. Пакеты бегают через оба маршрута. Огонь железка получается.
Entware 3x - работает.
Не могу только допетрить, как в скрипте вытаскивать "gateway 1" и "gateway2". Gateway 1 добыть легко, а вот Gateway 2 пока не догадался. В обоих случаях DHCP.
При ppp интерфейсах :
inet_addr1=`ifconfig ppp0 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
inet_addr2=`ifconfig ppp1 | grep -i "inet addr:" | cut -f2 -d: | cut -f1 -d " "`
PtP_1=`ifconfig ppp0 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`
PtP_2=`ifconfig ppp1 | awk '/P-t-P/ {print $3}' | cut -f2 -d: | cut -f1 -d " "`Можно так
На K-II c v2.06(AAFG.9)B4 не работает с двумя интернет провайдерами на PPPoE и PPTP. -
Проверил работу на v2.06(AAFG.9)B4 . Теперь считает eth2.1 eth2.2, так же был поднят второй провайдер eth2.3 и его ppp1 так же все считает.
Проверил IPTV от провайдера на eth2.3 потоки 720х576 и 1920х1080 так же все видно. Теперь по br0 так как это мост в данном случае eth2.1 и ra то следовательно тарфик клиента наприме на eth2.1 должен быть и в br0, если только нет фильтрации vlan в br (на скрине видно есть трафик от клиента на eth2.1 а в br0 его нет).
Так же все возможные счетчики на скринет, красные - не включен интерфейс, синий остановлены, зеленый работают.
-
Второй вариант все заведено на один роутер - пров1 и пров2
/ # ifconfig ... eth2.2 Link encap:Ethernet HWaddr ... eth2.3 Link encap:Ethernet HWaddr inet addr:ххх.хх.хх.52 Bcast:ххх.хх.хх.255 Mask:255.255.224.0 ... ppp0 Link encap:Point-to-Point Protocol inet addr:1yy.1yy.yy3.230 P-t-P:1yy.1yy.0.1 Mask:255.255.255.255 ... ppp1 Link encap:Point-to-Point Protocol inet addr:1xx.18х.хх.52 P-t-P:1хх.ххх.148.26 Mask:255.255.255.255 ... / # ip ro IP_DNS1 dev ppp0 scope link IP_DNS2 dev ppp0 scope link 1хх.ххх.148.14 dev ppp1 scope link IP_серв_пров2 via IP_шлюз_пров2 dev eth2.3 1yy.1yy.0.1 dev ppp0 proto kernel scope link src 1yy.1yy.yy3.230 IP_пров2 dev ppp1 scope link 1хх.ххх.148.26 dev ppp1 proto kernel scope link src 1xx.18х.хх.52 192.168.1.0/24 dev br0 proto kernel scope link src 192.168.1.1 ххх.хх.хх.0/19 dev eth2.3 proto kernel scope link src ххх.хх.хх.52 default dev ppp0 scope link / # убираем default и даем на два канала / # route del default / # ip ro flush cache / # ip ro add default scope global nexthop via 1xx.18х.хх.52 dev ppp1 weight 10 nexthop via 1yy.1yy.yy3.230 dev ppp0 weight 10 / # ip ro .... default nexthop via 1xx.18х.хх.52 dev ppp1 weight 10 nexthop via 1yy.1yy.yy3.230 dev ppp0 weight 10 / #
Интернет работает, но как то странно, полсекундные есть timeout, возможно один канал провайдера не фурычит (по анализу данных пакетов, их маловато на ppp1) по данной схеме.
По подключению - ppp0 (приоритет 1000) ppp1 (приоритет 900), думаю если сменить приоритеты получим опять работу на одном канале.
Странно при установки ppp1 приоритет 1000, ppp0 приоритет 900 и nexthop:
/ # ping -c2 -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=48 time=35.867 ms 64 bytes from 8.8.8.8: seq=1 ttl=48 time=36.023 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 35.867/35.945/36.023 ms / # / # ping -c2 -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes --- 8.8.8.8 ping statistics --- 2 packets transmitted, 0 packets received, 100% packet loss / # / # ifconfig | grep ppp ppp0 Link encap:Point-to-Point Protocol ppp1 Link encap:Point-to-Point Protocol / # ... default nexthop via хх.хх.хх.хх dev ppp1 weight 10 nexthop via хх.хх.хх.хх dev ppp0 weight 10 ... / # / # tc qdisc show | grep ppp qdisc pfifo_fast 0: dev ppp0 root bands 3 priomap 1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1 qdisc pfifo_fast 0: dev ppp1 root bands 3 priomap 1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1 / # iptables -t nat -nvL | grep ppp 213 14680 _NDM_STATIC_SNAT all -- * ppp0 0.0.0.0/0 0.0.0.0/0 28 3210 _NDM_STATIC_SNAT all -- * ppp1 0.0.0.0/0 0.0.0.0/0 / #
При сбросе приоритетов ppp0 - в 1000, ppp1 - в 900 ping проходят :
/ # ping -c2 -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=46 time=64.814 ms --- 8.8.8.8 ping statistics --- 1 packets transmitted, 1 packets received, 0% packet loss round-trip min/avg/max = 64.814/64.814/64.814 ms / # ping -c2 -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=13.436 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.592 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 9.592/11.514/13.436 ms / #
при использовании nexthop опять проблема
default nexthop via хх.хх.хх.хх dev ppp0 weight 10 nexthop via yy.yy.yy.yy dev ppp1 weight 5 ... ppp0 Link encap:Point-to-Point Protocol inet addr:xx.xx.xx.xx P-t-P:xx.xx.xx.xx Mask:255.255.255.255 ppp1 Link encap:Point-to-Point Protocol inet addr:yy.yy.yy.yy P-t-P:yy.yy.yy.yy Mask:255.255.255.255 ... / # ping -c2 -I ppp1 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes 64 bytes from 8.8.8.8: seq=0 ttl=56 time=9.714 ms 64 bytes from 8.8.8.8: seq=1 ttl=56 time=9.187 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 9.187/9.450/9.714 ms / # ping -c2 -I ppp0 8.8.8.8 PING 8.8.8.8 (8.8.8.8): 56 data bytes --- 8.8.8.8 ping statistics --- 2 packets transmitted, 0 packets received, 100% packet loss / #
Блокировка сбора информации Windows 10
in Каталог готовых решений Opkg
Posted
Это конечно хорошо, но в DNSMasq Options это проще реализовать одной опцией например :
addn-hosts=/tmp/hosts0
или
addn-hosts=/opt/tmp/hosts0
Не трогая