-
Posts
4,400 -
Joined
-
Last visited
-
Days Won
75
Content Type
Profiles
Forums
Gallery
Downloads
Blogs
Events
Posts posted by vasek00
-
-
7 часов назад, flashtr0n сказал:
Keenetic Giga III, прошивка последняя экспериментальная.
Подключено 3 аплинка - 4G модем Huawei E8372 (основной, проверка доступности из списка - автоматически), PPTP через Ethernet к провайдеру (резервный, проверка отключена), PPTP через Ethernet к другому провайдеру (резервный 2, проверка отключена).
Проблема - при исчерпании баланса на 4G модеме он начинает бесконечно перезаружаться Кинетиком, в процессе перезагрузки переходя на резервный канал, а потом возвращаясь обратно на 4G, и так бесконечно. Соответственно скачет интернет на роутере, и всё отваливается, нет связи с миром. Пытался менять проверку доступности на 4G с автоматической на пинг 8.8.8.8 или другого - бесполезно.
Как правильно настроить 3 канала, что-бы они отрабатывали последовательно и правильно, учитывая что основным является 4G?
Я бы не использовал pingcheck совсем и даже убрал бы компонент "быстрой настройки"
2. люблю настройки через профили и помещать в них клиентов.
3. в основном профиле убрал бы из основного канала 4G т.е. настроил бы по приоритету.
- PPTP1 через Ethernet - PPTP2 через Ethernet - 4G
По п.2. создал бы профиль и в нем разместил каналы уже так как вам надо
- 4G - PPTP1 через Ethernet - PPTP2 через Ethernet
Далее в него клиентов и попробовал использовать новую настройку
ЦитатаIPv4: реализовано резервирование соединений в режиме "on-demand" [NDM-2643]*:
- interface standby enable
При создание сложный/мудреных схем подключения более одного канала или плюсом VPN лучше использовать профили чем все в основном - личное мнение.
-
Что интересно - создал еще один профиль, так же создал в нем еще один wireguard (Proton) он один канал, клиента не помещал в него. В итоге никаких лишних записей по нему нет
"wireguard" changed "link" layer state "pending" to "running".
лог чистый по данному интерфейсу, в отличие от
Скрытый текст[I] Mar 26 05:37:33 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". [I] Mar 26 05:37:33 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 05:37:33 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 05:37:33 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. [I] Mar 26 05:38:37 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 26 05:38:37 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 26 05:38:37 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. [I] Mar 26 05:38:37 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 26 05:38:37 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. [I] Mar 26 05:38:37 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). [I] Mar 26 05:38:37 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. [I] Mar 26 05:38:37 ndm: Core::Syslog: last message repeated 3 times. ... [I] Mar 26 06:06:18 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". [I] Mar 26 06:06:18 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 06:06:18 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 06:06:18 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. [I] Mar 26 06:07:16 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 26 06:07:16 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 26 06:07:16 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. [I] Mar 26 06:07:16 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 26 06:07:16 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. [I] Mar 26 06:07:16 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). [I] Mar 26 06:07:16 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. [I] Mar 26 06:07:16 ndm: Core::Syslog: last message repeated 3 times. [I] Mar 26 06:10:25 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". [I] Mar 26 06:10:25 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 06:10:25 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 06:10:25 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. ... [I] Mar 26 07:29:12 ndm: Core::Syslog: last message repeated 3 times. [I] Mar 26 07:32:15 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". [I] Mar 26 07:32:15 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 07:32:15 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 26 07:32:15 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. [I] Mar 26 07:33:19 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 26 07:33:19 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 26 07:33:19 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. [I] Mar 26 07:33:19 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 26 07:33:19 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. [I] Mar 26 07:33:19 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). [I] Mar 26 07:33:19 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. [I] Mar 26 07:33:19 ndm: Core::Syslog: last message repeated 3 times. ...
ip policy Policy0 description Cloud permit global Wireguard0 no permit global Wireguard4 no permit global PPPoE0 no permit global GigabitEthernet0/Vlan2 ip policy Policy2 description A permit global Wireguard4 no permit global GigabitEthernet0/Vlan9 no permit global Wireguard0 no permit global PPPoE0 ip hotspot ... host КЛИЕНТ1:e2 permit host КЛИЕНТ1:e2 policy Policy0 host КЛИЕНТ1:e2 priority 6
Похоже, после появления/включения клиента в данном профиле где Wireguard0 один и он default данные записи пропадают.
В итоге получаю = отличие двух профилей в которых Wirwguard0 - активен и есть клиент (тут важно включен он или нет) и Wireguard4 - активен но нет клиентов.
-
Да но тут еще
так как в нем только один активный интерфейс Wireguard0 и для него может быть "adding default route via Wireguard0/removing default route via Wireguard0"
добавить и удалить default -> как сказал выше данный интерфейс у меня в созданном профиле.
[I] Mar 25 11:00:18 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 11:00:18 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 11:00:18 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. [I] Mar 25 11:01:21 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0.
и тут не 3ceк
-
4.0.14 настроенный wireguard клиент для выхода в интернет (в нем один cloudflare warp). В настройках прописан DNS 192.168.130.101 сам роутер AdGuardHome, весь лог забит сообщениями, "Проверка активности" стоит 240 стояло 120/30 в данном подключение думаю оно по барабану какое, "ip global 65434". Есть созданный профиль с одним только данным подключением.
Скрытый текст[I] Mar 25 10:57:15 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 25 10:57:15 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 10:57:15 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. [I] Mar 25 10:57:15 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 10:57:15 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. [I] Mar 25 10:57:15 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). [I] Mar 25 10:57:15 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. [I] Mar 25 10:57:15 ndm: Core::Syslog: last message repeated 3 times. [I] Mar 25 11:00:18 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". [I] Mar 25 11:00:18 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 11:00:18 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 11:00:18 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. [I] Mar 25 11:01:21 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. [I] Mar 25 11:01:21 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 11:01:21 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. [I] Mar 25 11:01:21 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). [I] Mar 25 11:01:21 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. [I] Mar 25 11:01:21 ndm: Core::Syslog: last message repeated 3 times. [I] Mar 25 11:04:25 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". [I] Mar 25 11:04:25 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 11:04:25 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 11:04:25 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. [I] Mar 25 11:05:28 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 25 11:05:28 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 11:05:28 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. [I] Mar 25 11:05:28 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 11:05:28 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. ... [I] Mar 25 08:17:45 ndm: Core::Syslog: last message repeated 3 times. [I] Mar 25 08:20:55 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". [I] Mar 25 08:20:55 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 08:20:55 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. [I] Mar 25 08:20:55 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. [I] Mar 25 08:21:52 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". [I] Mar 25 08:21:52 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 08:21:52 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. [I] Mar 25 08:21:52 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. [I] Mar 25 08:21:52 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. [I] Mar 25 08:21:52 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). [I] Mar 25 08:21:52 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. [I] Mar 25 08:21:52 ndm: Core::Syslog: last message repeated 3 times. [I] Mar 25 08:24:21 ndm: Netfilter::Util::Conntrack: flushed 99 IPv4 connections.
Вопрос это просто лишняя информация в логе или что-то с созданным профилем происходит, так как в нем только один активный интерфейс Wireguard0 и для него может быть "adding default route via Wireguard0/removing default route via Wireguard0"
И для справки IP6, хотя не где не чего для него не настраивал.
-
6 часов назад, 1qqq сказал:
Приветствую. Есть задача, чтобы устройство было и в одной и в другой политике в приоритетах подключений. Или же так при регистрации устройства в списке устройств была бы возможность прописать его в разные политики доступа. Для чего. Есть отдельно поднятая сеть на роутере через WireGuard туннель. Но если устройство зарегистрировано с политиками по умолчанию, оно уже не выходит в сеть через туннель. Приходится не регистрировать устройство. Прошу рассмотреть возможность прописать устройство в разные политики доступа.
Каждая политика имеет :
1. свою таблицу маршрутизации
2. свою маркировку пакетов
В каждой таблице маршрутизации есть свой default маршрут который выбран исходя из приоритета в данной политики каналов.
Вопрос по маркировке для двух политик одному клиенту - не возможно.
По маршрутизации тут еще можно по шаманить - клиент в политике А, для него добавляется стат.маршрут :
1. для сети на нужный интерфейс
2. для него в новую таблицу маршрутизации
Вот страницу маршрутизации WEB хорошо бы расширить функционал например для клиентов которые подключились к роутеру по VPN и хотят выйти в интернет не через основной профиль а через другой - на данном форуме уже много таких пожеланий.
-
4 часа назад, Kostian90 сказал:
Как заставить ходить траффику между wireguard сервером и openvpn клиентом ?
Если маршрутами.
Вариант заворачивал клиента SSTP/wireguard (сервер на роутере) на VPN канал wireguard (на роутере) -> банальным стат.маршрутом, так как клиент который подключается имеет IP адрес.
interface Wireguard0 **** выход в интернет description Cloud-warp security-level public ... interface Wireguard3 *** сервер для клиентов description KN-WG security-level public ????? ip address 10.16.130.101 255.255.255.0 ... endpoint 10.16.130.6:хххх keepalive-interval 30 allow-ips 10.16.130.6 255.255.255.255 allow-ips 192.168.130.0 255.255.255.0 allow-ips 0.0.0.0 0.0.0.0 sstp-server interface Home pool-range 172.16.1.101 2 multi-login static-ip User***** 172.16.1.29 lcp echo 30 3 ip policy Policy0 **** профиль cloudflare warp с WG description Cloud permit global Wireguard0 ip nat Wireguard3 ip nat sstp
В итоге клиент WG имеет ip-10.16.130.6 а при SSTP имеет ip-172.16.1.29. По умолчанию данный клиент использует выход в интернет через основной профиль в данном случае просто провайдера. Есть созданный профиль Policy0 (cloudfalre warp) в котором только данный канал Wireguard0 и автоматом для него создана table 42 (прошивкой роутера). Прописать стат маршрут для данного клиента, завернув его с интернет
ip rule add from 10.16.130.6 table 42 где table 42 это таблица маршрутизации для cloudfalre warp или Policy0
Для SSTP клиента заменить на его ip. В итоге у клиента меняется выход в интернет или провайдер или поднятый VPN wireguard или SSTP - роли не играет эфто все сетевые интерфейсы.
Интернет----------[WAN-pppoe]Keenetic[WG-сервер]--Интернет--[клиент-WG]Kлиент Интернет------[WG-cloud-warp]+ Интернет----------[WAN-pppoe]Keenetic[SSTP-сервер]--Интернет--[клиент-SSTP]Kлиент Интернет------[WG-cloud-warp]+ КлиентА--Keenetic1[WG-сервер]--Интернет--[клиент-WG]Keenetic2[WG-сервер]--Интернет--[клиент-WG]KлиентВ
Ремарка "странности" - сейчас 4.0.14 проверил "security-level public" для WG3 (сервер wireguard на роутере для клиентов) именно public должен стоять, ранее использовал "private" в данном варианте схемы. Это проверено именно "public" работает.
При добавление еще одного WG между двумя роутерами клиент про который выше речь без проблем выходит в удаленную лок.сеть дургого Keenetic через канал WG. Тут только стат маршрут для связи двух сетей.
Единственная проблема это прописать маршрут средствами WEB или cli не возможно, с установленным Entware возможно.
-
1 час назад, uneasy сказал:
Нет, это точно необязательно. Можно сразу в netfilter.d кидать. Вот например, известный гайд:
https://keenetic-gi.ga/2022/12/17/adguardhome-and-selective-routing.html
С ним знаком.
Я делаю как написал выше.
-
2 часа назад, Пихал Метрович сказал:
Не работатет скрипт, правила iptables просто тупо не создаются после перезагрузки
А почему должны создаваться, используйте скрипт в /opt/etc/init.d для их cозданияю Далее после создания они будут проверяться по вашему скрипту в ndm.
-
3 часа назад, Casavatar сказал:
Я как понял mesh соединяется исключительно по 5ггц и ставить репитер нужно в зоне хорошего приема 5ггц или там какой-то другой канал?
Рассмотрите возможность установки при уровени RSSI в данной точке в районе -60 ... -65.
KN3010 wifi система 234-351Мбит линк на KN3310 по 5GHz это при "show mws associations" показывает RSSI = -76 -77 прием rxtare - 175 и передача txrate - 351
Скрытый текст"txrate": 351, "rxrate": 175, "uptime": 3974, "txbytes": 31187405, "rxbytes": 391951376, "ht": 80, "mode": "11ac", "gi": 800, "rssi": -77, "mcs": 4, "txss": 2, "txrate": 234, "rxrate": 175, "uptime": 4035, "txbytes": 31411977, "rxbytes": 392090632, "ht": 80, "mode": "11ac", "gi": 800, "rssi": -77, "mcs": 3, "txss": 2,
Все будет зависеть от ваших хотелок на клиентах 5GHz и что вы хотите получить от такого включения.
-
2 часа назад, demonidze сказал:
Вставляешь все ip в список и все будет работать
Есть вариант проще без данного списка пусть работает ipset
1. то что написано выше ipset для netflix (я использовал AdGuardHome)
2. есть Wireguard на Proton WG -> созданный профиль -> в нем только активен данный канал
3. клиент в основном профиле, нужно данному клиенту выход на данный сервис netflix, как раз через данный профиль
Скрытый текстiptables -t mangle -I _NDM_HOTSPOT_PRERT -s 192.168.1.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02
тут 192.168.1.2 сам клиент
--set-mark 0xffffd02 - профиль с маркировкой пакетов (узнается web-cli команда "show ip policy")
На одной строчке работает - но нужен контроль через netfilter.d но иногда нужно еще две строчки
iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j RETURN iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j CONNMARK --save-mark iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02 с ключем -I имеенно в такой последовательности
4. как итог данный клиент имеет выход на данный сервис находясь в основном профиле, а сервис идет через созданный профиль.
Можно и еще один вариант (пробовал ранее) при наличие данного клиента 192.168.1.2 в каком либо своем профиле ААААА в котором активен канал А1. В другом профиле BBBBB активен канал B1. Нужно часть сервисов для данного клиента завернуть на этот профиль BBBBB. Тут уже нужно наличие клиента в данном профиле BBBBB (завел в него ТВ).
Скрытый текстпрофиль ААААА и клиент 192.168.1.2 в нем 0xffffd00 с активным каналом А1
профиль BBBBB и клиент ТВ в нем 0xffffd02 с активным каналом B2
iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j RETURN iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j CONNMARK --save-mark iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02
и доступ есть клиента 192.168.1.2 к сервисам netflix через профиль BBBBB.
Опять же нужен контроль через netfilter.d
Ремарка - пока это работает, только что проверил на 4.0.13
-
14 минуты назад, Romanvs777 сказал:
netflix хочет регистрировать. Подскажите какие адреса нужно добавить в список. Спасибо.
Могу предложить список
ipset: - flxvpn.net,netflix.ca,netflix.com,netflix.com.au,netflixdnstest10.com,netflixdnstest1.com,netflixdnstest2.com,netflixdnstest3.com,netflixdnstest4.com,netflixdnstest5.com,netflixdnstest6.com,netflixdnstest7.com,netflixdnstest8.com,netflixdnstest9.com,netflixinvestor.com,netflix.net,netflixstudios.com,netflixtechblog.com,nflxext.com,nflximg.com,nflximg.net,nflxso.net,nflxvideo.net/netflix
и как в итоге после отлова, возможно еще не все
Скрытый текст# ipset list netflix Name: netflix Type: hash:ip Revision: 4 Header: family inet hashsize 4096 maxelem 65536 Size in memory: 1104 References: 0 Members: 45.57.91.1 162.159.130.11 104.18.117.155 104.18.118.155 104.18.119.155 45.57.90.1 54.194.82.94 54.155.246.232 198.38.114.170 52.31.48.193 18.200.8.190 162.159.129.11 104.18.116.155 79.125.89.59 34.252.74.1 104.18.120.155 99.81.174.244 198.38.114.131 104.79.89.135 54.73.148.110 46.137.171.215
- 1
-
Для того чтоб точно указать что у вас и как нужно вникать в ваши настройки. У вас и в моем случае PPPoE и описал выше на PPPoE происходит перезапуск сервиса со всеми последствиями для каналов которые на нем подняты, так же проверка доступности интернета нужен запрос к DNS -> всякие настройки его от провайдера/в фильтрах и т.д.
-
Не замечено Peak 4.0.13 два канала 100Мбит и два WG.
Единственное что это один раз "штормик" до 200Мбит пробежал.
При смене канала (который имеет выход в Интернет) происходит смена default маршрута на канал который выше в приоритете. Есть странность в алгоритме на канале PPPoE (т.е. его остановка и перезапуск) но в конечном итоге все ОК, но еще кое что в моем случае AdGuardHome запущенный на роутере и никаких доп.настроек DNS нет.
Скрытый текст[I] Mar 16 07:31:34 pppd[887]: Modem hangup [I] Mar 16 07:31:34 pppd[887]: Connect time 891.3 minutes. [I] Mar 16 07:31:34 pppd[887]: Sent 132189625 bytes, received 2943993017 bytes. [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "PPPoE0": order is 1. [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "GigabitEthernet0/Vlan9": order is 2. [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "Wireguard0": order is 3. [I] Mar 16 07:31:34 pppd[887]: Connection terminated. [I] Mar 16 07:31:34 pppd[887]: Sent PADT [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "GigabitEthernet0/Vlan2": order is 4. [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "Wireguard1": order is 5. [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "Wireguard3": order is 6. [I] Mar 16 07:31:34 ndm: Core::System::StartupConfig: saving (http/rci). [I] Mar 16 07:31:34 ndm: Network::Interface::Base: "PPPoE0": "ip" changed "ipv4" layer state "running" to "disabled". [I] Mar 16 07:31:34 ndm: Network::Interface::Ip: "PPPoE0": IP address cleared. [I] Mar 16 07:31:34 ndm: Network::Interface::Base: "PPPoE0": "ppp" changed "link" layer state "running" to "connecting". [I] Mar 16 07:31:34 ndm: Network::InterfaceFlusher: flushed Wireguard0 conntrack and route cache. [I] Mar 16 07:31:34 ndm: Network::InternetChecker: Internet access lost (status: 0x0000). [I] Mar 16 07:31:34 upnp: shutting down MiniUPnPd [I] Mar 16 07:31:34 ndm: Core::Session: client disconnected. [I] Mar 16 07:31:34 pppd[887]: Terminating on signal 15 [I] Mar 16 07:31:34 pppd[887]: Exit. и как следствие все висящие на нем WG [I] Mar 16 07:31:38 pppd[17021]: Plugin rp-pppoe.so loaded. [I] Mar 16 07:31:38 ndm: Core::System::StartupConfig: configuration saved. [I] Mar 16 07:31:38 pppd[17021]: pppd 2.4.4-4 started by root, uid 0 [I] Mar 16 07:31:38 pppd[17021]: Found unterminated session: 4656:хх:хх:хх:хх:хх:ed ... [I] Mar 16 07:31:38 pppd[17021]: Sent PADT .. [I] Mar 16 07:31:39 pppd[17021]: PPP session is 27297 [I] Mar 16 07:31:39 pppd[17021]: Using interface ppp0 [I] Mar 16 07:31:39 pppd[17021]: Connect: ppp0 <--> eth3
В вашем случае думаю фишка в настройках DNS и то что написал при смене каналов меняется и default маршрут.
ip name-server 1.1.1.1 "" on Wireguard1 ip name-server 1.0.0.1 "" on Wireguard1 ip name-server 1.1.1.1 "" on Wireguard0 ip name-server 1.0.0.1 "" on Wireguard0 ip name-server 1.1.1.1 "" on Wireguard2 ip name-server 1.0.0.1 "" on Wireguard2 [I] Mar 15 22:25:27 ndm: Network::InternetChecker: Internet access detected. [I] Mar 15 22:25:36 ndm: Network::Interface::Base: "Wireguard2": "ping-check" changed "ipv4" layer state "pending" to "running". [I] Mar 15 22:25:37 ndm: Dns::InterfaceSpecific: "Wireguard2": adding a host route to name server 1.1.1.1. [I] Mar 15 22:25:37 ndm: Dns::InterfaceSpecific: "Wireguard2": adding a host route to name server 1.0.0.1. [I] Mar 15 22:25:37 ndm: Network::InterfaceFlusher: flushed PPPoE0 conntrack and route cache. [I] Mar 15 22:25:37 ndm: Network::InternetChecker: Internet access lost (status: 0x0000). [I] Mar 15 22:25:37 ndm: Dns::Secure::DotConfigurator: "System": using "cloudflare-dns.com:853:хх.хх.хх.249,хх.хх.хх.249" as upstream. [I] Mar 15 22:25:37 https-dns-proxy: Shutting down gracefully. To force exit, send signal again. [I] Mar 15 22:25:37 ndm: Dns::Secure::DohConfigurator: "System": using "cloudflare-dns.com:443:хх.хх.хх.249,хх.хх.хх.249" as upstream.
-
Да спасибо - разобрался.
-
2 часа назад, sergeyk сказал:
можете попробовать воспользоваться новой функцией
IPv4: реализовано резервирование соединений в режиме "on-demand" [NDM-2643]*:
- interface standby enable
Включайте на обоих подключениях к провайдеру и они будут автоматически включаться попеременно.
Это как "будут автоматически включаться попеременно".
1 WAN (провод) interface GigabitEthernet0/Vlan9 standby enable 2 WAN (PPPoE) interface PPPoE "standby enable" такое не прокатит по cli, его просто нет
on-demand = по запросу. ODR - On-Demand routing
https://habr.com/ru/post/210932/
https://wiki.shibaev.info/index.php?title=On-Demand_маршрутизация
или что-то не то
-
4 часа назад, Serg54 сказал:
Self-test не могу приложить, так как тупо с 4.0.13 не могу попасть на KN-1011.
У меня схема такая: 1011 в качестве основного в mesh, к нему кабелем GIGAIII в качестве ретранслятора и Buddy 5S по воздуху. На гигу и бадди я накатил 4.0.13, на 1011 стоит 3.09. Как только я накатываю на него 4.0.13, то пропадает доступ к вэбу у 1011, а бадди вообще отваливается от сети, гига остается доступна.
1011 в качестве основного в mesh, к нему кабелем GIGAIII в качестве ретранслятора и Buddy 5S по воздуху.
Настройки на устройствах IP какие - помним что в качестве доп.ТД используется IP 192.168.1.3 на первоначальном этапе (т.е. где то на этапе инициализации ТД при загрузки KN1011, только меняя свою сеть вариант ниже вы сможете получить какой то результат).
так как тупо с 4.0.13 не могу попасть на KN-1011
Отключите от него всех клиентов и на проводе и на Wifi - оставьте его одного на некоторое время, так же отключить и GIGAIII/Buddy 5S далее :
- проверить доступ из интернета по KeenDNS
- проверить доступ клиентом wifi или LAN клиентом
-
35 минут назад, Onarion сказал:
У меня KN-1011 в роли ретранслятора, GIGA III как основной. После обновления на 13 альфу обеих устройств на 1011 перестал загружаться веб интерфейс по KeenDNS, по IP интерфейс открывается. После того как по IP зайдешь, то и по KeenDNS становится доступен, но dashboard через KeenDNS грузится намного медленнее чем при доступе по IP или чем на GIGA III.
Инет---Keenetic1[LAN]---[LAN]KN1011
KN1011 (режим основной) но WAN октлючен - без проблем обновился на 4.0.13. WEB работает исправно, доступ по xxxxx.keenetic.pro со смартфона без проблем на KN1011.
SSTP проверить неcмог так как не настроен на клиенте, но WebDav настроен и даже как то удивил для смартфона подключенного по мобильной (Total Commander + plugin WebDav)- первое чтение с HDD (500МБ и потом по мелочи два раза) подключенного к KN1011 а потом запись на него того что прочитал 500МБ.
Как то странно видеть такие скорости.
Скрытый текст -
2 часа назад, Serg54 сказал:
Версия ОС 4.0 Alpha 13
Buddu 5S вообще потерялся из сети, KN-1011 недоступен вэб-интерфейс.
Только что обновил и контроллер и B5S (c 4.10) на 4.0.13 проблем не возникло
Скрытый текст -
1 час назад, snark сказал:
Расписание, имхо не причем, выключив в "основном" сегменте 2.4, наблюдаю массовые отвалы устройств в доп сегменте 2.4.
Считал что выключить интерфейс wifi (WifiMaster0/AccessPoint0) то это не значит выключить радио 2.4 (WifiMaster0)
interface WifiMaster0 ... up interface WifiMaster0/AccessPoint0 ... ssid Имя1 up interface WifiMaster0/AccessPoint1 ... ssid Имя2 up
-
4.0.х не понятно чуток, возможны ли пояснения для того чтоб понять кто виноват клиент или роутер.
Есть выделенный сегмент для умного дома 2.4 и настроено расписание на 2.4 (на основной интерфейс, хотя тут нет понятия основной или не основной)
Скрытый текстschedule schedule0
description 24work
action start 0 9 *
action stop 0 21 *
interface WifiMaster0/AccessPoint0
ssid KN
schedule schedule0interface WifiMaster0/AccessPoint1
ssid Smart
up[I] Feb 23 20:55:33 ndhcpc: Core::Syslog: last message repeated 2 times.
[I] Feb 23 21:00:00 kernel: br0: port 2(ra0) entered disabled state
[I] Feb 23 21:00:00 ndm: Network::Interface::Base: "WifiMaster0/AccessPoint0": "schedule" changed "conf" layer state "running" to "pending".
[I] Feb 23 21:00:02 wind: version 1.0.3 started on br0.
...[I] Feb 24 09:00:00 kernel: br0: port 2(ra0) entered blocking state
[I] Feb 24 09:00:00 ndm: Network::Interface::Base: "WifiMaster0/AccessPoint0": "schedule" changed "conf" layer state "pending" to "running".
[I] Feb 24 09:00:00 kernel: br0: port 2(ra0) entered listening state
[I] Feb 24 09:00:02 wind: version 1.0.3 started on br0.
[I] Feb 24 09:00:03 kernel: br0: port 2(ra0) entered learning state
[I] Feb 24 09:00:06 kernel: br0: port 2(ra0) entered forwarding state
[I] Feb 24 09:00:06 kernel: br0: topology change detected, propagating
из данных настроек видно что "WifiMaster0/AccessPoint0" отключается и включается по расписанию, "WifiMaster0/AccessPoint1" должен работать постоянно как бы и работает об этом говорит WEB (системный монитор и наличие кол-ва клиентов на "WifiMaster0/AccessPoint1"). В реале же данные клиенты умного дома не доступны.
Например в период времени когда "WifiMaster0/AccessPoint0" выключен например 08:00 утра достучаться до клиентов "WifiMaster0/AccessPoint1" не возможно (включение/выключение интерфейса любого 2.4 не помогает, перезапуск роутера так же) хотя повторюсь клиенты по системному монитору подключены, но ping на них с самого роутера не идет, страница список устройств раздел отправлено/принято стоят колом 0. Можно было бы понять например нет выхода в интернет на них, но тут локальный ping с роутера на них.
Исправляю расписание например на 06:00 для "WifiMaster0/AccessPoint0" (текущее время 08-00) и в итоге имею все в рабочем состояние все клиенты "WifiMaster0/AccessPoint1" доступны сразу же, так же как и ping.
Вопрос - кто виноват роутер или клиент :
- если клиенты то тогда придется поменять настройку на роутер подстроив его под данных клиентов (перекидывать клиентов 2.4 и убирать такую настройку расписания) или убрать расписание и не париться
- или роутер, а именно как отключение "WifiMaster0/AccessPoint0" влияет на "WifiMaster0/AccessPoint1"
Возможно ли описание схемы работы schedule0 для данного случая.
-
2 часа назад, Romanvs777 сказал:
Добрый день. Подскажите, если расширить локальную сеть вторым роутером, на него и на его клиентов будут распространяться политики с главного роутера: квас, VPN, adguard dns?
Если провод и в lan порт то это обычный клиент, т.е. на основном роутере создаете профиль и помещаете в него этого клиента (роутер) присвоив ему имя (за регистрировать его на основном) По мимо этого вы на данном роутере (именно в режиме роутера) можете например поднимать любой vpn канал, выходом его будет default маршрут (или он же через lan на основной роутер). На этом же роутере можете поднять например AdGuardHome тогда для клиентов нужно указывать в качестве dns сервера именно его и шлюзом. Для направления клиентов через него достаточно чтоб клиент получил ip шлюза/dns именно его а не основного роутера для этого например можно использовать dhcp запущенного на нем, но лучше всех клиентов зарег. мас/ip на обоих роутерах, можно повесить на его 2.4 и только на него например клиентгв умного дома, т.е вариантов использования данного второго роутера очень много и этот вариант более функционален. Не кто не мешает создать wifi сеть для бесшовного роуминга настройки wifi придется настраивать один в один на обоих одинаковыми.
-
В системе есть расписание на оба Wifi и на LED в итоге после перезапуска
Скрытый текстschedule schedule0 description 24work action start 0 9 * action stop 0 21 * ! schedule schedule1 description 50work action stop 0 0 * action start 0 7 * ! schedule LED action stop 3 0 * action start 59 6 * ! [I] Mar 8 12:31:25 ndm: Core::Peripheral::Manager: set LED power schedule "LED" (not ready). [I] Mar 8 12:31:25 ndm: Core::Peripheral::Manager: set LED shutdown mode to "back". [I] Mar 8 12:31:25 ndm: Core::Peripheral::Manager: "WLAN/click" handler set. [I] Mar 8 12:31:25 ndm: Core::Peripheral::Manager: "WLAN/double-click" handler set. [I] Mar 8 12:31:25 ndm: Core::Peripheral::Manager: "WLAN/hold" handler set. [I] Mar 8 12:31:25 ndm: Core::Peripheral::Manager: "FN1/double-click" handler set. [I] Mar 8 12:31:25 ndm: Core::Peripheral::Manager: "FN2/double-click" handler set. [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: created schedule "schedule0". [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: updated description of "schedule0". [C] Mar 8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:25 ndm: Thread: "Main" (510) backtrace: [C] Mar 8 12:31:25 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 [C] Mar 8 12:31:25 ndm: Thread: Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::LoadFile_(CString const&)+0x564 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Load()+0x1ac [C] Mar 8 12:31:25 ndm: Thread: Core::Server::Run()+0x20 [C] Mar 8 12:31:25 ndm: Thread: Core::Main::Run()+0x494 [C] Mar 8 12:31:25 ndm: Thread: main()+0x28 [C] Mar 8 12:31:25 ndm: Thread: libc_start_main_stage2()+0x38 [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule0". [C] Mar 8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:25 ndm: Thread: "Main" (510) backtrace: [C] Mar 8 12:31:25 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 [C] Mar 8 12:31:25 ndm: Thread: Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::LoadFile_(CString const&)+0x564 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Load()+0x1ac [C] Mar 8 12:31:25 ndm: Thread: Core::Server::Run()+0x20 [C] Mar 8 12:31:25 ndm: Thread: Core::Main::Run()+0x494 [C] Mar 8 12:31:25 ndm: Thread: main()+0x28 [C] Mar 8 12:31:25 ndm: Thread: libc_start_main_stage2()+0x38 [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule0". [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: created schedule "schedule1". [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: updated description of "schedule1". [C] Mar 8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:25 ndm: Thread: "Main" (510) backtrace: [C] Mar 8 12:31:25 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 [C] Mar 8 12:31:25 ndm: Thread: Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::LoadFile_(CString const&)+0x564 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Load()+0x1ac [C] Mar 8 12:31:25 ndm: Thread: Core::Server::Run()+0x20 [C] Mar 8 12:31:25 ndm: Thread: Core::Main::Run()+0x494 [C] Mar 8 12:31:25 ndm: Thread: main()+0x28 [C] Mar 8 12:31:25 ndm: Thread: libc_start_main_stage2()+0x38 [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule1". [C] Mar 8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:25 ndm: Thread: "Main" (510) backtrace: [C] Mar 8 12:31:25 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 [C] Mar 8 12:31:25 ndm: Thread: Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::LoadFile_(CString const&)+0x564 [C] Mar 8 12:31:25 ndm: Thread: Core::Configurator::Load()+0x1ac [C] Mar 8 12:31:25 ndm: Thread: Core::Server::Run()+0x20 [C] Mar 8 12:31:25 ndm: Thread: Core::Main::Run()+0x494 [C] Mar 8 12:31:25 ndm: Thread: main()+0x28 [C] Mar 8 12:31:25 ndm: Thread: libc_start_main_stage2()+0x38 [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule1". [I] Mar 8 12:31:25 ndm: Core::Schedule::Manager: created schedule "LED". [C] Mar 8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:25 ndm: Thread: "Main" (510) backtrace: [C] Mar 8 12:31:25 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:25 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c ... [I] Mar 8 12:31:48 ndm: Http::Manager: enabled NDMP passthrough. [I] Mar 8 12:31:48 ndm: Ntce::Database: limiting dataset count to 8510. [I] Mar 8 12:31:48 ndm: Network::Interface::Mtk::Ppe: WHNAT is supported. [C] Mar 8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [I] Mar 8 12:31:48 kernel: br0: port 4(ra4.1) entered learning state [C] Mar 8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 12:31:48 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c [C] Mar 8 12:31:48 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 12:31:48 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:31:48 ndm: Thread: start()+0x8c [C] Mar 8 12:31:48 ndm: Thread: __clone()+0x30 [C] Mar 8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 12:31:48 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c [C] Mar 8 12:31:48 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 12:31:48 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:31:48 ndm: Thread: start()+0x8c [C] Mar 8 12:31:48 ndm: Thread: __clone()+0x30 [C] Mar 8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 12:31:48 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c [C] Mar 8 12:31:48 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 12:31:48 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:31:48 ndm: Thread: start()+0x8c [C] Mar 8 12:31:48 ndm: Thread: __clone()+0x30 ... [C] Mar 8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 12:31:48 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 12:31:48 ndm: Thread: Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c [C] Mar 8 12:31:48 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 12:31:48 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:31:48 ndm: Thread: start()+0x8c [C] Mar 8 12:31:48 ndm: Thread: __clone()+0x30 [I] Mar 8 12:31:49 kernel: br0: port 1(eth2.1) entered blocking state [I] Mar 8 12:31:49 kernel: br0: port 1(eth2.1) entered listening state [I] Mar 8 12:31:49 kernel: br1: port 4(rai4.2) entered learning state [I] Mar 8 12:31:49 kernel: br1: port 3(ra4.2) entered learning state ... [I] Mar 8 12:32:04 upnp: HTTP listening on port 1900 [I] Mar 8 12:32:04 upnp: Listening for NAT-PMP/PCP traffic on port 5351 [I] Mar 8 18:11:52 ndm: Core::System::Clock: system time has been changed. [I] Mar 8 18:11:52 ndm: Ntp::Client: time synchronized with "192.36.143.130". [C] Mar 8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 18:11:52 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xa8 [C] Mar 8 18:11:52 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 18:11:52 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 18:11:52 ndm: Thread: start()+0x8c [C] Mar 8 18:11:52 ndm: Thread: __clone()+0x30 [C] Mar 8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 18:11:52 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::SynAction() const+0xb0 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xb4 [C] Mar 8 18:11:52 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 18:11:52 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 18:11:52 ndm: Thread: start()+0x8c [C] Mar 8 18:11:52 ndm: Thread: __clone()+0x30 [I] Mar 8 18:11:52 ndm: Core::Schedule::Manager: raised action "start" by "schedule0". [C] Mar 8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 18:11:52 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::UpdateAlarm_()+0x44 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xa8 [C] Mar 8 18:11:52 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 18:11:52 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 18:11:52 ndm: Thread: start()+0x8c [C] Mar 8 18:11:52 ndm: Thread: __clone()+0x30 [I] Mar 8 18:11:52 ndm: Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(70:03:9f:37:6f:5f) had associated successfully. [C] Mar 8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 18:11:52 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::SynAction() const+0xb0 [C] Mar 8 18:11:52 ndm: Thread: Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xb4 [C] Mar 8 18:11:52 ndm: Thread: Event::Sender::Run()+0x310 [C] Mar 8 18:11:52 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 18:11:52 ndm: Thread: start()+0x8c [C] Mar 8 18:11:52 ndm: Thread: __clone()+0x30 [I] Mar 8 18:11:52 ndm: Core::Schedule::Manager: raised action "start" by "schedule1". [C] Mar 8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: [C] Mar 8 18:11:52 ndm: Thread: Core::System::Clock::GetTime() const+0x30 ... [I] Mar 8 18:11:52 ndm: Core::Schedule::Manager: raised action "start" by "LED". <threads> <thread> <name>Main</name> <tid>510</tid> <lock_list_complete>yes</lock_list_complete> <locks/> <backtrace> <calls> <![CDATA[ __setjmp()+0x056 __syscall_cp_asm()+0x040 __syscall_cp_c()+0x0128 poll()+0x080 Io::Pollable::Wait(Io::Pollable**, Io::ModeT const*, pollfd*, unsigned long, int, char const*)+0x0844 Core::Server::Loop_()+0x0180 Core::Server::Run()+0x0348 Core::Main::Run()+0x01172 main()+0x040 libc_start_main_stage2()+0x056 ]]> </calls> <error/> </backtrace> <statistics> <interval>0</interval> <cpu> <now>0.000000</now> <min>0</min> <max>0</max> <avg>0</avg> <cur>0</cur> </cpu> </statistics> </thread> <thread> <name>Syslog</name> <tid>511</tid> <lock_list_complete>yes</lock_list_complete> <locks/> <backtrace> <calls> <![CDATA[ __setjmp()+0x056 __syscall_cp_asm()+0x040 __syscall_cp_c()+0x0128 poll()+0x080 Core::Syslog::Run()+0x0208 Thread::StartRoutine_(void*)+0x0720 start()+0x0140 __clone()+0x048 ]]> </calls> <error/> </backtrace> <statistics> <interval>30</interval> <cpu> <now>86.736512</now> <min>0</min> <max>0</max> <avg>0</avg> <cur>0</cur> </cpu> </statistics> </thread> <thread> <name>Event sender</name> <tid>778</tid> <lock_list_complete>yes</lock_list_complete> <locks/> <backtrace> <calls> <![CDATA[ __setjmp()+0x056 __syscall_cp_asm()+0x036 __syscall_cp_c()+0x0128 __timedwait_cp()+0x0216 pthread_cond_timedwait()+0x0224 Condition::Wait(long) const+0x0468 Event::Sender::Run()+0x01236 Thread::StartRoutine_(void*)+0x0720 start()+0x0140 __clone()+0x048 ]]> </calls> <error/> </backtrace> <statistics> <interval>30</interval> <cpu> <now>86.736523</now> <min>0</min> <max>11</max> <avg>0</avg> <cur>0</cur> </cpu> </statistics> </thread> <thread> <name>Peripheral manager</name> <tid>780</tid> <lock_list_complete>yes</lock_list_complete> <locks/> <backtrace> <calls> <![CDATA[ __setjmp()+0x056 __syscall_cp_asm()+0x040 __syscall_cp_c()+0x0128 clock_nanosleep()+0x060 nanosleep()+0x028 Sleep(Time::Span const&)+0x0224 Core::Peripheral::Manager::Run()+0x0860 Thread::StartRoutine_(void*)+0x0720 start()+0x0140 __clone()+0x048 ]]> </calls> <error/> </backtrace> <statistics> <interval>30</interval> <cpu> <now>86.736528</now> <min>0</min> <max>0</max> <avg>0</avg> <cur>0</cur> </cpu> </statistics> </thread>
-
4.0.12
И не только системный монитор, как то весь WEB "тупит" при переходе между разделами, потом в них открывает по быстрее, но потом при смене раздела опять "тупит" (так по всем разделам).
В логе куча всего
Скрытый текстKN2710 [C] Mar 8 12:16:26 ndm: Thread: __clone()+0x30 [C] Mar 8 12:16:26 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:16:26 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: [C] Mar 8 12:16:26 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:16:26 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:16:26 ndm: Thread: Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c [C] Mar 8 12:16:26 ndm: Thread: Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 [C] Mar 8 12:16:26 ndm: Thread: Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 [C] Mar 8 12:16:26 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:16:26 ndm: Thread: Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 [C] Mar 8 12:16:26 ndm: Thread: Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 [C] Mar 8 12:16:26 ndm: Thread: Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 [C] Mar 8 12:16:26 ndm: Thread: Core::Scgi::ThreadPool::Task_::Run()+0x144 [C] Mar 8 12:16:26 ndm: Thread: Task::Thread::Run_()+0x314 [C] Mar 8 12:16:28 ndm: Thread: Task::Thread::Run()+0x18 [C] Mar 8 12:16:28 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:16:28 ndm: Thread: start()+0x8c [C] Mar 8 12:16:28 ndm: Thread: __clone()+0x30 [C] Mar 8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: [C] Mar 8 12:16:28 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:16:28 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:16:28 ndm: Thread: Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c [C] Mar 8 12:16:28 ndm: Thread: Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 [C] Mar 8 12:16:28 ndm: Thread: Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 [C] Mar 8 12:16:28 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:16:28 ndm: Thread: Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 [C] Mar 8 12:16:28 ndm: Thread: Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 [C] Mar 8 12:16:28 ndm: Thread: Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 [C] Mar 8 12:16:28 ndm: Thread: Core::Scgi::ThreadPool::Task_::Run()+0x144 [C] Mar 8 12:16:28 ndm: Thread: Task::Thread::Run_()+0x314 [C] Mar 8 12:16:28 ndm: Thread: Task::Thread::Run()+0x18 [C] Mar 8 12:16:28 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:16:28 ndm: Thread: start()+0x8c [C] Mar 8 12:16:28 ndm: Thread: __clone()+0x30 [C] Mar 8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: [C] Mar 8 12:16:28 ndm: Thread: Core::System::Clock::GetTime() const+0x30 ... [C] Mar 8 12:16:50 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:16:50 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: [C] Mar 8 12:16:50 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:16:50 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:16:50 ndm: Thread: Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c [C] Mar 8 12:16:50 ndm: Thread: Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 [C] Mar 8 12:16:50 ndm: Thread: Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 [C] Mar 8 12:16:50 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:16:50 ndm: Thread: Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 [C] Mar 8 12:16:50 ndm: Thread: Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 [C] Mar 8 12:16:50 ndm: Thread: Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 [C] Mar 8 12:16:50 ndm: Thread: Core::Scgi::ThreadPool::Task_::Run()+0x144 [C] Mar 8 12:16:50 ndm: Thread: Task::Thread::Run_()+0x314 [C] Mar 8 12:16:51 ndm: Thread: Task::Thread::Run()+0x18 [C] Mar 8 12:16:51 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:16:51 ndm: Thread: start()+0x8c [C] Mar 8 12:16:51 ndm: Thread: __clone()+0x30 [C] Mar 8 12:16:51 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). [C] Mar 8 12:16:51 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: [C] Mar 8 12:16:51 ndm: Thread: Core::System::Clock::GetTime() const+0x30 [C] Mar 8 12:16:51 ndm: Thread: Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c [C] Mar 8 12:16:51 ndm: Thread: Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c [C] Mar 8 12:16:51 ndm: Thread: Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 [C] Mar 8 12:16:51 ndm: Thread: Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 [C] Mar 8 12:16:51 ndm: Thread: Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 [C] Mar 8 12:16:51 ndm: Thread: Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 [C] Mar 8 12:16:51 ndm: Thread: Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 [C] Mar 8 12:16:51 ndm: Thread: Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 [C] Mar 8 12:16:51 ndm: Thread: Core::Scgi::ThreadPool::Task_::Run()+0x144 [C] Mar 8 12:16:51 ndm: Thread: Task::Thread::Run_()+0x314 [C] Mar 8 12:16:51 ndm: Thread: Task::Thread::Run()+0x18 [C] Mar 8 12:16:51 ndm: Thread: Thread::StartRoutine_(void*)+0x2d0 [C] Mar 8 12:16:51 ndm: Thread: start()+0x8c [C] Mar 8 12:16:51 ndm: Thread: __clone()+0x30 [E] Mar 8 12:16:51 ndm: Command::Base: argument parse error.
Использую ночную тему.
-
1 час назад, averias сказал:
Приветствую!
Выставил ограничения до 24 часов. Проработало сутки и опять зависло.
Я уже и не знаю, что делать дальше.У вас flash или HDD?
Покажите загрузку - selftest поиск по Adguard там блок "process" а так же настройку бы увидеть вашу в которой
ЦитатаА вот основные настройки галка только "Блокировать домены с использованием фильтров и файлов хостов".
4.0.14 постоянное сообщение changed "link" layer state "pending" to "running" и ошибка в таблице марщрутизации профиля
in Тестирование Dev-сборок
Posted · Edited by vasek00
Ну вот и отловил данный - баг или не баг.
1. Убираю клиента из профиля Policy0 (Wireguard0) и помещаю его в профиль Policy2 (Wireguard3), т.е. КЛИЕНТА В ПРОФИЛЕ Policy0 нет.
2. Дожидаюсь данной описанной выше ошибки и в итоге имею такое поведение в таблице маршрутизация для данного Policy0
Мар 26 10:02:37 ndm Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". Мар 26 10:02:37 ndm Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. Мар 26 10:02:37 ndm Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. Мар 26 10:02:37 ndm Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. Мар 26 10:02:37 ndm Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. Мар 26 10:02:37 ndm Dns::Manager: name server 192.168.130.101 added, domain (default). Мар 26 10:02:37 ndm Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. Мар 26 10:02:37 ndm Core::Syslog: last message repeated 3 times.
смотрим что в реале
(Профиль Policy0) ~ # ip ro show table 42 default dev nwg0 scope link ... 192.168.130.101 dev nwg0 scope link ... ~ # ip ro show table 42 10.10.10.0/24 dev eth2.9 scope link ... **** 192.168.130.101 dev nwg0 scope link *** ее тут нет ... ~ # date Sun Mar 26 07:02:15 UTC 2023 *** тут нужно +3 часа ~ # ip ro show table 42 10.10.10.0/24 dev eth2.9 scope link ... ~ # date Sun Mar 26 07:02:25 UTC 2023 ~ # ip ro show table 42 10.10.10.0/24 dev eth2.9 scope link ... ~ # date Sun Mar 26 07:02:33 UTC 2023 ~ # ip ro show table 42 10.10.10.0/24 dev eth2.9 scope link ... ~ # ip ro show table 42 default dev nwg0 scope link 10.10.10.0/24 dev eth2.9 scope link ... 192.168.130.101 dev nwg0 scope link *** появился ...