Jump to content

vasek00

Forum Members
  • Posts

    4,400
  • Joined

  • Last visited

  • Days Won

    75

Posts posted by vasek00

  1. Ну вот и отловил данный - баг или не баг.

    1. Убираю клиента из профиля Policy0 (Wireguard0) и помещаю его в профиль Policy2 (Wireguard3), т.е. КЛИЕНТА В ПРОФИЛЕ Policy0 нет.

    2. Дожидаюсь данной описанной выше ошибки и в итоге имею такое поведение в таблице маршрутизация для данного Policy0

    Скрытый текст
    Мар 26 10:02:37 ndm Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running".
    Мар 26 10:02:37 ndm Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434.
    Мар 26 10:02:37 ndm Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0.
    Мар 26 10:02:37 ndm Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434.
    Мар 26 10:02:37 ndm Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0.
    Мар 26 10:02:37 ndm Dns::Manager: name server 192.168.130.101 added, domain (default).
    Мар 26 10:02:37 ndm Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101.
    Мар 26 10:02:37 ndm Core::Syslog: last message repeated 3 times.

    смотрим что в реале

    (Профиль Policy0)
    
    ~ # ip ro show table 42 
    default dev nwg0  scope link 
    ...
    192.168.130.101 dev nwg0  scope link 
    ...
    
    ~ # ip ro show table 42
    10.10.10.0/24 dev eth2.9  scope link 
    ...
    **** 192.168.130.101 dev nwg0  scope link *** ее тут нет
    ...
    
    ~ # date
    Sun Mar 26 07:02:15 UTC 2023 *** тут нужно +3 часа
    ~ # ip ro show table 42
    10.10.10.0/24 dev eth2.9  scope link 
    ...
    
    ~ # date
    Sun Mar 26 07:02:25 UTC 2023
    ~ # ip ro show table 42
    10.10.10.0/24 dev eth2.9  scope link 
    ...
    
    ~ # date
    Sun Mar 26 07:02:33 UTC 2023
    ~ # ip ro show table 42
    10.10.10.0/24 dev eth2.9  scope link 
    ...
    ~ # ip ro show table 42
    default dev nwg0  scope link 
    10.10.10.0/24 dev eth2.9  scope link 
    ...
    192.168.130.101 dev nwg0  scope link *** появился
    ...

     

  2. 7 часов назад, flashtr0n сказал:

    Keenetic Giga III, прошивка последняя экспериментальная.

    Подключено 3 аплинка - 4G модем Huawei E8372 (основной, проверка доступности из списка - автоматически), PPTP через Ethernet к провайдеру (резервный, проверка отключена), PPTP через Ethernet к другому провайдеру (резервный 2, проверка отключена).

    Проблема - при исчерпании баланса на 4G модеме он начинает бесконечно перезаружаться Кинетиком, в процессе перезагрузки переходя на резервный канал, а потом возвращаясь обратно на 4G, и так бесконечно. Соответственно скачет интернет на роутере, и всё отваливается, нет связи с миром. Пытался менять проверку доступности на 4G с автоматической на пинг 8.8.8.8 или другого - бесполезно.

    Как правильно настроить 3 канала, что-бы они отрабатывали последовательно и правильно, учитывая что основным является 4G? 

     

    Я бы не использовал pingcheck совсем и даже убрал бы компонент "быстрой настройки"

    2. люблю настройки через профили и помещать в них клиентов.

    3. в основном профиле убрал бы из основного канала 4G т.е. настроил бы по приоритету.
     

    - PPTP1 через Ethernet
    - PPTP2 через Ethernet
    - 4G

    По п.2. создал бы профиль и в нем разместил каналы уже так как вам надо

    - 4G
    - PPTP1 через Ethernet
    - PPTP2 через Ethernet

    Далее в него клиентов и попробовал использовать новую настройку

    Цитата

    IPv4: реализовано резервирование соединений в режиме "on-demand" [NDM-2643]*:

    • interface standby enable

     

    При создание сложный/мудреных схем подключения более одного канала или плюсом VPN лучше использовать профили чем все в основном - личное мнение.

  3. Что интересно - создал еще один профиль, так же создал в нем еще один wireguard (Proton) он один канал, клиента не помещал в него. В итоге никаких лишних записей по нему нет

    "wireguard" changed "link" layer state "pending" to "running".

    лог чистый по данному интерфейсу, в отличие от

    Скрытый текст
    [I] Mar 26 05:37:33 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". 
    [I] Mar 26 05:37:33 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 05:37:33 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 05:37:33 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    [I] Mar 26 05:38:37 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 26 05:38:37 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 26 05:38:37 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 26 05:38:37 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 26 05:38:37 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 26 05:38:37 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). 
    [I] Mar 26 05:38:37 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. 
    [I] Mar 26 05:38:37 ndm: Core::Syslog: last message repeated 3 times.
    ...
    [I] Mar 26 06:06:18 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". 
    [I] Mar 26 06:06:18 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 06:06:18 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 06:06:18 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    [I] Mar 26 06:07:16 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 26 06:07:16 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 26 06:07:16 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 26 06:07:16 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 26 06:07:16 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 26 06:07:16 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). 
    [I] Mar 26 06:07:16 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. 
    [I] Mar 26 06:07:16 ndm: Core::Syslog: last message repeated 3 times.
    [I] Mar 26 06:10:25 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". 
    [I] Mar 26 06:10:25 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 06:10:25 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 06:10:25 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    ...
    [I] Mar 26 07:29:12 ndm: Core::Syslog: last message repeated 3 times.
    [I] Mar 26 07:32:15 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". 
    [I] Mar 26 07:32:15 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 07:32:15 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 26 07:32:15 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    [I] Mar 26 07:33:19 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 26 07:33:19 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 26 07:33:19 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 26 07:33:19 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 26 07:33:19 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 26 07:33:19 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). 
    [I] Mar 26 07:33:19 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. 
    [I] Mar 26 07:33:19 ndm: Core::Syslog: last message repeated 3 times.
    ...
    ip policy Policy0
        description Cloud
        permit global Wireguard0
        no permit global Wireguard4
        no permit global PPPoE0
        no permit global GigabitEthernet0/Vlan2
    
    ip policy Policy2
        description A
        permit global Wireguard4
        no permit global GigabitEthernet0/Vlan9
        no permit global Wireguard0
        no permit global PPPoE0
    
    ip hotspot
        ...
        host КЛИЕНТ1:e2 permit
        host КЛИЕНТ1:e2 policy Policy0
        host КЛИЕНТ1:e2 priority 6
    

     

    Похоже, после появления/включения клиента в данном профиле где Wireguard0 один и он default данные записи пропадают.

    В итоге получаю = отличие двух профилей в которых Wirwguard0 - активен и есть клиент (тут важно включен он или нет) и Wireguard4 - активен но нет клиентов.

  4. Да но тут еще

    так как в нем только один активный интерфейс Wireguard0 и для него может быть "adding default route via Wireguard0/removing default route via Wireguard0"

    добавить и удалить default -> как сказал выше данный интерфейс у меня в созданном профиле.

    [I] Mar 25 11:00:18 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 11:00:18 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 11:00:18 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0.

    и тут не 3ceк

  5. 4.0.14 настроенный wireguard клиент для выхода в интернет (в нем один cloudflare warp). В настройках прописан DNS 192.168.130.101 сам роутер AdGuardHome, весь лог забит сообщениями, "Проверка активности" стоит 240 стояло 120/30 в данном подключение думаю оно по барабану какое, "ip global 65434".  Есть созданный профиль с одним только данным подключением.

    Скрытый текст

     

    [I] Mar 25 10:57:15 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 25 10:57:15 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 10:57:15 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 25 10:57:15 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 10:57:15 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 25 10:57:15 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). 
    [I] Mar 25 10:57:15 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. 
    [I] Mar 25 10:57:15 ndm: Core::Syslog: last message repeated 3 times.
    [I] Mar 25 11:00:18 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". 
    [I] Mar 25 11:00:18 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 11:00:18 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 11:00:18 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 11:01:21 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 25 11:01:21 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). 
    [I] Mar 25 11:01:21 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. 
    [I] Mar 25 11:01:21 ndm: Core::Syslog: last message repeated 3 times.
    [I] Mar 25 11:04:25 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". 
    [I] Mar 25 11:04:25 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 11:04:25 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 11:04:25 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    [I] Mar 25 11:05:28 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 25 11:05:28 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 11:05:28 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 25 11:05:28 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 11:05:28 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. 
    ...
    [I] Mar 25 08:17:45 ndm: Core::Syslog: last message repeated 3 times.
    [I] Mar 25 08:20:55 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "running" to "pending". 
    [I] Mar 25 08:20:55 ndm: Network::Interface::Ip: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 08:20:55 ndm: Network::Interface::Ip6: "Wireguard0": removing default route via Wireguard0. 
    [I] Mar 25 08:20:55 ndm: Dns::Manager: name server 192.168.130.101, domain (default) deleted. 
    [I] Mar 25 08:21:52 ndm: Network::Interface::Base: "Wireguard0": "wireguard" changed "link" layer state "pending" to "running". 
    [I] Mar 25 08:21:52 ndm: Network::Interface::Ip: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 08:21:52 ndm: Network::Interface::Ip: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 25 08:21:52 ndm: Network::Interface::Ip6: "Wireguard0": interface "Wireguard0" is global, priority 65434. 
    [I] Mar 25 08:21:52 ndm: Network::Interface::Ip6: "Wireguard0": adding default route via Wireguard0. 
    [I] Mar 25 08:21:52 ndm: Dns::Manager: name server 192.168.130.101 added, domain (default). 
    [I] Mar 25 08:21:52 ndm: Dns::InterfaceSpecific: "Wireguard0": adding a host route to name server 192.168.130.101. 
    [I] Mar 25 08:21:52 ndm: Core::Syslog: last message repeated 3 times.
    [I] Mar 25 08:24:21 ndm: Netfilter::Util::Conntrack: flushed 99 IPv4 connections. 

     

    Вопрос это просто лишняя информация в логе или что-то с созданным профилем происходит, так как в нем только один активный интерфейс Wireguard0 и для него может быть "adding default route via Wireguard0/removing default route via Wireguard0"

    И для справки IP6, хотя не где не чего для него не настраивал.

     

  6. 6 часов назад, 1qqq сказал:

    Приветствую. Есть задача, чтобы устройство было и в одной и в другой политике в приоритетах подключений. Или же так при регистрации устройства в списке устройств была бы возможность прописать его в разные политики доступа. Для чего. Есть отдельно поднятая сеть на роутере через WireGuard туннель. Но если устройство зарегистрировано с политиками по умолчанию, оно уже не выходит в сеть через туннель. Приходится не регистрировать устройство. Прошу рассмотреть возможность прописать устройство в разные политики доступа. 

    Каждая политика имеет :

    1. свою таблицу маршрутизации

    2. свою маркировку пакетов

    В каждой таблице маршрутизации есть свой default маршрут который выбран исходя из приоритета в данной политики каналов.

    Вопрос по маркировке для двух политик одному клиенту - не возможно.

    По маршрутизации тут еще можно по шаманить - клиент в политике А, для него добавляется стат.маршрут :

    1. для сети на нужный интерфейс

    2. для него в новую таблицу маршрутизации

     

    Вот страницу маршрутизации WEB хорошо бы расширить функционал например для клиентов которые подключились к роутеру по VPN и хотят выйти в интернет не через основной профиль а через другой - на данном форуме уже много таких пожеланий.

     

  7. 4 часа назад, Kostian90 сказал:

    Как заставить ходить траффику между wireguard сервером и openvpn клиентом ? 

    Если маршрутами.

    Вариант заворачивал клиента SSTP/wireguard (сервер на роутере) на VPN канал wireguard (на роутере) -> банальным стат.маршрутом, так как клиент который подключается имеет IP адрес.

    interface Wireguard0 **** выход в интернет
        description Cloud-warp
        security-level public
    ...
    
    interface Wireguard3 *** сервер для клиентов
        description KN-WG
        security-level public ?????
        ip address 10.16.130.101 255.255.255.0
    ...
        endpoint 10.16.130.6:хххх
        keepalive-interval 30
        allow-ips 10.16.130.6 255.255.255.255
        allow-ips 192.168.130.0 255.255.255.0
        allow-ips 0.0.0.0 0.0.0.0
    
    sstp-server
        interface Home
        pool-range 172.16.1.101 2
        multi-login
        static-ip User***** 172.16.1.29
        lcp echo 30 3
    
    ip policy Policy0 **** профиль cloudflare warp с WG
        description Cloud
        permit global Wireguard0
    
    
    ip nat Wireguard3
    ip nat sstp

    В итоге клиент WG имеет ip-10.16.130.6 а при SSTP имеет ip-172.16.1.29. По умолчанию данный клиент использует выход в интернет через основной профиль в данном случае просто провайдера. Есть созданный профиль Policy0 (cloudfalre warp) в котором только данный канал Wireguard0 и автоматом для него создана table 42 (прошивкой роутера). Прописать стат маршрут для данного клиента, завернув его с интернет

    ip rule add from 10.16.130.6 table 42
    
    где table 42 это таблица маршрутизации для cloudfalre warp или Policy0

    Для SSTP клиента заменить на его ip. В итоге у клиента меняется выход в интернет или провайдер или поднятый VPN wireguard или SSTP - роли не играет эфто все сетевые интерфейсы.

    Интернет----------[WAN-pppoe]Keenetic[WG-сервер]--Интернет--[клиент-WG]Kлиент
    Интернет------[WG-cloud-warp]+
    
    Интернет----------[WAN-pppoe]Keenetic[SSTP-сервер]--Интернет--[клиент-SSTP]Kлиент
    Интернет------[WG-cloud-warp]+
    
    
    КлиентА--Keenetic1[WG-сервер]--Интернет--[клиент-WG]Keenetic2[WG-сервер]--Интернет--[клиент-WG]KлиентВ

    Ремарка "странности" - сейчас 4.0.14 проверил "security-level public" для WG3 (сервер wireguard на роутере для клиентов) именно public должен стоять, ранее использовал "private" в данном варианте схемы. Это проверено именно "public" работает.

    При добавление еще одного WG между двумя роутерами клиент про который выше речь без проблем выходит в удаленную лок.сеть дургого Keenetic через канал WG. Тут только стат маршрут для связи двух сетей.

     

     

    Единственная проблема это прописать маршрут средствами WEB или cli не возможно, с установленным Entware возможно.

     

  8. 2 часа назад, Пихал Метрович сказал:

    Не работатет скрипт, правила iptables просто тупо не создаются после перезагрузки

    А почему должны создаваться, используйте скрипт в /opt/etc/init.d для их cозданияю Далее после создания они будут проверяться по вашему скрипту в ndm.

  9. 3 часа назад, Casavatar сказал:

    Я как понял mesh соединяется исключительно по 5ггц и ставить репитер нужно в зоне хорошего приема 5ггц или там какой-то другой канал?

    Рассмотрите возможность установки при уровени RSSI в данной точке в районе -60 ... -65.

    KN3010 wifi система 234-351Мбит линк на KN3310 по 5GHz это при "show mws associations" показывает RSSI = -76 -77 прием rxtare - 175 и передача txrate - 351

    Скрытый текст
                "txrate": 351,
                "rxrate": 175,
                "uptime": 3974,
                "txbytes": 31187405,
                "rxbytes": 391951376,
                "ht": 80,
                "mode": "11ac",
                "gi": 800,
                "rssi": -77,
                "mcs": 4,
                "txss": 2,
    
                "txrate": 234,
                "rxrate": 175,
                "uptime": 4035,
                "txbytes": 31411977,
                "rxbytes": 392090632,
                "ht": 80,
                "mode": "11ac",
                "gi": 800,
                "rssi": -77,
                "mcs": 3,
                "txss": 2,

     

    Все будет зависеть от ваших хотелок на клиентах 5GHz и что вы хотите получить от такого включения.

  10. 2 часа назад, demonidze сказал:

    Вставляешь все ip в список и все будет работать 

    Есть вариант проще без данного списка пусть работает ipset

    1. то что написано выше ipset для netflix (я использовал AdGuardHome)

    2. есть Wireguard на Proton WG -> созданный профиль -> в нем только активен данный канал

    3. клиент в основном профиле, нужно данному клиенту выход на данный сервис netflix, как раз через данный профиль

    Скрытый текст
    iptables -t mangle -I _NDM_HOTSPOT_PRERT -s 192.168.1.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02

    тут 192.168.1.2 сам клиент

    --set-mark 0xffffd02 - профиль с маркировкой пакетов (узнается web-cli команда "show ip policy")

    На одной строчке работает - но нужен контроль через netfilter.d но иногда нужно еще две строчки

    iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j RETURN
    iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j CONNMARK --save-mark 
    iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02
    
    с ключем -I имеенно в такой последовательности

     

    4. как итог данный клиент имеет выход на данный сервис находясь в основном профиле, а сервис идет через созданный профиль.

     

    Можно и еще один вариант (пробовал ранее) при наличие данного клиента 192.168.1.2 в каком либо своем профиле ААААА в котором активен канал А1. В другом профиле BBBBB активен канал B1. Нужно часть сервисов для данного клиента завернуть на этот профиль BBBBB. Тут уже нужно наличие клиента в данном профиле BBBBB (завел в него ТВ).

    Скрытый текст

    профиль ААААА и клиент 192.168.1.2 в нем 0xffffd00 с активным каналом А1

    профиль BBBBB и клиент ТВ в нем 0xffffd02 с активным каналом B2     

    iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j RETURN
    iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -j CONNMARK --save-mark 
    iptables -t mangle -I _NDM_HOTSPOT_PRERT -p tcp -i br0 -s 192.168.1.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02

    и доступ есть клиента 192.168.1.2 к сервисам netflix через профиль BBBBB.

    Опять же нужен контроль через netfilter.d

    Ремарка - пока это работает, только что проверил на 4.0.13

  11. 14 минуты назад, Romanvs777 сказал:

    netflix хочет регистрировать. Подскажите какие адреса нужно добавить в список. Спасибо.

    Могу предложить список

      ipset:
      - flxvpn.net,netflix.ca,netflix.com,netflix.com.au,netflixdnstest10.com,netflixdnstest1.com,netflixdnstest2.com,netflixdnstest3.com,netflixdnstest4.com,netflixdnstest5.com,netflixdnstest6.com,netflixdnstest7.com,netflixdnstest8.com,netflixdnstest9.com,netflixinvestor.com,netflix.net,netflixstudios.com,netflixtechblog.com,nflxext.com,nflximg.com,nflximg.net,nflxso.net,nflxvideo.net/netflix

    и как в итоге после отлова, возможно еще не все

    Скрытый текст
    # ipset list netflix
    Name: netflix
    Type: hash:ip
    Revision: 4
    Header: family inet hashsize 4096 maxelem 65536
    Size in memory: 1104
    References: 0
    Members:
    45.57.91.1
    162.159.130.11
    104.18.117.155
    104.18.118.155
    104.18.119.155
    45.57.90.1
    54.194.82.94
    54.155.246.232
    198.38.114.170
    52.31.48.193
    18.200.8.190
    162.159.129.11
    104.18.116.155
    79.125.89.59
    34.252.74.1
    104.18.120.155
    99.81.174.244
    198.38.114.131
    104.79.89.135
    54.73.148.110
    46.137.171.215

     

     

    • Thanks 1
  12. Для того чтоб точно указать что у вас и как нужно вникать в ваши настройки. У вас и в моем случае PPPoE и описал выше на PPPoE происходит перезапуск сервиса со всеми последствиями для каналов которые на нем подняты, так же проверка доступности интернета нужен запрос к DNS -> всякие настройки его от провайдера/в фильтрах и т.д.

  13. Не замечено Peak 4.0.13 два канала 100Мбит и два WG.

    Скрытый текст

     

    -3.thumb.jpg.a91a7755eaef986aaae06d5d12fc28e3.jpg

    -4.thumb.jpg.5ff7036d840d56bf4a91651374550ca7.jpg

     

     

    Единственное что это один раз "штормик" до 200Мбит пробежал.

    При смене канала (который имеет выход в Интернет) происходит смена default маршрута на канал который выше в приоритете. Есть странность в алгоритме на канале PPPoE (т.е. его остановка и перезапуск) но в конечном итоге все ОК, но еще кое что в моем случае AdGuardHome запущенный на роутере и никаких доп.настроек DNS нет.

    Скрытый текст
    [I] Mar 16 07:31:34 pppd[887]: Modem hangup 
    [I] Mar 16 07:31:34 pppd[887]: Connect time 891.3 minutes. 
    [I] Mar 16 07:31:34 pppd[887]: Sent 132189625 bytes, received 2943993017 bytes. 
    [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "PPPoE0": order is 1. 
    [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "GigabitEthernet0/Vlan9": order is 2. 
    [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "Wireguard0": order is 3. 
    [I] Mar 16 07:31:34 pppd[887]: Connection terminated. 
    [I] Mar 16 07:31:34 pppd[887]: Sent PADT 
    [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "GigabitEthernet0/Vlan2": order is 4. 
    [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "Wireguard1": order is 5. 
    [I] Mar 16 07:31:34 ndm: Network::Interface::L3Base: "Wireguard3": order is 6. 
    [I] Mar 16 07:31:34 ndm: Core::System::StartupConfig: saving (http/rci). 
    [I] Mar 16 07:31:34 ndm: Network::Interface::Base: "PPPoE0": "ip" changed "ipv4" layer state "running" to "disabled". 
    [I] Mar 16 07:31:34 ndm: Network::Interface::Ip: "PPPoE0": IP address cleared. 
    [I] Mar 16 07:31:34 ndm: Network::Interface::Base: "PPPoE0": "ppp" changed "link" layer state "running" to "connecting". 
    [I] Mar 16 07:31:34 ndm: Network::InterfaceFlusher: flushed Wireguard0 conntrack and route cache. 
    [I] Mar 16 07:31:34 ndm: Network::InternetChecker: Internet access lost (status: 0x0000). 
    [I] Mar 16 07:31:34 upnp: shutting down MiniUPnPd 
    [I] Mar 16 07:31:34 ndm: Core::Session: client disconnected. 
    [I] Mar 16 07:31:34 pppd[887]: Terminating on signal 15 
    [I] Mar 16 07:31:34 pppd[887]: Exit. 
    и как следствие все висящие на нем WG
    [I] Mar 16 07:31:38 pppd[17021]: Plugin rp-pppoe.so loaded. 
    [I] Mar 16 07:31:38 ndm: Core::System::StartupConfig: configuration saved. 
    [I] Mar 16 07:31:38 pppd[17021]: pppd 2.4.4-4 started by root, uid 0 
    [I] Mar 16 07:31:38 pppd[17021]: Found unterminated session: 4656:хх:хх:хх:хх:хх:ed 
    ...
    [I] Mar 16 07:31:38 pppd[17021]: Sent PADT 
    ..
    [I] Mar 16 07:31:39 pppd[17021]: PPP session is 27297 
    [I] Mar 16 07:31:39 pppd[17021]: Using interface ppp0 
    [I] Mar 16 07:31:39 pppd[17021]: Connect: ppp0 <--> eth3 

     

     

    В вашем случае думаю фишка в настройках DNS и то что написал при смене каналов меняется и default маршрут.

    ip name-server 1.1.1.1 "" on Wireguard1
    ip name-server 1.0.0.1 "" on Wireguard1
    ip name-server 1.1.1.1 "" on Wireguard0
    ip name-server 1.0.0.1 "" on Wireguard0
    ip name-server 1.1.1.1 "" on Wireguard2
    ip name-server 1.0.0.1 "" on Wireguard2
    
    [I] Mar 15 22:25:27 ndm: Network::InternetChecker: Internet access detected. 
    [I] Mar 15 22:25:36 ndm: Network::Interface::Base: "Wireguard2": "ping-check" changed "ipv4" layer state "pending" to "running". 
    [I] Mar 15 22:25:37 ndm: Dns::InterfaceSpecific: "Wireguard2": adding a host route to name server 1.1.1.1. 
    [I] Mar 15 22:25:37 ndm: Dns::InterfaceSpecific: "Wireguard2": adding a host route to name server 1.0.0.1. 
    [I] Mar 15 22:25:37 ndm: Network::InterfaceFlusher: flushed PPPoE0 conntrack and route cache. 
    [I] Mar 15 22:25:37 ndm: Network::InternetChecker: Internet access lost (status: 0x0000). 
    [I] Mar 15 22:25:37 ndm: Dns::Secure::DotConfigurator: "System": using "cloudflare-dns.com:853:хх.хх.хх.249,хх.хх.хх.249" as upstream. 
    [I] Mar 15 22:25:37 https-dns-proxy: Shutting down gracefully. To force exit, send signal again. 
    [I] Mar 15 22:25:37 ndm: Dns::Secure::DohConfigurator: "System": using "cloudflare-dns.com:443:хх.хх.хх.249,хх.хх.хх.249" as upstream. 

     

  14. 2 часа назад, sergeyk сказал:

    можете попробовать воспользоваться новой функцией 

    IPv4: реализовано резервирование соединений в режиме "on-demand" [NDM-2643]*:

    • interface standby enable

    Включайте на обоих подключениях к провайдеру и они будут автоматически включаться попеременно.

    Это как "будут автоматически включаться попеременно".

    1 WAN (провод)
    interface GigabitEthernet0/Vlan9 standby enable
    
    2 WAN (PPPoE)
    interface PPPoE "standby enable"
    такое не прокатит по cli, его просто нет

    on-demand = по запросу. ODR - On-Demand routing

    https://habr.com/ru/post/210932/

    https://wiki.shibaev.info/index.php?title=On-Demand_маршрутизация

    или что-то не то

  15. 4 часа назад, Serg54 сказал:

    Self-test не могу приложить, так как тупо с 4.0.13 не могу попасть на KN-1011.

    У меня схема такая: 1011 в качестве основного в mesh, к нему кабелем GIGAIII в качестве ретранслятора и Buddy 5S по воздуху. На гигу и бадди я накатил 4.0.13, на 1011 стоит 3.09. Как только я накатываю на него 4.0.13, то пропадает доступ к вэбу у 1011, а бадди вообще отваливается от сети, гига остается доступна.

    1011 в качестве основного в mesh, к нему кабелем GIGAIII в качестве ретранслятора и Buddy 5S по воздуху.

    Настройки на устройствах IP какие - помним что в качестве доп.ТД используется IP 192.168.1.3 на первоначальном этапе (т.е. где то на этапе инициализации ТД при загрузки KN1011, только меняя свою сеть вариант ниже вы сможете получить какой то результат).

     

    так как тупо с 4.0.13 не могу попасть на KN-1011

    Отключите от него всех клиентов и на проводе и на Wifi - оставьте его одного на некоторое время, так же отключить и GIGAIII/Buddy 5S далее :

    - проверить доступ из интернета по KeenDNS

    - проверить доступ клиентом wifi или LAN клиентом

  16. 35 минут назад, Onarion сказал:

    У меня KN-1011 в роли ретранслятора, GIGA III как основной. После обновления на 13 альфу обеих устройств на 1011 перестал загружаться веб интерфейс по KeenDNS, по IP интерфейс открывается. После того как по IP зайдешь, то и по KeenDNS становится доступен, но dashboard через KeenDNS грузится намного медленнее чем при доступе по IP или чем на GIGA III.

    Инет---Keenetic1[LAN]---[LAN]KN1011

    KN1011 (режим основной) но WAN октлючен - без проблем обновился на 4.0.13. WEB работает исправно, доступ по xxxxx.keenetic.pro со смартфона без проблем на KN1011.

    SSTP проверить неcмог так как не настроен на клиенте, но WebDav настроен и даже как то удивил для смартфона подключенного по мобильной (Total Commander + plugin WebDav)- первое чтение с HDD (500МБ и потом по мелочи два раза) подключенного к KN1011 а потом запись на него того что прочитал 500МБ.

    Как то странно видеть такие скорости.

    Скрытый текст

    Так как он KN1011 подключен по LAN то его интерфейс имеет имя br0, sda это HDD подключенный к роутеру

    -5.thumb.jpg.19776e89731f134bf4d550a77077c4c6.jpg

     

  17. 1 час назад, snark сказал:

    Расписание, имхо не причем, выключив в "основном" сегменте 2.4, наблюдаю массовые отвалы устройств в доп сегменте 2.4. 

    Считал что выключить интерфейс wifi (WifiMaster0/AccessPoint0) то это не значит выключить радио 2.4 (WifiMaster0)

    interface WifiMaster0
    ...
    up
    
    interface WifiMaster0/AccessPoint0
    ...
        ssid Имя1
        up
    
    interface WifiMaster0/AccessPoint1
    ...
        ssid Имя2
        up
    
    

     

     

  18. 4.0.х не понятно чуток, возможны ли пояснения для того чтоб понять кто виноват клиент или роутер.

    Есть выделенный сегмент для умного дома 2.4 и настроено расписание на 2.4 (на основной интерфейс, хотя тут нет понятия основной или не основной)

    Скрытый текст

    schedule schedule0
        description 24work
        action start 0 9 *
        action stop 0 21 *
     

    interface WifiMaster0/AccessPoint0

        ssid KN
        schedule schedule0

    interface WifiMaster0/AccessPoint1

        ssid Smart
        up

    [I] Feb 23 20:55:33 ndhcpc: Core::Syslog: last message repeated 2 times.
    [I] Feb 23 21:00:00 kernel: br0: port 2(ra0) entered disabled state
    [I] Feb 23 21:00:00 ndm: Network::Interface::Base: "WifiMaster0/AccessPoint0": "schedule" changed "conf" layer state "running" to "pending". 
    [I] Feb 23 21:00:02 wind: version 1.0.3 started on br0. 
    ...

    [I] Feb 24 09:00:00 kernel: br0: port 2(ra0) entered blocking state
    [I] Feb 24 09:00:00 ndm: Network::Interface::Base: "WifiMaster0/AccessPoint0": "schedule" changed "conf" layer state "pending" to "running". 
    [I] Feb 24 09:00:00 kernel: br0: port 2(ra0) entered listening state
    [I] Feb 24 09:00:02 wind: version 1.0.3 started on br0. 
    [I] Feb 24 09:00:03 kernel: br0: port 2(ra0) entered learning state
    [I] Feb 24 09:00:06 kernel: br0: port 2(ra0) entered forwarding state
    [I] Feb 24 09:00:06 kernel: br0: topology change detected, propagating
     

    из данных настроек видно что "WifiMaster0/AccessPoint0" отключается и включается по расписанию, "WifiMaster0/AccessPoint1" должен работать постоянно как бы и работает об этом говорит WEB (системный монитор и наличие кол-ва клиентов на "WifiMaster0/AccessPoint1"). В реале же данные клиенты умного дома не доступны.

    Например в период времени когда "WifiMaster0/AccessPoint0" выключен например 08:00 утра достучаться до клиентов "WifiMaster0/AccessPoint1" не возможно (включение/выключение интерфейса любого 2.4 не помогает, перезапуск роутера так же) хотя повторюсь клиенты по системному монитору подключены, но ping на них с самого роутера не идет, страница список устройств раздел отправлено/принято стоят колом 0. Можно было бы понять например нет выхода в интернет на них, но тут локальный ping с роутера на них.

    Исправляю расписание например на 06:00 для "WifiMaster0/AccessPoint0" (текущее время 08-00) и в итоге имею все в рабочем состояние все клиенты "WifiMaster0/AccessPoint1" доступны сразу же, так же как и ping.

    Вопрос - кто виноват роутер или клиент :

    - если клиенты то тогда придется поменять настройку на роутер подстроив его под данных клиентов (перекидывать клиентов 2.4 и убирать такую настройку расписания) или убрать расписание и не париться

    - или роутер, а именно как отключение "WifiMaster0/AccessPoint0" влияет на "WifiMaster0/AccessPoint1"

    Возможно ли описание схемы работы schedule0 для данного случая.

     

     

  19. 2 часа назад, Romanvs777 сказал:

    Добрый день. Подскажите, если расширить локальную сеть вторым роутером, на него и на его клиентов будут распространяться политики с главного роутера: квас, VPN, adguard dns?  

    Если провод и в lan порт то это обычный клиент, т.е. на основном роутере создаете профиль и помещаете в него этого клиента (роутер) присвоив ему имя (за регистрировать его на основном) По мимо этого вы на данном роутере (именно в режиме роутера) можете например поднимать любой vpn канал, выходом его будет default маршрут  (или он же через lan на основной роутер). На этом же роутере можете поднять например AdGuardHome тогда для клиентов нужно указывать в качестве dns сервера именно его и шлюзом. Для направления клиентов через него достаточно чтоб клиент получил ip шлюза/dns именно его а не основного роутера для этого например можно использовать dhcp запущенного на нем, но лучше всех клиентов зарег. мас/ip на обоих роутерах, можно повесить на его 2.4 и только на него например клиентгв умного дома, т.е вариантов использования данного второго роутера очень много и этот вариант более функционален. Не кто не мешает создать wifi сеть для бесшовного роуминга настройки wifi придется настраивать один в один на обоих одинаковыми.

  20. В системе есть расписание на оба Wifi и на LED в итоге после перезапуска

    Скрытый текст

     

    schedule schedule0
        description 24work
        action start 0 9 *
        action stop 0 21 *
    !
    schedule schedule1
        description 50work
        action stop 0 0 *
        action start 0 7 *
    !
    schedule LED
        action stop 3 0 *
        action start 59 6 *
    !
    
    
    [I] Mar  8 12:31:25 ndm: Core::Peripheral::Manager: set LED power schedule "LED" (not ready). 
    [I] Mar  8 12:31:25 ndm: Core::Peripheral::Manager: set LED shutdown mode to "back". 
    [I] Mar  8 12:31:25 ndm: Core::Peripheral::Manager: "WLAN/click" handler set. 
    [I] Mar  8 12:31:25 ndm: Core::Peripheral::Manager: "WLAN/double-click" handler set. 
    [I] Mar  8 12:31:25 ndm: Core::Peripheral::Manager: "WLAN/hold" handler set. 
    [I] Mar  8 12:31:25 ndm: Core::Peripheral::Manager: "FN1/double-click" handler set. 
    [I] Mar  8 12:31:25 ndm: Core::Peripheral::Manager: "FN2/double-click" handler set. 
    
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: created schedule "schedule0". 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: updated description of "schedule0". 
    [C] Mar  8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:25 ndm: Thread: "Main" (510) backtrace: 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::LoadFile_(CString const&)+0x564 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Load()+0x1ac 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Server::Run()+0x20 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Main::Run()+0x494 
    [C] Mar  8 12:31:25 ndm: Thread:   main()+0x28 
    [C] Mar  8 12:31:25 ndm: Thread:   libc_start_main_stage2()+0x38 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule0". 
    [C] Mar  8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:25 ndm: Thread: "Main" (510) backtrace: 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::LoadFile_(CString const&)+0x564 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Load()+0x1ac 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Server::Run()+0x20 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Main::Run()+0x494 
    [C] Mar  8 12:31:25 ndm: Thread:   main()+0x28 
    [C] Mar  8 12:31:25 ndm: Thread:   libc_start_main_stage2()+0x38 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule0". 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: created schedule "schedule1". 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: updated description of "schedule1". 
    [C] Mar  8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:25 ndm: Thread: "Main" (510) backtrace: 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::LoadFile_(CString const&)+0x564 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Load()+0x1ac 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Server::Run()+0x20 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Main::Run()+0x494 
    [C] Mar  8 12:31:25 ndm: Thread:   main()+0x28 
    [C] Mar  8 12:31:25 ndm: Thread:   libc_start_main_stage2()+0x38 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule1". 
    [C] Mar  8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:25 ndm: Thread: "Main" (510) backtrace: 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::AddAction(CString const&, CString const&, CString const&, CString const&)+0x248 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Manager::AddAction(CString const&, CString const&, CString const&, CString const&, CString const&)+0x98 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Command::(anonymous namespace)::ScheduleAction::Execute(Command::Request const&, Command::Response&) const+0x230 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Parse_(Command::Request const&, Command::Response&)+0x5f0 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::LoadFile_(CString const&)+0x564 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Configurator::Load()+0x1ac 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Server::Run()+0x20 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Main::Run()+0x494 
    [C] Mar  8 12:31:25 ndm: Thread:   main()+0x28 
    [C] Mar  8 12:31:25 ndm: Thread:   libc_start_main_stage2()+0x38 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: updated schedule "schedule1". 
    [I] Mar  8 12:31:25 ndm: Core::Schedule::Manager: created schedule "LED". 
    [C] Mar  8 12:31:25 ndm: Thread: "Main": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:25 ndm: Thread: "Main" (510) backtrace: 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:25 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    ...
    
    [I] Mar  8 12:31:48 ndm: Http::Manager: enabled NDMP passthrough. 
    [I] Mar  8 12:31:48 ndm: Ntce::Database: limiting dataset count to 8510. 
    [I] Mar  8 12:31:48 ndm: Network::Interface::Mtk::Ppe: WHNAT is supported. 
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [I] Mar  8 12:31:48 kernel: br0: port 4(ra4.1) entered learning state
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c 
    [C] Mar  8 12:31:48 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 12:31:48 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:31:48 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:31:48 ndm: Thread:   __clone()+0x30 
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c 
    [C] Mar  8 12:31:48 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 12:31:48 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:31:48 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:31:48 ndm: Thread:   __clone()+0x30 
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c 
    [C] Mar  8 12:31:48 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 12:31:48 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:31:48 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:31:48 ndm: Thread:   __clone()+0x30 
    ...
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:31:48 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 12:31:48 ndm: Thread:   Core::Schedule::Object_::OnSystemReady_(Event::SystemReady const&)+0x2c 
    [C] Mar  8 12:31:48 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 12:31:48 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:31:48 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:31:48 ndm: Thread:   __clone()+0x30 
    [I] Mar  8 12:31:49 kernel: br0: port 1(eth2.1) entered blocking state
    [I] Mar  8 12:31:49 kernel: br0: port 1(eth2.1) entered listening state
    [I] Mar  8 12:31:49 kernel: br1: port 4(rai4.2) entered learning state
    [I] Mar  8 12:31:49 kernel: br1: port 3(ra4.2) entered learning state
    ...
    [I] Mar  8 12:32:04 upnp: HTTP listening on port 1900 
    [I] Mar  8 12:32:04 upnp: Listening for NAT-PMP/PCP traffic on port 5351 
    
    [I] Mar  8 18:11:52 ndm: Core::System::Clock: system time has been changed. 
    [I] Mar  8 18:11:52 ndm: Ntp::Client: time synchronized with "192.36.143.130". 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xa8 
    [C] Mar  8 18:11:52 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 18:11:52 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 18:11:52 ndm: Thread:   start()+0x8c 
    [C] Mar  8 18:11:52 ndm: Thread:   __clone()+0x30 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::SynAction() const+0xb0 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xb4 
    [C] Mar  8 18:11:52 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 18:11:52 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 18:11:52 ndm: Thread:   start()+0x8c 
    [C] Mar  8 18:11:52 ndm: Thread:   __clone()+0x30 
    [I] Mar  8 18:11:52 ndm: Core::Schedule::Manager: raised action "start" by "schedule0". 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::UpdateAlarm_()+0x44 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xa8 
    [C] Mar  8 18:11:52 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 18:11:52 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 18:11:52 ndm: Thread:   start()+0x8c 
    [C] Mar  8 18:11:52 ndm: Thread:   __clone()+0x30 
    [I] Mar  8 18:11:52 ndm: Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(70:03:9f:37:6f:5f) had associated successfully. 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::SynAction() const+0xb0 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::Schedule::Object_::OnDbKey_(Event::DbKey const&)+0xb4 
    [C] Mar  8 18:11:52 ndm: Thread:   Event::Sender::Run()+0x310 
    [C] Mar  8 18:11:52 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 18:11:52 ndm: Thread:   start()+0x8c 
    [C] Mar  8 18:11:52 ndm: Thread:   __clone()+0x30 
    [I] Mar  8 18:11:52 ndm: Core::Schedule::Manager: raised action "start" by "schedule1". 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 18:11:52 ndm: Thread: "Event sender" (778) backtrace: 
    [C] Mar  8 18:11:52 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    ...
    [I] Mar  8 18:11:52 ndm: Core::Schedule::Manager: raised action "start" by "LED". 
    
        <threads>
            <thread>
                <name>Main</name>
                <tid>510</tid>
                <lock_list_complete>yes</lock_list_complete>
                <locks/>
                <backtrace>
                    <calls>
                        <![CDATA[
    __setjmp()+0x056
    __syscall_cp_asm()+0x040
    __syscall_cp_c()+0x0128
    poll()+0x080
    Io::Pollable::Wait(Io::Pollable**, Io::ModeT const*, pollfd*, unsigned long, int, char const*)+0x0844
    Core::Server::Loop_()+0x0180
    Core::Server::Run()+0x0348
    Core::Main::Run()+0x01172
    main()+0x040
    libc_start_main_stage2()+0x056
    ]]>
                    </calls>
                    <error/>
                </backtrace>
                <statistics>
                    <interval>0</interval>
                    <cpu>
                        <now>0.000000</now>
                        <min>0</min>
                        <max>0</max>
                        <avg>0</avg>
                        <cur>0</cur>
                    </cpu>
                </statistics>
            </thread>
            <thread>
                <name>Syslog</name>
                <tid>511</tid>
                <lock_list_complete>yes</lock_list_complete>
                <locks/>
                <backtrace>
                    <calls>
                        <![CDATA[
    __setjmp()+0x056
    __syscall_cp_asm()+0x040
    __syscall_cp_c()+0x0128
    poll()+0x080
    Core::Syslog::Run()+0x0208
    Thread::StartRoutine_(void*)+0x0720
    start()+0x0140
    __clone()+0x048
    ]]>
                    </calls>
                    <error/>
                </backtrace>
                <statistics>
                    <interval>30</interval>
                    <cpu>
                        <now>86.736512</now>
                        <min>0</min>
                        <max>0</max>
                        <avg>0</avg>
                        <cur>0</cur>
                    </cpu>
                </statistics>
            </thread>
    
    
        <thread>
                <name>Event sender</name>
                <tid>778</tid>
                <lock_list_complete>yes</lock_list_complete>
                <locks/>
                <backtrace>
                    <calls>
                        <![CDATA[
    __setjmp()+0x056
    __syscall_cp_asm()+0x036
    __syscall_cp_c()+0x0128
    __timedwait_cp()+0x0216
    pthread_cond_timedwait()+0x0224
    Condition::Wait(long) const+0x0468
    Event::Sender::Run()+0x01236
    Thread::StartRoutine_(void*)+0x0720
    start()+0x0140
    __clone()+0x048
    ]]>
                    </calls>
                    <error/>
                </backtrace>
                <statistics>
                    <interval>30</interval>
                    <cpu>
                        <now>86.736523</now>
                        <min>0</min>
                        <max>11</max>
                        <avg>0</avg>
                        <cur>0</cur>
                    </cpu>
                </statistics>
            </thread>
            <thread>
                <name>Peripheral manager</name>
                <tid>780</tid>
                <lock_list_complete>yes</lock_list_complete>
                <locks/>
                <backtrace>
                    <calls>
                        <![CDATA[
    __setjmp()+0x056
    __syscall_cp_asm()+0x040
    __syscall_cp_c()+0x0128
    clock_nanosleep()+0x060
    nanosleep()+0x028
    Sleep(Time::Span const&)+0x0224
    Core::Peripheral::Manager::Run()+0x0860
    Thread::StartRoutine_(void*)+0x0720
    start()+0x0140
    __clone()+0x048
    ]]>
                    </calls>
                    <error/>
                </backtrace>
                <statistics>
                    <interval>30</interval>
                    <cpu>
                        <now>86.736528</now>
                        <min>0</min>
                        <max>0</max>
                        <avg>0</avg>
                        <cur>0</cur>
                    </cpu>
                </statistics>
            </thread>

     

     

  21. 4.0.12

    И не только системный монитор, как то весь WEB "тупит" при переходе между разделами, потом в них открывает по быстрее, но потом при смене раздела опять "тупит" (так по всем разделам).

    В логе куча всего

    Скрытый текст
    KN2710
    
    [C] Mar  8 12:16:26 ndm: Thread:   __clone()+0x30 
    [C] Mar  8 12:16:26 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:16:26 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 
    [C] Mar  8 12:16:26 ndm: Thread:   Core::Scgi::ThreadPool::Task_::Run()+0x144 
    [C] Mar  8 12:16:26 ndm: Thread:   Task::Thread::Run_()+0x314 
    [C] Mar  8 12:16:28 ndm: Thread:   Task::Thread::Run()+0x18 
    [C] Mar  8 12:16:28 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:16:28 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:16:28 ndm: Thread:   __clone()+0x30 
    [C] Mar  8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::Scgi::ThreadPool::Task_::Run()+0x144 
    [C] Mar  8 12:16:28 ndm: Thread:   Task::Thread::Run_()+0x314 
    [C] Mar  8 12:16:28 ndm: Thread:   Task::Thread::Run()+0x18 
    [C] Mar  8 12:16:28 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:16:28 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:16:28 ndm: Thread:   __clone()+0x30 
    [C] Mar  8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:16:28 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: 
    [C] Mar  8 12:16:28 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    ...
    [C] Mar  8 12:16:50 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:16:50 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 
    [C] Mar  8 12:16:50 ndm: Thread:   Core::Scgi::ThreadPool::Task_::Run()+0x144 
    [C] Mar  8 12:16:50 ndm: Thread:   Task::Thread::Run_()+0x314 
    [C] Mar  8 12:16:51 ndm: Thread:   Task::Thread::Run()+0x18 
    [C] Mar  8 12:16:51 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:16:51 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:16:51 ndm: Thread:   __clone()+0x30 
    [C] Mar  8 12:16:51 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci": lock precedence violation: CLOCK (105) after SCHEDULE (208). 
    [C] Mar  8 12:16:51 ndm: Thread: "Queue::NWBDUCFCITODSKQB::http/rci" (3728) backtrace: 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::System::Clock::GetTime() const+0x30 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Schedule::Object_::GetTime_(unsigned int&, unsigned int&, unsigned int&, unsigned int&) const+0x4c 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Schedule::Object_::AttachTo(Xml::Node&) const+0x25c 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Schedule::Manager::AttachScheduleTo(CString const&, Xml::Node&) const+0xd8 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Command::(anonymous namespace)::ShowSchedule::Execute(Command::Request const&, Command::Response&) const+0x64 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Configurator::Execute(Command::Base const*, Command::Request const&, Command::Response&)+0x1f8 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Configurator::Serve(Command::Request const&, Command::Response&)+0x3e4 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Scgi::Tools::JsonGet(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Json::Document&, StringVector&, bool*)+0x158 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Scgi::ThreadPool::Task_::ProcessJsonRequest_(Core::Configurator&, Core::Scgi::Request const&, Core::Scgi::Trace&, Array<char>&, Io::OStream&)+0x190 
    [C] Mar  8 12:16:51 ndm: Thread:   Core::Scgi::ThreadPool::Task_::Run()+0x144 
    [C] Mar  8 12:16:51 ndm: Thread:   Task::Thread::Run_()+0x314 
    [C] Mar  8 12:16:51 ndm: Thread:   Task::Thread::Run()+0x18 
    [C] Mar  8 12:16:51 ndm: Thread:   Thread::StartRoutine_(void*)+0x2d0 
    [C] Mar  8 12:16:51 ndm: Thread:   start()+0x8c 
    [C] Mar  8 12:16:51 ndm: Thread:   __clone()+0x30 
    [E] Mar  8 12:16:51 ndm: Command::Base: argument parse error. 

     

    Использую ночную тему.

  22. 1 час назад, averias сказал:

    Приветствую! 

    Выставил ограничения до 24 часов. Проработало сутки и опять зависло. 
     Я уже и не знаю, что делать дальше. 

    У вас flash или HDD?

    Покажите загрузку - selftest поиск по Adguard там блок "process" а так же настройку бы увидеть вашу в которой

    Цитата

    А вот основные настройки галка только "Блокировать домены с использованием фильтров и файлов хостов".

     

×
×
  • Create New...