Jump to content

vasek00

Forum Members
  • Posts

    4,466
  • Joined

  • Last visited

  • Days Won

    76

Posts posted by vasek00

  1. 2 часа назад, nevidimka сказал:

    Как мне обновить adguard home v0.107.29, но новую версию или бета? 

     Просто переписать новую версию взяв ее с первой страницы. Там будет архив, его просто распоковать, и файл adguardhome поместить в нужное ваше место, незабыть потом сделать "chmod 755 adguardhome"

    На самой первой странице 

    ссылка https://github.com/AdguardTeam/AdGuardHome/releases/tag/v0.108.0-b.43 выбрать mips/mipsle или arm в зависимости от вашего проца.

  2. Торрент качалка 41A4 на Peak с HDD 5400об.

     

    Но перед этим на KN1811 c SSD диском ПО 402 из канала draft или она же

        <release>4.00.C.2.0-1</release>
        <sandbox>draft</sandbox>
        <title>4.0.2</title>

    вела себя нормально при кеше 32МБ на торрент качалке. На SSD диске места всего было 103GB, берем по одной закачке и начинаем добавлять, так как ранее было проверено что при "preallocation": 1 в данном случае и на данной версии ПО не было замечено в самом начале бурное выделение места на SSD диске то в итоге получилось то что получилось

    Скрытый текст

    Старт

    -.thumb.jpg.91cab8ed11b30b8766bf7a672fe6d45f.jpg

    и потом добавление по одной закачке

    -stop.thumb.jpg.4851ae7e4c1b7e2a2e05a4afe626b5a8.jpg

    Хочу обратить внимание что сумма по закачкам превышала свобоное место на SSD.

    Поэтому не стал ждать когда его не хватит и остановил закачки.

    В процессе проверки проблем не наблюдалось - первый раз просто скачал одну закачку просто игру (83GB)- она зашла без проблем, далее ее удаляем и второй раз пробуем то что описано выше.

    Все это к чему, теперь берем KN2710 с HDD и пробуем на нем тоже самое, место хватает свободного на нем, но картина совсем другая. Итак 41A4 с параметром при кеше 32МБ и по конф файлу то же самое "preallocation": 1. Но правда поставил сразу 5 закачек которые выше. В данном случае имело место выделение места на диске HDD и бурная его работа под это выделение, естественно все "тормазило" (проц почти 60% сам диск же под 100% для записи и якобы 97МB говорит). Утилита df так же стала показывать уменьшения места на HDD. Подождав чуток (пришлось бы ждать пока все данное место не будет выделено на диске тут было в сумме по закачкам 285GB в 5 штуках (в одной 30файлов и остальные по 3-4файла) то удаляю закачки, тут WEB торрента естественно весит. Жду когда по df все будет удалено (т.е. его значение вернулось к тому что было до старта торрента) и перегружаю WEB торрент качалки в итоге все удалено, но система продолжает выделять место под закачки которых уже в WEB торрента нет и 100% работа диска и система так же тормозит, df не показывает изменение места на диске, но работа самого диска видна и именно по write -> вопрос куда все это идет

    Скрытый текст

    -2.jpg.2150d33c3fa8740317082101e1722f5b.jpg

    Скрытый текст
    /opt/etc/init.d # lsof -p 4166
    COMMAND    PID USER   FD      TYPE             DEVICE    SIZE/OFF   NODE NAME
    transmiss 4166 root  cwd       DIR              31,14         227   2013 /
    transmiss 4166 root  rtd       DIR              31,14         227   2013 /
    transmiss 4166 root  txt       REG              31,14      526992    964 /usr/sbin/transmissiond
    ...
    /tmp/mnt/жжжжжжжжжжжжжж/Torrnet/ELDEN.RING.DE.RePack.by.Chovka/Data3.RePack.part
    transmiss 4166 root   28u     IPv4             223190         0t0    TCP хх.хх.хх.хх:60753->37.49.189.154:14688 (CLOSE_WAIT)
    transmiss 4166 root   29u     sock                0,7         0t0 223191 protocol: TCP
    transmiss 4166 root   30u     sock                0,7         0t0 223198 protocol: TCP

    В данном каталоге три файла - два из которых *.part по 34GB

    По логам роутера

    [I] Aug 23 08:45:17 transmissiond: Saved "/tmp/mnt/.../Torrnet/torrents/a79d7fdd60e259e60e820448642f94b0c043783b.torrent" 
    [I] Aug 23 08:45:17 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Queued for verification 
    [I] Aug 23 08:45:17 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Verifying torrent 
    [I] Aug 23 08:45:17 transmissiond: Saved "/tmp/mnt/.../Torrnet/torrents/0bac9c596e5177d8a1ef36c9f2c10306d735d77d.torrent" 
    [I] Aug 23 08:45:17 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Queued for verification 
    [I] Aug 23 08:45:17 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Verifying torrent 
    [I] Aug 23 08:45:17 transmissiond: Saved "/tmp/mnt/.../Torrnet/torrents/2f0a9380e5a15d3e39fb95d1fe2d744a98c5cd2c.torrent" 
    [I] Aug 23 08:45:17 transmissiond: Love.You.Long.Time.2023.Pa.WEB-DL.1O8Op.mkv Queued for verification 
    [I] Aug 23 08:45:17 transmissiond: Saved "/tmp/mnt/.../Torrnet/torrents/f59dd46f1089314ffc049d90eb02fe169755fdb3.torrent" 
    [I] Aug 23 08:45:17 transmissiond: Remnant.II.Ultimate.Edition.RePack.by.Chovka Queued for verification 
    [I] Aug 23 08:45:17 transmissiond: Remnant.II.Ultimate.Edition.RePack.by.Chovka Verifying torrent 
    [I] Aug 23 08:45:17 transmissiond: Love.You.Long.Time.2023.Pa.WEB-DL.1O8Op.mkv Verifying torrent 
    [I] Aug 23 08:45:18 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:45:18 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 20 seconds. 
    [I] Aug 23 08:45:18 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:45:18 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 20 seconds. 
    [I] Aug 23 08:45:18 transmissiond: Saved "/tmp/mnt/.../Torrnet/torrents/9aab9e16e25fb89d756c9bec89e599c4ab0e2dd5.torrent" 
    [I] Aug 23 08:45:18 transmissiond: Baldurs_Gate_3_4.1.1.3648072 hotfix 4 launcher fix_(66847)_win_gog Queued for verification 
    [I] Aug 23 08:45:18 transmissiond: Baldurs_Gate_3_4.1.1.3648072 hotfix 4 launcher fix_(66847)_win_gog Verifying torrent 
    [I] Aug 23 08:45:19 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:45:19 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 20 seconds. 
    ...
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 350 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 352 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 317 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 318 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 333 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 332 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 331 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 20 seconds. 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Tracker gave HTTP response code 404 (Not Found) 
    [I] Aug 23 08:48:51 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 318 seconds. 
    [I] Aug 23 08:48:52 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:48:52 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Retrying announce in 20 seconds. 
    ...
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 339 seconds. 
    [I] Aug 23 08:58:29 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Retrying announce in 20 seconds. 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 331 seconds. 
    [I] Aug 23 08:58:29 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Retrying announce in 20 seconds. 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 306 seconds. 
    [I] Aug 23 08:58:29 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Connection failed 
    ...
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 328 seconds. 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 359 seconds. 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 343 seconds. 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Connection failed 
    [I] Aug 23 08:58:29 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 311 seconds. 
    ...
    [I] Aug 23 08:58:30 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Could not connect to tracker 
    [I] Aug 23 08:58:30 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Retrying announce in 20 seconds. 
    [I] Aug 23 08:58:31 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Removing torrent 
    [I] Aug 23 08:58:31 transmissiond: Hogwarts.Legacy.DDE.RePack.by.Chovka Pausing 
    ...
    [I] Aug 23 09:07:18 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Removing torrent 
    [I] Aug 23 09:07:18 transmissiond: ELDEN.RING.DE.RePack.by.Chovka Pausing 
    ...
    [I] Aug 23 09:07:34 transmissiond: Remnant.II.Ultimate.Edition.RePack.by.Chovka Removing torrent 
    [I] Aug 23 09:07:34 transmissiond: Remnant.II.Ultimate.Edition.RePack.by.Chovka Pausing 
    [I] Aug 23 09:07:34 transmissiond: Love.You.Long.Time.2023.Pa.WEB-DL.1O8Op.mkv Removing torrent 
    [I] Aug 23 09:07:34 transmissiond: Love.You.Long.Time.2023.Pa.WEB-DL.1O8Op.mkv Pausing 
    ...
    [I] Aug 23 09:08:25 transmissiond: Baldurs_Gate_3_4.1.1.3648072 hotfix 4 launcher fix_(66847)_win_gog Removing torrent 
    [I] Aug 23 09:08:25 transmissiond: Baldurs_Gate_3_4.1.1.3648072 hotfix 4 launcher fix_(66847)_win_gog Pausing 
    [I] Aug 23 09:08:25 transmissiond: Saved "/tmp/mnt/ххххххххх/Torrnet/stats.json" 

     

    Но тут уже нужно ждать до конца, так как перегруз роутера приведет к проблеме с диском. После некого ожидания - просмотр каталога  Torrent и lsof - где стало все чисто система пришла в норму. Итак после удаления зекачек в Web торрента он сервис еще продолжал выделять место под файлы одной из закачек благо в ней было всего 3 файла - два файла part по 34GB и один мелкий.

    Странно поведение торрент качалки с "preallocation": 1 и на NTFS разделе и на разных дисках SSD и HDD. Как то странное выделение места на HDD/SSD то есть оно то нет его перед потоком данных с интернета.

  3. Попробую убрать на данном сегменте Bridge1

    iapp key
    Цитата

    3.31.79 interface iapp key
    Описание Установить ключ мобильного домена IAPP для успешной синхронизации между точками доступа, где включен FT (команда interface ft enable).
    Точки доступа должны принадлежать одной IP-подсети. По умолчанию ключ не назначен.

     

     

  4. KN2710 4.00.C.2.0-1 непонятно после чего возникают такие вот записи в созданном доп.сегменте только для умного дома

    Скрытый текст
    Авг 17 10:11:47 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) had disassociated by STA (reason: STA is leaving or has left BSS).
    Авг 17 10:11:47 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) had associated.
    Авг 17 10:11:47 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) set key done in WPA2/WPA2PSK.
    Авг 17 10:11:47 ndhcps DHCPDISCOVER received from хх:хх:хх:хх:24:99. 
    Авг 17 10:11:47 ndhcps making OFFER of 192.168.150.2 to хх:хх:хх:хх:24:99. 
    Авг 17 10:11:47 ndhcps DHCPREQUEST received (STATE_SELECTING) for 192.168.150.2 from хх:хх:хх:хх:24:99.
    Авг 17 10:11:48 ndhcps sending ACK of 192.168.150.2 to хх:хх:хх:хх:24:99. 
    
    Авг 17 10:12:59 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) had disassociated by STA (reason: STA is leaving or has left BSS).
    Авг 17 10:12:59 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) had associated.
    Авг 17 10:12:59 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) set key done in WPA2/WPA2PSK.
    Авг 17 10:12:59 ndhcps DHCPDISCOVER received from хх:хх:хх:хх:24:99.
    Авг 17 10:12:59 ndhcps making OFFER of 192.168.150.2 to хх:хх:хх:хх:24:99.
    Авг 17 10:12:59 ndhcps DHCPREQUEST received (STATE_SELECTING) for 192.168.150.2 from хх:хх:хх:хх:24:99.
    Авг 17 10:13:00 ndhcps sending ACK of 192.168.150.2 to хх:хх:хх:хх:24:99.  
    
    Авг 17 10:15:23 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) had disassociated by STA (reason: STA is leaving or has left BSS).
    Авг 17 10:15:23 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) had associated.
    Авг 17 10:15:23 ndm Network::Interface::Mtk::WifiMonitor: "WifiMaster0/AccessPoint1": STA(хх:хх:хх:хх:24:99) set key done in WPA2/WPA2PSK.
    Авг 17 10:15:23 ndhcps DHCPDISCOVER received from хх:хх:хх:хх:24:99.
    Авг 17 10:15:23 ndhcps making OFFER of 192.168.150.2 to хх:хх:хх:хх:24:99.
    Авг 17 10:15:23 ndhcps DHCPREQUEST received (STATE_SELECTING) for 192.168.150.2 from хх:хх:хх:хх:24:99.
    Авг 17 10:15:24 ndhcps sending ACK of 192.168.150.2 to хх:хх:хх:хх:24:99. 
    
    и т.д.

    это со всеми клиентами wifi данного сегмента, правда в данном сегменте только умный дом. Основной wifi 2.4 и 5 разделены, но на нем включено "Управление BSS-окружением 802.11k/v", дополнительный сегмент только wifi 2.4 и всякие "Управление BSS-окружением 802.11k/v" выключены как и "FT" выключено.

    interface WifiMaster0
        country-code RU
        compatibility GN
        channel 3
        channel width 40-above
        power 50
        rekey-interval 86400
        beamforming explicit
        vht
        up
    
    interface WifiMaster0/AccessPoint1
        mac access-list type none
        security-level protected
        authentication wpa-psk ns3 ***
        encryption enable
        encryption wpa2
        ip dhcp client dns-routes
        ip name-servers
        ssid Smart
        up
    
    interface Bridge1
        rename HomeSmart
        description HomeSmart
        include WifiMaster0/AccessPoint1
        mac access-list type permit
    ...
        security-level protected
        ip address 192.168.150.101 255.255.255.0
        ip dhcp client dns-routes
        ip name-servers
        iapp key ns3 ***
        up
    
    interface Bridge0
        rename Home
        description HomeLan
        inherit GigabitEthernet0/Vlan1
        include AccessPoint
        include AccessPoint_5G
        mac access-list type permit
    ...
        security-level private
        ip address 192.168.130.101 255.255.255.0
        ip dhcp client dns-routes
        ip name-servers
        iapp key ns3 ***
        up

    -2.jpg.eaa235f7a035e49cd3af4fd220831af5.jpg

    Проблем в работе на них нет.

    на <release>4.00.C.1.0-0</release> такого нет, откат на нее потом возврат на <release>4.00.C.2.0-1</release> решает проблему, если не лазить в WEB то на долго, как где то полазить в WEB (подозрения) так может появиться.

    Натыкался уже в логе на такое раза 4.

  5. 9 часов назад, Никита Зайцев сказал:

    Да, но я вот и подумал, вдруг он где-то задокументировал условные обозначения и расшифровки. Мало ли)

    Интернет поиск "протокол DHCP алгоритм работы", в данном случае "ndhcpc" dhcpc - "с" говорит о том что сервис клиент/client и он на роутере

  6. 8 часов назад, SySOPik сказал:

    PS.Подозреваю что обсуждения Shadowsocks, V2Ray, XRay, XTLS, Hysteria, Cloak тут не одобрят.

    V2Ray/XRay работают как прокси, проверено на arm роутерах, для mips не смотрел.

    Скрытый текст
    /opt/sbin # ls -l | grep ray
    -rwxr-xr-x    1 root     root      23068672 May 26 20:58 v2ray
    -rwxr-xr-x    1 root     root      24248320 May 27 07:52 xray
    /opt/sbin # 
    
    ...
    #PROCS=v2ray
    PROCS=xray
    #ARGS="-confdir /opt/etc/v2ray"
    ARGS="run -c /opt/etc/v2ray/config.json"
    ...
    
    /opt/etc/init.d # ./K24v2ray start
     Starting xray...              done. 
    /opt/etc/init.d # netstat -ntulp | grep ray
    tcp        0      0 192.168.1.10:10809   0.0.0.0:*               LISTEN      2293/xray
    /opt/etc/init.d #
    
    /proc/2453 # lsof -p 2293
    COMMAND  PID USER   FD      TYPE DEVICE SIZE/OFF   NODE NAME
    xray    2293 root  cwd       DIR    8,3     1024 446475 /opt/etc/init.d
    xray    2293 root  rtd       DIR   31,7      227   2002 /
    xray    2293 root  txt       REG    8,3 24248320 663671 /opt/sbin/xray
    xray    2293 root    0r      CHR    1,3      0t0   3109 /dev/null
    xray    2293 root    1w      CHR    1,3      0t0   3109 /dev/null
    xray    2293 root    2w      CHR    1,3      0t0   3109 /dev/null
    xray    2293 root    3u     IPv4  62520      0t0    TCP 192.168.1.10:10809 (LISTEN)
    xray    2293 root    4u  a_inode    0,9        0   1040 [eventpoll:3,5,7,8,9,10]
    xray    2293 root    5r     FIFO    0,8      0t0  62080 pipe
    xray    2293 root    6w     FIFO    0,8      0t0  62080 pipe
    xray    2293 root    7u     IPv4  66107      0t0    TCP 192.168.1.10:10809->192.168.1.20:51162 (ESTABLISHED)
    xray    2293 root    8u     IPv4  66111      0t0    TCP хх.хх.хх.хх:51652->........vps.ovh.net:https (ESTABLISHED)
    xray    2293 root    9u     IPv4  66120      0t0    TCP 192.168.1.10:10809->192.168.1.20:51163 (ESTABLISHED)
    xray    2293 root   10u     IPv4  66124      0t0    TCP хх.хх.хх.хх:51652->........vps.ovh.net:https (ESTABLISHED)
    
    
    Xray 1.7.5 (Xray, Penetrates Everything.) Custom (go1.20.4 linux/arm64)
    A unified platform for anti-censorship.
    2023/08/13 15:27:56 [Info] infra/conf/serial: Reading config: /opt/etc/v2ray/config.json
    2023/08/13 15:27:56 [Warning] core: Xray 1.7.5 started
    ...

    vray так же родной в Entware.

    /opt/sbin # opkg list | grep v2ray
    v2ray - 5.4.1-1 - A platform for building proxies to bypass network restrictions.
    /opt/sbin #

     

     

    В ПО роутера так же работае свой Proxy, данный канал можно так же "использовать" в профилях для клиентов.

     

    Так же

     

    • Upvote 1
  7. 4.1 Alpha 2 без изменений на Peak.

    Скрытый текст

    после перезапуска роутера

    ~ # ps | grep tsmb
      911 root     11468 S    /sbin/tsmb-server -c /var/run/tsmb/tsmb.conf
      921 root         0 SW   [tsmb_core]
     1034 root         0 SW   [tsmb_transport0]
     
    ~ # lsof -p 911
    COMMAND   PID USER   FD      TYPE             DEVICE SIZE/OFF  NODE NAME
    tsmb-serv 911 root  cwd       DIR               31,7      227  2002 /
    tsmb-serv 911 root  rtd       DIR               31,7      227  2002 /
    tsmb-serv 911 root  txt       REG               31,7   861640   794 /sbin/tsmb-server
    tsmb-serv 911 root  mem       REG               31,7    10232   492 /lib/libssp.so.0.0.0
    tsmb-serv 911 root  mem       REG               31,7  3306016   851 /usr/lib/libcrypto.so.3
    tsmb-serv 911 root  mem       REG               31,7   889712   844 /usr/lib/libc.so
    tsmb-serv 911 root    0u      CHR                5,1      0t0  1033 /dev/console
    tsmb-serv 911 root    1u      CHR                5,1      0t0  1033 /dev/console
    tsmb-serv 911 root    2u      CHR                5,1      0t0  1033 /dev/console
    tsmb-serv 911 root    3u  a_inode                0,9        0  1025 [eventpoll:4,8,75]
    tsmb-serv 911 root    4r     FIFO                0,8      0t0  9504 pipe
    tsmb-serv 911 root    5w     FIFO                0,8      0t0  9504 pipe
    tsmb-serv 911 root    6r     FIFO                0,8      0t0  9505 pipe
    tsmb-serv 911 root    7w     FIFO                0,8      0t0  9505 pipe
    tsmb-serv 911 root    8u     IPv4               9506      0t0   TCP localhost:7010 (LISTEN)
    tsmb-serv 911 root    9r      CHR              10,59      0t0  7234 /dev/tsmb_core0
    tsmb-serv 911 root   10u  a_inode                0,9        0  1025 [eventpoll:11,15,83]
    tsmb-serv 911 root   11r     FIFO                0,8      0t0  9508 pipe
    tsmb-serv 911 root   12w     FIFO                0,8      0t0  9508 pipe
    tsmb-serv 911 root   13r     FIFO                0,8      0t0  9509 pipe
    tsmb-serv 911 root   14w     FIFO                0,8      0t0  9509 pipe
    tsmb-serv 911 root   15u     IPv4               9510      0t0   TCP localhost:afs3-volser (LISTEN)
    tsmb-serv 911 root   16u     IPv4               9511      0t0   TCP localhost:49146->localhost:afs3-callback (ESTABLISHED)
    tsmb-serv 911 root   17u  a_inode                0,9        0  1025 [eventpoll:18,22]
    tsmb-serv 911 root   18r     FIFO                0,8      0t0  9514 pipe
    tsmb-serv 911 root   19w     FIFO                0,8      0t0  9514 pipe
    tsmb-serv 911 root   20r     FIFO                0,8      0t0  9515 pipe
    tsmb-serv 911 root   21w     FIFO                0,8      0t0  9515 pipe
    tsmb-serv 911 root   22u     IPv4               9516      0t0   TCP localhost:7014 (LISTEN)
    tsmb-serv 911 root   23u     IPv4               9517      0t0   UDP *:netbios-ns 
    tsmb-serv 911 root   24u  a_inode                0,9        0  1025 [eventpoll:25,29]
    tsmb-serv 911 root   25r     FIFO                0,8      0t0  9521 pipe
    tsmb-serv 911 root   26w     FIFO                0,8      0t0  9521 pipe
    tsmb-serv 911 root   27r     FIFO                0,8      0t0  9522 pipe
    tsmb-serv 911 root   28w     FIFO                0,8      0t0  9522 pipe
    tsmb-serv 911 root   29u     IPv4               9523      0t0   TCP localhost:7022 (LISTEN)
    tsmb-serv 911 root   30u     IPv4               9524      0t0   UDP *:netbios-dgm 
    tsmb-serv 911 root   31u  a_inode                0,9        0  1025 [eventpoll:32,36]
    tsmb-serv 911 root   32r     FIFO                0,8      0t0  9527 pipe
    tsmb-serv 911 root   33w     FIFO                0,8      0t0  9527 pipe
    tsmb-serv 911 root   34r     FIFO                0,8      0t0  9528 pipe
    tsmb-serv 911 root   35w     FIFO                0,8      0t0  9528 pipe
    tsmb-serv 911 root   36u     IPv4               9529      0t0   TCP localhost:7020 (LISTEN)
    tsmb-serv 911 root   37u  a_inode                0,9        0  1025 [eventpoll:38,42]
    tsmb-serv 911 root   38r     FIFO                0,8      0t0 11042 pipe
    tsmb-serv 911 root   39w     FIFO                0,8      0t0 11042 pipe
    tsmb-serv 911 root   40r     FIFO                0,8      0t0 11043 pipe
    tsmb-serv 911 root   41w     FIFO                0,8      0t0 11043 pipe
    tsmb-serv 911 root   42u     IPv4              13058      0t0   TCP localhost:7024 (LISTEN)
    tsmb-serv 911 root   43u     IPv4              11044      0t0   TCP *:3702 (LISTEN)
    tsmb-serv 911 root   44u     IPv4              11045      0t0   UDP *:3702 
    tsmb-serv 911 root   45u  a_inode                0,9        0  1025 [eventpoll:46,50]
    tsmb-serv 911 root   46r     FIFO                0,8      0t0 11052 pipe
    tsmb-serv 911 root   47w     FIFO                0,8      0t0 11052 pipe
    tsmb-serv 911 root   48r     FIFO                0,8      0t0 11053 pipe
    tsmb-serv 911 root   49w     FIFO                0,8      0t0 11053 pipe
    tsmb-serv 911 root   50u     IPv4              13059      0t0   TCP localhost:7025 (LISTEN)
    tsmb-serv 911 root   51u     IPv4              11054      0t0   UDP *:hostmon 
    tsmb-serv 911 root   52u  a_inode                0,9        0  1025 [eventpoll:53,57,74]
    tsmb-serv 911 root   53r     FIFO                0,8      0t0 11061 pipe
    tsmb-serv 911 root   54w     FIFO                0,8      0t0 11061 pipe
    tsmb-serv 911 root   55r     FIFO                0,8      0t0 11062 pipe
    tsmb-serv 911 root   56w     FIFO                0,8      0t0 11062 pipe
    tsmb-serv 911 root   57u     IPv4              13060      0t0   TCP localhost:7026 (LISTEN)
    tsmb-serv 911 root   58r     FIFO                0,8      0t0 11063 pipe
    tsmb-serv 911 root   59w     FIFO                0,8      0t0 11063 pipe
    tsmb-serv 911 root   60r  a_inode                0,9        0  1025 inotify
    tsmb-serv 911 root   61u  a_inode                0,9        0  1025 [eventpoll:62,66,73]
    tsmb-serv 911 root   62r     FIFO                0,8      0t0 11064 pipe
    tsmb-serv 911 root   63w     FIFO                0,8      0t0 11064 pipe
    tsmb-serv 911 root   64r     FIFO                0,8      0t0 11065 pipe
    tsmb-serv 911 root   65w     FIFO                0,8      0t0 11065 pipe
    tsmb-serv 911 root   66u     IPv4              13061      0t0   TCP localhost:afs3-kaserver (LISTEN)
    tsmb-serv 911 root   67u  a_inode                0,9        0  1025 [eventpoll:68,72,81]
    tsmb-serv 911 root   68r     FIFO                0,8      0t0 13062 pipe
    tsmb-serv 911 root   69w     FIFO                0,8      0t0 13062 pipe
    tsmb-serv 911 root   70r     FIFO                0,8      0t0 13063 pipe
    tsmb-serv 911 root   71w     FIFO                0,8      0t0 13063 pipe
    tsmb-serv 911 root   72u     IPv4              13064      0t0   TCP localhost:afs3-errors (LISTEN)
    tsmb-serv 911 root   73u     IPv4              11067      0t0   TCP localhost:afs3-kaserver->localhost:55510 (ESTABLISHED)
    tsmb-serv 911 root   74u     IPv4              13066      0t0   TCP localhost:7026->localhost:51640 (ESTABLISHED)
    tsmb-serv 911 root   75u     IPv4              13067      0t0   TCP localhost:7010->localhost:53922 (ESTABLISHED)
    tsmb-serv 911 root   76u     unix 0xffffffc00d4a8900      0t0 11076 /var/run/tsmb/tsmb-srvsvc type=STREAM 
    tsmb-serv 911 root   77u     unix 0xffffffc00d4a8d80      0t0 11078 /var/run/tsmb/tsmb-spoolss type=STREAM 
    tsmb-serv 911 root   78u     unix 0xffffffc00d4a9200      0t0 11080 /var/run/tsmb/tsmb-wkssvc type=STREAM 
    tsmb-serv 911 root   79u     unix 0xffffffc00d4a9680      0t0 11082 /var/run/tsmb/tsmb-lsarpc type=STREAM 
    tsmb-serv 911 root   80u     unix 0xffffffc00d4a9b00      0t0 11084 /var/run/tsmb/tsmb-lsarpc.1 type=STREAM 
    tsmb-serv 911 root   81u     IPv4              13640      0t0   TCP localhost:afs3-errors->localhost:58534 (ESTABLISHED)
    tsmb-serv 911 root   82u     IPv4              13090      0t0   TCP localhost:60406->localhost:7019 (CLOSE_WAIT)
    tsmb-serv 911 root   83u     IPv4              13077      0t0   TCP localhost:afs3-volser->localhost:55016 (ESTABLISHED)
    tsmb-serv 911 root   84u     IPv4              13092      0t0   TCP localhost:58996->localhost:7013 (CLOSE_WAIT)
    ~ # cd /proc/911

    после первого же обращения с клиента к папке на диске (клиент Windows) - Z (зомби процесс и [tsmb_release])

    /proc/911 # ps | grep tsmb
      911 root         0 Z    [tsmb-server]
      921 root         0 SW   [tsmb_core]
     1034 root         0 SW   [tsmb_transport0]
     2909 root         0 SW   [tsmb_release]
    
    /proc/911 # cat status
    Name:   tsmb-server
    State:  Z (zombie)
    Tgid:   911
    Ngid:   0
    Pid:    911
    PPid:   510
    TracerPid:      0
    Uid:    0       0       0       0
    Gid:    0       0       0       0
    FDSize: 0
    Groups:  
    Threads:        2
    SigQ:   0/1955
    SigPnd: 0000000000000000
    ShdPnd: 0000000000000000
    SigBlk: 0000000000004a02
    SigIgn: 0000000000001000
    SigCgt: 0000008000000000
    CapInh: 0000000000000000
    CapPrm: 0000003fffffffff
    CapEff: 0000003fffffffff
    CapBnd: 0000003fffffffff
    CapAmb: 0000000000000000
    Speculation_Store_Bypass:       unknown
    Cpus_allowed:   3
    Cpus_allowed_list:      0-1
    voluntary_ctxt_switches:        283
    nonvoluntary_ctxt_switches:     8
    /proc/911 #
    
    
    0xffffff800baaa000-0xffffff800baac000    8192 tsmb_core_open+0x34/0x110 [tsmb] pages=1 vmalloc
    0xffffff800baac000-0xffffff800baae000    8192 tsmb_upcase_get_default_table+0x70/0x1f0 [tsmb] pages=1 vmalloc
    0xffffff800baae000-0xffffff800bacf000  135168 tsmb_upcase_get_default_table+0x84/0x1f0 [tsmb] pages=32 vmalloc
    0xffffff800bacf000-0xffffff800bad1000    8192 tsmb_table_bitmap_alloc.constprop.0+0x50/0xb4 [tsmb] pages=1 vmalloc
    0xffffff800bad1000-0xffffff800bad3000    8192 tsmb_table_bitmap_alloc.constprop.0+0x50/0xb4 [tsmb] pages=1 vmalloc
    0xffffff800bad3000-0xffffff800bad5000    8192 tsmb_table_bitmap_alloc.constprop.0+0x50/0xb4 [tsmb] pages=1 vmalloc
    0xffffff800bad5000-0xffffff800bad7000    8192 tsmb_timer_create+0x20/0x100 [tsmb] pages=1 vmalloc
    0xffffff800bad7000-0xffffff800bad9000    8192 tsmb_table_bitmap_alloc.constprop.0+0x50/0xb4 [tsmb] pages=1 vmalloc
    0xffffff800bad9000-0xffffff800badb000    8192 tsmb_timer_create+0x20/0x100 [tsmb] pages=1 vmalloc
    
    0xffffff800bdc9000-0xffffff800bdcb000    8192 tsmb_table_bitmap_alloc.constprop.0+0x50/0xb4 [tsmb] pages=1 vmalloc
    
    0xffffff800d1b3000-0xffffff800d1b5000    8192 tsmb_table_bitmap_alloc.constprop.0+0x50/0xb4 [tsmb] pages=1 vmalloc
    0xffffff800d1cb000-0xffffff800d1cd000    8192 tsmb_sec_ctx_copy+0x24/0x50 [tsmb] pages=1 vmalloc
    
        <process>
            <comm>tsmb-server</comm>
            <oom-adj>4</oom-adj>
            <oom-score>0</oom-score>
            <oom-score-adj>250</oom-score-adj>
            <state>Z (zombie)</state>
            <pid>911</pid>
            <ppid>510</ppid>
            <threads>2</threads>
            <fds>0</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>1959.856605</now>
                    <min>0</min>
                    <max>0</max>
                    <avg>0</avg>
                    <cur>0</cur>
                </cpu>
            </statistics>
            <object>
                <id>CIFS</id>
                <state>RUNNING</state>
            </object>
            <service>
                <configured>yes</configured>
                <alive>yes</alive>
                <started>yes</started>
                <state>STARTED</state>
            </service>
        </process>
    ...
        <process>
            <comm>tsmb_release</comm>
            <oom-adj>0</oom-adj>
            <oom-score>0</oom-score>
            <oom-score-adj>0</oom-score-adj>
            <state>S (sleeping)</state>
            <pid>2909</pid>
            <ppid>2</ppid>
            <threads>1</threads>
            <fds>0</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>1959.856942</now>
                    <min>0</min>
                    <max>0</max>
                    <avg>0</avg>
                    <cur>0</cur>
                </cpu>
            </statistics>
        </process>

     

    Опять откат.

    • Thanks 1
  8. 1 час назад, LiF сказал:

    Есть два кинетика. Один 4g, второй start. Стоят в разных местах частного дома. Работают в mesh по wi-fi, мозгом является 4g. Основной канал в инет через usb-модем с внешней антенной, подключенный к 4g. Появилась возможность подвести кабельный инет, но только в то место, где стоит start. Есть ли какая-то возможность прокинуть этот проводной канал через wi-fi от start по Mesh до 4g, чтобы он стал основным каналом, а симка резервным?

    Так вот как его дать, если направленная антенна для работы 4g канала есть только в том месте, где сейчас стоит 4g.

    Если только уберете mesh, у вас будет два роутера в основном режиме которые будут со своими каналами интернета. Основной роутер 4G и дополнительный start . На 4G войдите в WISP далее обзор сетей и найдите свой start, далее сделайте этот канал основным, а 4G у вас будет резервным. В переводе на простой язык это типа

    Инет1----start[LAN]------[WAN1]4G[WAN2]-----Инет2

    но придется все перестроить касается start так же и дом.сеть на нем.

    Самое простое это провод от start к 4G

  9. 5 часов назад, over сказал:

    Доброе время.

    Поделитесь идеей, как можно настроить роутер так, чтобы он ходил только через vpn. У меня настроено постоянное wireguard vpn подключение, хочу настроить роутер так, чтобы если оно перестанет работать, интернет на двух других интернет каналах не раздавался, пока vpn не поднимется. Есть ли такая возможность?

    В текущий реализации ПО wireguard поднимается на том канале который default. Второе если несколько каналов выхода в интернет то они имеют приоритеты у которого он выше он же основной и он же defualt, а второй просто в резерве. Wireguard это по барабану т.е. канал пропал основной как итог произошла смена defàult маршрута - переписался стат маршрут на сервер wireguard на тот интерфейс который debfault. Время на столько мало что wireguard это может даже нё заметить.. 

    Создание профиля в котором wireguard один и в этом профиле только клиенты в итоге пока wireguard работает то клиенты профиля выходят в интерне, проблемы на wireguard (из за например на канале интерна) и клиенты не выходят в интернет. Это поможет если време восстановления каналов интернет большое. 

    На пальцах - два канала поднят wireguard warp,  создан прьфиль с одним каналом в котором только wireguard warp и клиенты. Все работает идем в web и делаем смену одного канала на другой  - клиент этого даже не заметил как и сам wireguard, параметр alive на warp стоит 120.

  10. 15 минут назад, Liqul сказал:

    Здравствуйте. У меня есть DHCP-сервер, который раздает IP адреса и интернет, и мне нужно присоединить к ней роутер Keeneticи сделать Mesh через него. Никак не получается это сделать, пробовал отключать DHCP-сервер на роутере или делать Relay через свой DHCP, но интернета тогда нет.

    DHCP сервер который раздает адреса клиентов и интернет это разные вещи за исключением одного у них один IP. DHCP сервер передает клиенту и IP адрес шлюза. Например - сервер DHCP и он же шлюз для выхода в интернет 192.168.11.100, тогда клиент клиент должен получить какой то IP для себя например 192.168.11.222 и адрес шлюза 192.168.11.100. DNS так же должен быть иначе ни как.

    Не понятно что вы хотите - схема ????

  11. 15 минут назад, Novarg сказал:

    Здравствуйте, можно ли как-то принудительно пускать весь траффик от transmission через встроенный wireguard vpn?

    Есть реализация использования локального сервиса через профиль multipath
     

    
    ip policy Policy1
        description In-2
        permit global GigabitEthernet0/Vlan9
        permit global PPPoE0
        multipath
    
    torrent
        rpc-port 8090
        peer-port 51413
        directory D3-1:/Torrnet
        policy Policy1

    то кто мешает его пустить через профиль в котором только один канал WG.

    Меняем

    torrent
        rpc-port 8090
        peer-port 51413
        directory D3-1:/Torrnet
        policy Policy0
    
    ip policy Policy0
        description Cloud
        permit global Wireguard0
    ...

    Создайте профиль с нужным каналом и далее в WEB cli - 192.168.1.1/a или исправление в конф файле роутера.

    • Thanks 1
  12. В свое время пробовал "хитрую" схему, но может она не хитрая, а как то мудрено или наоборот проще - по возможности контроль оставить ПО прошивки.

    1. Есть профили :

    - основной

    - WG от WARP (в итоге "MARK set 0xffffd00" и table 42 в которой "default dev nwg0  scope link") актив канал только он

    - WG от Proton (в итоге "MARK set 0xffffd02" и table 44 в которой "default dev nwg4  scope link") актив канал только он

    Важная ремарка которую нужно учитывать - MARK пакетов будет только после наличия клиента в данном/нужном профиле, нет клиента нет и маркировки (но ее можно и руками)

    2. Нужно было обеспечить доступ к netflix сайту для клиента -> это позволяет профиль от Proton.

    Задача на клиенте использовать выход по WARP но на сайт netflix через Proton

    Скрытый текст
    скрипт в /opt/etc/ndm/netfilter.d
    
    #!/bin/sh
    
    [ "$table" != "mangle" ] && exit 0
    
    if [ -z "$(iptables-save | grep 'netflix')" ]; then
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j RETURN
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j CONNMARK --save-mark 
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j MARK --set-mark 0xffffd00
    fi
    
    exit 0
    
    Настройки AdguardHome 
    
    ipset: []
      ipset_file: /opt/home/AdGuardHome/ipset.conf
    
    И само содержимое файла 
    
    flxvpn.net,netflix.ca,netflix.com,netflix.com.au,netflixdnstest10.com,netflixdnstest1.com,netflixdnstest2.com,netflixdnstest3.com,netflixdnstest4.com,netflixdnstest5.com,netflixdnstest6.com,netflixdnstest7.com,netflixdnstest8.com,netflixdnstest9.com,netflixinvestor.com,netflix.net,netflixstudios.com,netflixtechblog.com,nflxext.com,nflximg.com,nflximg.net,nflxso.net,nflxvideo.net/netflix
    
    Единственную команду 
     
    ipset create netflix hash:ip hashsize 4096
    
    Можно поместить в /opt/etc/init.d/105-Start.sh например скрипт

    Пояснения

    _NDM_HOTSPOT_PRERT - это место как раз для HOTSPOT PREROUTING

    Она будет выглядеть так

    Chain _NDM_HOTSPOT_PRERT (1 references)
     pkts bytes target     prot opt in     out     source               destination         
      490 84052 MARK       all  --  br0    *       192.168.130.2        0.0.0.0/0            MARK set 0xffffd00
       79 26503 MARK       all  --  br0    *       192.168.130.2        0.0.0.0/0            match-set netflix dst MARK set 0xffffd02
      490 84052 CONNMARK   all  --  br0    *       192.168.130.2        0.0.0.0/0            CONNMARK save
      490 84052 RETURN     all  --  br0    *       192.168.130.2        0.0.0.0/0   

    и должна выглядеть именно так

    т.е. у нас для клиента есть два варианте - на все сайты это WARP (mark 0xffffd00) а на сайт netflix это Proton (mark 0xffffd02) маршрутизация согласно профилям для данных маркировок.

    Примечание чтоб остальное не нарушить для данного клиента он так же помещен в профиль WARP, хотя можно его и оставить в основном профиле, тогда это только

    #!/bin/sh
    
    [ "$table" != "mangle" ] && exit 0
    
    if [ -z "$(iptables-save | grep 'netflix')" ]; then
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j RETURN
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j CONNMARK --save-mark 
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -m set --match-set netflix dst -j MARK --set-mark 0xffffd02
    fi
    
    exit 0

    /opt/etc/init.d # ipset list netflix

    /opt/etc/init.d # ipset list netflix
    Name: netflix
    Type: hash:ip
    Revision: 4
    Header: family inet hashsize 4096 maxelem 65536
    Size in memory: 1008
    References: 2
    Members:
    54.246.79.9
    54.74.73.31
    46.137.171.215
    45.57.0.158
    3.251.50.149
    34.252.74.1
    45.57.90.1
    45.57.91.1
    54.73.148.110
    18.200.8.190
    198.38.115.173
    54.170.196.176
    198.38.115.168
    52.31.48.193
    45.57.0.163
    198.38.115.185
    54.155.178.5
    52.214.181.141
    54.155.246.232
    /opt/etc/init.d # 

    ***

    Еще один пример на этом же методе но с " dscp "

     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j RETURN
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j CONNMARK --save-mark 
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -m dscp --dscp 63 -j MARK --set-mark 0xffffd01
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.130.2/32 -j MARK --set-mark 0xffffd00

    -m dscp --dscp 63 - это маркировка для приложения на клиенте торрент качалки которая выходит по профилю multipath (его маркировка mark 0xffffd01 и его table 43), а все остальное на WARP профиль. Опять именно в такой последовательности -> сначала mark для профиля WARP и если пакет не для торрент то идем далее, если же он для торрента то устанавливаем mark для профиля multipath

    Как и сказал выше суть его в том как можно больше использовать уже готовый функционал в ПО :

    1. не надо строить ни каких своих table (WEB создаст профиль и table для него);

    2. для поддержания актуальности таблицы роутинга поддержка ее на плечах ПО роутера, так как есть профиль -> есть и table

    3. осталась только маркировка но тут как говориться вариантов много, кому как нравится

    Как то так, все оба варианта проверены :

    - по первому speedtest показал IP от WARP 104.28.ххх.ххх, и netflix открылся по Proton (так как регион RU заблокирован для него)

    - по второму торрент качалка с клиента шла на multipath (видно было по системному монитору на двух каналах) а тот же speedtest с этого клиента по WARP.

     

    Был замечен глюк не глюк (может просто накладка была) при втором варианте с применением

    net.ipv4.fib_multipath_hash_policy 1

    для multipath

    ***

    DNS тут везде завернут на AGH, т.е. на любом интерфейсе IP DNS указывает на роутер, так как он вертится на

    dns:
      bind_hosts:
        - 192.168.130.101
        - 127.0.0.1
      port: 53

    и пока работает такая схема где 192.168.130.101 это сам роутер

    ip name-server 192.168.130.101 "" on Wireguard0
    ip name-server 192.168.130.101 "" on Wireguard4
    
    где Wireguard0 это профиль WARP, а Wireguard4 это профиль Proton

     

    Фильтры ни какие не используются и даже не рассматривались.

  13. 8 минут назад, Freedom сказал:

    Как вариант (плохой), сделать cron, который раз в час будет резолвить все домены и добавлять ip-адреса в ipset, или даже в статические маршруты (не знаю как лучше)

    Смотрите в сторону

     

     

    • Thanks 1
  14. Откатил на KN-2710_draft_4.00.C.2.0-1_firmware.bin -> проблема ушла.

    Все ОК

    Скрытый текст
        <process>
            <comm>tsmb-server</comm>
            <oom-adj>4</oom-adj>
            <oom-score>251</oom-score>
            <oom-score-adj>250</oom-score-adj>
            <arg>-c</arg>
            <arg>/var/run/tsmb/tsmb.conf</arg>
            <state>S (sleeping)</state>
            <pid>902</pid>
            <ppid>510</ppid>
            <vm-size>11532 kB</vm-size>
            <vm-rss>4656 kB</vm-rss>
            <vm-data>6332 kB</vm-data>
            <vm-stk>132 kB</vm-stk>
            <vm-exe>780 kB</vm-exe>
            <vm-lib>3680 kB</vm-lib>
            <vm-swap>0 kB</vm-swap>
            <threads>43</threads>
            <fds>85</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>207.776869</now>
                    <min>0</min>
                    <max>0</max>
                    <avg>0</avg>
                    <cur>0</cur>
                </cpu>
            </statistics>
            <object>
                <id>CIFS</id>
                <state>RUNNING</state>
            </object>
            <service>
                <configured>yes</configured>
                <alive>yes</alive>
                <started>yes</started>
                <state>STARTED</state>
            </service>
        </process>

    и ни каких

    <process>
            <comm>tsmb-server</comm>
    ...
            <state>Z (zombie)</state>
            <pid>914</pid>
            <ppid>510</ppid>
    ...      
         <process>
            <comm>tsmb_release</comm>
    ...
            <state>S (sleeping)</state>

     

     

  15. 2 часа назад, defrag сказал:

    Понял, а если не писать логи? Или... Возможно ли писать логи на Synology? AGH на роутере, а логи чтобы писал по сети в Syno? У меня флешка стояла с entware, но грелась от одного AGH кошмарно просто. 4 месяца и сдохла. Жесткий диск подключать – чисто эстетически на стене в коридоре будет очень странно выглядеть. А рядом по сути стоит Syno. Если реально писать логи туда, то подскажите, пожалуйста?

    А может вообще логи просто отключить? У вас AGH на роутере без логов?

    1. Вариант А

    Скрытый текст

    Выделенный шрифт это просто на пробу делал.

    -1.thumb.jpg.e05a6c1c282e169a478f0303276f01e8.jpg

    2. Вариант B

    Подключаете flash (но лучше HDD), OPKG может оставить в памяти, далее переносите ваш AdGuardHome на flash/HDD. Правите скрипт запуска на место где у вас будет AdGuardHome в место где например у меня /opt/home/AdGuardHome укажите свое после подключения flash/HDD (для начала команда df)

    ARGS="-w /opt/home/AdGuardHome -l /opt/tmp/AdGuardHome.log --pidfile /opt/var/run/adguardhome.pid --no-check-update"

    почему так, потому что querylog.json файлы пишутся в каталог .../AdGuardHome/data

     

     

    • Upvote 1
  16. Еще прикольней

    1. перезапуск Peak

    Скрытый текст
    ~ # ps | grep tsmb
      914 root     11468 S    /sbin/tsmb-server -c /var/run/tsmb/tsmb.conf
      922 root         0 SW   [tsmb_core]
     1029 root         0 SW   [tsmb_transport0]
     ~ #
    
        <process>
            <comm>tsmb-server</comm>
            <oom-adj>4</oom-adj>
            <oom-score>251</oom-score>
            <oom-score-adj>250</oom-score-adj>
            <arg>-c</arg>
            <arg>/var/run/tsmb/tsmb.conf</arg>
            <state>S (sleeping)</state>
            <pid>914</pid>
            <ppid>510</ppid>
            <vm-size>11468 kB</vm-size>
            <vm-rss>4520 kB</vm-rss>
            <vm-data>6240 kB</vm-data>
            <vm-stk>132 kB</vm-stk>
            <vm-exe>776 kB</vm-exe>
            <vm-lib>3720 kB</vm-lib>
            <vm-swap>0 kB</vm-swap>
            <threads>42</threads>
            <fds>85</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>692.831120</now>
                    <min>0</min>
                    <max>0</max>
                    <avg>0</avg>
                    <cur>0</cur>
                </cpu>
            </statistics>

     

    на клиенте Windows данный роутер виден

    2. Обращение к данному роутеру из Windows клиента, а в ответ тишина и ошибка Windows

    Скрытый текст
    ~ # ps | grep tsmb
      914 root         0 Z    [tsmb-server]
      922 root         0 SW   [tsmb_core]
     1029 root         0 SW   [tsmb_transport0]
     2179 root         0 SW   [tsmb_release]
    ~ # 
    
    <process>
            <comm>tsmb-server</comm>
            <oom-adj>4</oom-adj>
            <oom-score>0</oom-score>
            <oom-score-adj>250</oom-score-adj>
            <state>Z (zombie)</state>
            <pid>914</pid>
            <ppid>510</ppid>
            <threads>2</threads>
            <fds>0</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>1331.831120</now>
                    <min>0</min>
                    <max>0</max>
                    <avg>0</avg>
                    <cur>0</cur>
                </cpu>
            </statistics>
            <object>
                <id>CIFS</id>
                <state>RUNNING</state>
            </object>
            <service>
                <configured>yes</configured>
                <alive>yes</alive>
                <started>yes</started>
                <state>STARTED</state>
            </service>
        </process>
    
     а было 
        <process>
            <comm>tsmb-server</comm>
            <oom-adj>4</oom-adj>
            <oom-score>251</oom-score>
            <oom-score-adj>250</oom-score-adj>
            <arg>-c</arg>
            <arg>/var/run/tsmb/tsmb.conf</arg>
            <state>S (sleeping)</state>
            <pid>914</pid>
            <ppid>510</ppid>
            <vm-size>11468 kB</vm-size>
            <vm-rss>4520 kB</vm-rss>
            <vm-data>6240 kB</vm-data>
            <vm-stk>132 kB</vm-stk>
            <vm-exe>776 kB</vm-exe>
            <vm-lib>3720 kB</vm-lib>
            <vm-swap>0 kB</vm-swap>
            <threads>42</threads>
          
         <process>
            <comm>tsmb_release</comm>
            <oom-adj>0</oom-adj>
            <oom-score>0</oom-score>
            <oom-score-adj>0</oom-score-adj>
            <state>S (sleeping)</state>
            <pid>2179</pid>
            <ppid>2</ppid>
            <threads>1</threads>
            <fds>0</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>1331.831402</now>
                    <min>0</min>
                    <max>0</max>
                    <avg>0</avg>
                    <cur>0</cur>
                </cpu>
            </statistics>
        </process>

     

     

     

  17. При переходе на 4.1 Alpha 1 с 403 на Peak при добавление нового WEB в итоге не запустился сервис "service cifs"

    Страница "Приложения" - Эта страница находится в стадии разработки и скоро будет готова. Перехожу в старый и как итог "Сервер SMB" включен но по факту

    ~ # ps | grep tsmb
      915 root         0 Z    [tsmb-server]
      924 root         0 SW   [tsmb_core]
     1022 root         0 SW   [tsmb_transport0]
     1480 root         0 SW   [tsmb_release]
    ~ # 
    

    Нет самого сервиса - tsmb-server запущенного с конф файлом

    /sbin/tsmb-server -c /var/run/tsmb/tsmb.conf

    при налияие самого конф файла

    Скрытый текст
    /sbin # cat /var/run/tsmb/tsmb.conf
    [global]
            userdb_type = text
            userdb_file = /var/run/tsmb/users_db.txt
            privilegedb = /var/run/tsmb/privilege.txt
            runstate_dir = /var/run/tsmb
            enable_ipc = true
            domain = WORKGROUP
            dialect_max = SMB3.1.1
            allow_guest = true
            null_session_access = true
            require_message_signing = false
            encrypt_data = false
            enable_oplock = true
            reject_unencrypted_access = false
            unix_extensions = false
            log_destination = syslog
            open_files_max = 0
            sess_open_files_max = 0
            listen = ANY,192.168.130.101,IPv4,445,DIRECT_TCP
            listen = ANY,192.168.130.101,IPv4,137,NBNS
            listen = ANY,192.168.130.101,IPv4,138,NBDS
            listen = br0,::,IPv6,445,DIRECT_TCP
            listen = ANY,192.168.130.101,IPv4,3702,WSD
            listen = ANY,192.168.130.101,IPv4,5355,LLMNR
            listen = ANY,192.168.130.101,IPv4,139,NBSS
            listen = br0,::,IPv6,139,NBSS
            log_level = 1
    [/global]
    /sbin # 

     

    Скрытый текст
    service cifs
    
    cifs
        share D3-1 D3-1:
        automount
        permissive
    
    
        <process>
            <comm>tsmb-server</comm>
            <oom-adj>4</oom-adj>
            <oom-score>0</oom-score>
            <oom-score-adj>250</oom-score-adj>
            <state>Z (zombie)</state>
            <pid>915</pid>
            <ppid>510</ppid>
            <threads>2</threads>
            <fds>0</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>37573.839777</now>
                    <min>0</min>
                    <max>0</max>
                    <avg>0</avg>
                    <cur>0</cur>
                </cpu>
            </statistics>
            <object>
                <id>CIFS</id>
                <state>KILLING</state>
            </object>
            <service>
                <configured>yes</configured>
                <alive>yes</alive>
                <started>yes</started>
                <state>RESTARTING</state>
            </service>
        </process>
    
    [W] Aug  5 21:50:33 ndm: Process: "CIFS" has been killed. 
    [I] Aug  5 21:50:43 kernel: Disable SMB fastpath
    [I] Aug  5 21:50:43 ndm: Cifs::ServerTsmb: enabled. 

     

    Пока на 4.1 Alpha 1 оживить TSMB не получилось, переключение в WEB (старый) в итоге просто

    Авг 6 08:18:38 kernel Disable SMB fastpath
    Авг 6 08:18:38 ndm Cifs::ServerTsmb: enabled.
    Авг 6 08:18:38 kernel Enable SMB fastpath for 192.168.1.1/255.255.255.0
    Авг 6 08:18:38 ndm Core::System::StartupConfig: saving (http/rci). 
    
    а по факту
    
    /sbin # ps | grep tsmb
      915 root         0 Z    [tsmb-server]
      924 root         0 SW   [tsmb_core]
     1022 root         0 SW   [tsmb_transport0]
     1480 root         0 SW   [tsmb_release]
    13082 root      5984 R    grep tsmb
    /sbin # 
    
    в место
    
    ~ # ps | grep tsmb
      897 root     11684 S    /sbin/tsmb-server -c /var/run/tsmb/tsmb.conf
      906 root         0 SW   [tsmb_core]
     1205 root         0 SW   [tsmb_transport0]

     

    • Thanks 1
  18. 7 часов назад, VitalityV1nT сказал:

    А внутреннюю память лучше не трогать и оставить в покое. Использовать ее рекомендуется только на крайний случай.

    Не первый год использую внутреннюю память с Entware без проблем, но как писал выше сервисы без логов и записи чего бы то ни было на нее. 

  19. 8 часов назад, defrag сказал:

    Благодарю за детальный ответ. Речь о памяти во вкладке "Приложения".

    На сколько я понимаю, лучшим решением будет установка agh именно на роутер. Вот этой памяти и не хватает для AGH + пару дней логов. В новой ультре больше 55 мб? )))

    Screenshot 06-08-2023-00.40.30@2x.png

    Не делают так, подключайте hdd и пишите свои логи на него, это относиться к любым приложениям которые ведут логи.

  20. 1 час назад, defrag сказал:

    а у вас тоже доступная память всего 55 Мб?

    О какой памяти идет речь если о памяти роутера то 256 для его использования маловато, тогда нужны миним.настройки для AdGyardHome. Второе - логи :

    1. логи querylog

    drwxr-xr-x    2 root     root          1024 Aug  4 06:30 filters
    -rw-r--r--    1 root     root       5147125 Aug  5 16:07 querylog.json
    -rw-r--r--    1 root     root      13866955 Aug  4 17:12 querylog.json.1
    -rw-r--r--    1 root     root         32768 Aug  4 05:55 sessions.db
    -rw-r--r--    1 root     root        262144 Aug  5 16:00 stats.db
    
    querylog.json
    **************
    {"T":"2023-08-05T16:07:51.94723024Z","QH":"clck.yandex.ru","QT":"A","QC":"IN","CP":"","Answer":"WIeBgwAB......AAADhAAJOoAAAVGA","IP":"192.168.1.1","Result":{"Rules":[{"Text":"||clck.yandex.ru^$~other","FilterListID":1680111111}],"Reason":3,"IsFiltered":true},"Elapsed":282240}
    {"T":"2023-08-05T16:07:58.26618776Z","QH":"ds-blobs-3.cdn.devapps.ru","QT":"A","QC":"IN","CP":"","Upstream":"tls://dns.google.com:853","Answer":"kL+B....ej24=","IP":"192.168.1.1","Result":{},"Elapsed":57264000}
    {"T":"2023-08-05T16:07:58.39150784Z","QH":"ds-blobs-3.cdn.devapps.ru","QT":"A","QC":"IN","CP":"","Upstream":"tls://dns.google.com:853","Answer":"45GBg.....j24=","IP":"192.168.1.1","Result":{},"Elapsed":133800240}

    2. обычные - /opt/tmp/AdGuardHome.log

    Третье - размер используемой/занимаемой памяти -> сохраните selftest файл и сделайте в нем поиск AdGuardHome

        <process>
            <comm>AdGuardHome</comm>
            <oom-adj>0</oom-adj>
            <oom-score>14</oom-score>
            <oom-score-adj>0</oom-score-adj>
            <arg>-w</arg>
            <arg>/opt/home/AdGuardHome</arg>
            <arg>-l</arg>
            <arg>/opt/tmp/AdGuardHome.log</arg>
            <arg>--pidfile</arg>
            <arg>/opt/var/run/adguardhome.pid</arg>
            <arg>--no-check-update</arg>
            <state>S (sleeping)</state>
            <pid>974</pid>
            <ppid>1</ppid>
            <vm-size>748868 kB</vm-size>
            <vm-rss>45308 kB</vm-rss>
            <vm-data>102688 kB</vm-data>
            <vm-stk>132 kB</vm-stk>
            <vm-exe>7412 kB</vm-exe>
            <vm-lib>4 kB</vm-lib>
            <vm-swap>0 kB</vm-swap>
            <threads>8</threads>
            <fds>34</fds>
            <statistics>
                <interval>30</interval>
                <cpu>
                    <now>409.747969</now>
                    <min>0</min>
                    <max>3</max>
                    <avg>0</avg>
                    <cur>3</cur>
                </cpu>
            </statistics>
        </process>
    • VmPeak — пиковый размер использования виртуально памяти;
    • VmSize — размер виртуальной памяти в данный момент;
    • VmHWM — пиковый размер использования резидентной памяти;
    • VmRSS — размер резидентной памяти в данный момент;
    • VmExe — код приложения;
    • VmLib — используемые библиотеки;
    • VmSwap — часть данных сброшенная на раздел подкачки;
    • VmData — размер сегмента данных процесса.
    Скрытый текст
    967 - это pid процесса AdGuardHome (в примере выше он <pid>974</pid> -> 964), на роутере с 512 Озу, есть пару больших фильтров как раз для теста расхода памяти
    
    /proc/967 # cat status
    Name:   AdGuardHome
    Umask:  0022
    State:  S (sleeping)
    Tgid:   967
    Ngid:   0
    Pid:    967
    PPid:   1
    TracerPid:      0
    Uid:    0       0       0       0
    Gid:    0       0       0       0
    FDSize: 64
    Groups:  
    VmPeak:   885228 kB
    VmSize:   885228 kB
    VmLck:         0 kB
    VmPin:         0 kB
    VmHWM:    176736 kB
    VmRSS:     93548 kB
    RssAnon:           78396 kB
    RssFile:           15152 kB
    RssShmem:              0 kB
    VmData:   206280 kB
    VmStk:       132 kB
    VmExe:      7412 kB
    VmLib:         4 kB
    VmPTE:       404 kB
    VmPMD:        20 kB
    VmSwap:        0 kB
    Threads:        8

     

    Есть еще один жирный процесс для роутера это "Классификация трафика и IntelliQoS" его расходы по памяти :

    Скрытый текст
    /proc/2340 # cat status
    Name:   ntce-pace2
    Umask:  0022
    State:  S (sleeping)
    Tgid:   2340
    Ngid:   0
    Pid:    2340
    PPid:   510
    TracerPid:      0
    Uid:    65534   65534   65534   65534
    Gid:    65534   65534   65534   65534
    FDSize: 128
    Groups:  
    VmPeak:    80724 kB
    VmSize:    80704 kB
    VmLck:         0 kB
    VmPin:         0 kB
    VmHWM:     78096 kB
    VmRSS:     78076 kB
    RssAnon:           68512 kB
    RssFile:            9564 kB
    RssShmem:              0 kB
    VmData:    68828 kB
    VmStk:       132 kB
    VmExe:       104 kB
    VmLib:      6916 kB
    VmPTE:       172 kB
    VmPMD:        12 kB
    VmSwap:        0 kB
    Threads:        1
    SigQ:   0/1955
    SigPnd: 0000000000000000
    ShdPnd: 0000000000000000
    SigBlk: fffffffc7ffbba54
    SigIgn: 0000000000001000
    SigCgt: 0000000000004002
    CapInh: 0000000000000000
    CapPrm: 0000000000000000
    CapEff: 0000000000000000
    CapBnd: 0000003fffffffff
    CapAmb: 0000000000000000
    Speculation_Store_Bypass:       unknown
    Cpus_allowed:   3
    Cpus_allowed_list:      0-1
    voluntary_ctxt_switches:        27263
    nonvoluntary_ctxt_switches:     3
    /proc/2340 # 

     

    Необходимо это учитывать - что важнее или что нужно.

  21. 29 минут назад, Monstr86 сказал:

    А зачем так сложно? разве это не будет работать просто с профилями как вы и описали, в нужный профиль добавляем зарегистрированного клиента и все, весь трафик идет через него от определенного клиента.

    В вашем вопросе есть вводная - весь трафик идет через него

    В описанном случае выше клиент один 192.168.1.100 но он хочет :

    1. для приложения ААААААА выход через канал - например инет1

    2. остальные приложения пустить через канал - например инет2

    все это на одном клиенте

     

    Попробуйте удаленного клиента который подключен к роутеру по VPN каналу - добавьте его в нужный профиль.

  22. 12 часа назад, baddyt сказал:

    Добрый день. Какие образом можно реализовать маршрутизацию трафика от конкретного клиента только в  конкретный тоннель, как на энтерпрайз устройствах? То есть необходимо, чтобы трафик устройства 192.168.1.10 (условно) всегда направлялся в тоннель wireguard, а трафик устройства 192.168.1.11 (условно) всегда направлялся в тоннель ipsec

    Поищите посты на данном форуме

    Далее необходимы чуток познания в установке Entware + написания скрипта для автом.работы.

     

    На пальцах - на роутере создаются профили (в нужный профиль включен нужный канал) -> для каждого профиля создается таблица маршрутизации -> необходимо поместить данного клиента ОН ИМЕЕТ IP в нужную таблицу маршрутизации. Первая часть все делает прошивка, вторая поиск нужной table через WEB-cli (команда "show ip policy" параметры "description": "WG", "mark": "ffffd00", "table4": 42), третья поместить данного клиента в table 42.

    Маленькая ремарка - маркировка пакетов для данного профиля создается только тогда когда будет подключен клиент, но можно и все сделать самому написав эти правила маркировки.

    Тут на форуме много примеров для использования table маршрутизации.

     

    ******

    Так например пример - на клиенте локальной сети Windows есть приложение например торрент клиент (это приложение, хотя можно и любое другое, Windows настройках оно определяется как имя запуска файла) которое нужно завернуть в нужный нам канал (выхода в интернет) отличный от канала для самого клиента/ Ниже пример когда клиент весь в профиль 0xffffd00 а приложение в профиль 0xffffd01 или можно оставить клиента в основном профиле а приложение в один единственный профиль. Приложение может быть любым например бразур A по одному каналу, а браузер B по другому.

    1. Настройки Windows для маркировки пакетов данного приложения (есть в интернете с полным описанием что и как это сделать)

    2. Скрипт для роутера будет выглядеть как пример

    Скрытый текст
    /opt/etc/ndm/netfilter.d -> 100-fwmarks.sh
    
    #!/bin/sh
    
    [ "$table" != "mangle" ] && exit 0
    
    if [ -z "$(iptables-save | grep 'dscp')" ]; then
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.1.20/32 -j RETURN
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.1.20/32 -j CONNMARK --save-mark 
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.1.20/32 -m dscp --dscp 63 -j MARK --set-mark 0xffffd01
     iptables -t mangle -I _NDM_HOTSPOT_PRERT -i br0 -s 192.168.1.20/32 -j MARK --set-mark 0xffffd00
    fi
    exit 0
    
    
    Chain _NDM_HOTSPOT_PRERT (1 references)
     pkts bytes target     prot opt in     out     source               destination         
     1899  295K MARK       all  --  br0    *       192.168.1.20         0.0.0.0/0            MARK set 0xffffd00
      316 42283 MARK       all  --  br0    *       192.168.1.20         0.0.0.0/0            DSCP match 0x3f MARK set 0xffffd01
     1914  297K CONNMARK   all  --  br0    *       192.168.1.20         0.0.0.0/0            CONNMARK save
     1918  298K RETURN     all  --  br0    *       192.168.1.20         0.0.0.0/0
    
    ~ # lsmod | grep dscp
    xt_dscp                 1953  1
    ~ # 

    где

    -s 192.168.1.20/32 = источник, клиент локальной сети

    -m dscp --dscp 63 = пакеты от приложения Windows клиента

    --set-mark 0xffffd01 = профиль созданный в ПО роутера и в котором канал выхода в интернет например А

    --set-mark 0xffffd00 = профиль созданный в ПО роутера и в котором канал выхода в интернет например B

    NDM_HOTSPOT_PRERT = цепочка в которой будет размещены данные правила

    В итоге маркированные пакеты будут уходить через нужные table по нужным каналам.

    Скрытый текст
    show ip policy 
    
    
    "Policy0": {
                "description": "Cloud",
                "mark": "ffffd00",
                "table4": 42
    ...
           },
            "Policy1": {
                "description": "In-2",
                "mark": "ffffd01",
                "table4": 43
    ...
           },
            "Policy2": {
                "description": "Tor",
                "mark": "ffffd02",
                "table4": 44
    ...

     

     

     

    Ваш вопрос для темы развития - так как по моему в ПО для этого уже все имеется.

     

    • Thanks 1
×
×
  • Create New...