Connection à travers Wireguard lente

piefyl

Nouveau membre
16 Mars 2024
8
2
3
Bonjour tous le monde!

Depuis mon dernier post, j'ai vachement avancé sur mon NAS :), j'ai tous mes services qui fonctionnent, y compris des que je n'avais même pas envisagé! je suis super content :). Il me reste plus que un point à corriger, c'est les performances, en effet la connection entre mon PC et mon nas à travers un VPN est très lente, ce qui fait que l'utilisation du serveur média est très limitée.

Environment​

Mon réseau:
- j'ai une freebox revolution sur la quelle j'ai activé wireguard en mode serveur avec un MTU 1420
- j'ai un vieux ubuntu que j'utilise pour swag
- j'utilise un MAC ou mon téléphone android pour profiter de mon nas

Le NAS :
- Connecté sur un réseau externe à chez moi (je n'ai aucune possibilité de configuration et ouverture dessus)
- T-BAO R1 Mini PC NAS Router, Intel N100 Processor 4 Cores 3.4GHz, 16GB DDR4 RAM 512GB SSD
- OMV 7.1.1-1 (Sandworm) installé au dessus d'un Linux 6.1.0-21-amd64 à jour
- J'ai installé Jellyfin comme serveur media
- J'ai installé le plugin OMV wireguard pour pouvoir acceder à jellyfin depuis chez moi avec la configuraiton suivante
Code:
[Interface]
PrivateKey = AAAAA
Address = 192.168.27.65/32
MTU = 1420

[Peer]
PublicKey = BBBBB
Endpoint = mon_ip:port
AllowedIPs = 192.168.27.64/27, 192.168.1.0/24
PersistentKeepalive = 25
PresharedKey = CCCCC


Performance des réseaux en speed test
- depuis le mac DOWNLOAD Mbps 299.75 UPLOAD Mbps 155.41
- depuis le nas DOWNLOAD Mbps 88.75 UPLOAD Mbps 93.32

Par contre lorsque je fait un speedtest depuis le NAS en redirigant par chez moi, j'obtient des chiffre nettement inférieur: DOWNLOAD Mbps 1.77 UPLOAD Mbps 1.22
et iperf3 (le nas étant le serveur)
Code:
Test Complete. Summary Results:
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-10.01  sec  2.62 MBytes  2.20 Mbits/sec                  sender
[  5]   0.00-10.03  sec  2.56 MBytes  2.14 Mbits/sec                  receiver
CPU Utilization: local/sender 0.1% (0.0%u/0.1%s), remote/receiver 0.4% (0.0%u/0.4%s)
rcv_tcp_congestion cubic

Je ne comprends pas la chute de performance.

Ce que j'ai testé / vérifié​

CPU​

J'ai vérifié l'utilisation CPU pendant un speedtest, j'étais vers 8%

MTU​

J'ai fait un ping depuis le nas vers mon ip de freebox, sans fragmentation
Code:
ping -M do -s 1420 mon_ip

PING mon_ip (mon_ip) 1420(1448) bytes of data.
1428 bytes from mon_ip: icmp_seq=1 ttl=55 time=26.7 ms

Parfeu​

J'ai mis toutes mes règles en "accepted"
Code:
sudo iptables -L

Chain INPUT (policy ACCEPT)
target     prot opt source               destination         
ACCEPT     tcp  --  10.0.0.0/8           anywhere             tcp dpt:ssh
ACCEPT     all  --  100.64.0.0/10        anywhere            
ACCEPT     all  --  172-0-0-0.lightspeed.brhmal.sbcglobal.net/10  anywhere            
ACCEPT     all  --  192.168.0.0/16       anywhere            
ACCEPT     tcp  --  localhost.localdomain  anywhere            
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:snpp
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:2222
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:8079
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:8096
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:3001
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:8070
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:5678
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:https
ACCEPT     tcp  --  anywhere             anywhere             tcp dpt:ssh
ACCEPT     tcp  --  anywhere             anywhere             tcp spt:https
ACCEPT     udp  --  anywhere             anywhere            
ACCEPT     tcp  --  anywhere             anywhere             state RELATED,ESTABLISHED
ACCEPT     all  --  anywhere             anywhere            

Chain FORWARD (policy ACCEPT)
target     prot opt source               destination         
ACCEPT     icmp --  anywhere             anywhere             icmp fragmentation-needed
ACCEPT     all  --  anywhere             anywhere            
ACCEPT     all  --  anywhere             anywhere            

Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination         
ACCEPT     all  --  anywhere             anywhere            

Chain DOCKER (0 references)
target     prot opt source               destination         

Chain DOCKER-ISOLATION-STAGE-1 (0 references)
target     prot opt source               destination         

Chain DOCKER-ISOLATION-STAGE-2 (0 references)
target     prot opt source               destination         

Chain DOCKER-USER (0 references)
target     prot opt source               destination

Configuration route​

J'ai vérifié les routes qui me semblent bonne:
Code:
default via ip_gateway dev enp2s0 proto dhcp src ip_nas metric 100
ip_gateway dev enp2s0 proto dhcp scope link src ip_nas metric 100
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1
172.22.0.0/16 dev br-11c19fc85d72 proto kernel scope link src 172.22.0.1
172.30.0.0/16 dev br-28f56b9e2bfe proto kernel scope link src 172.30.0.1 linkdown
192.168.1.0/24 dev wgnet_Home scope link
192.168.27.64/27 dev wgnet_Home scope link

Interfaces​

J'ai vérifié les interfaces, j'ai ai beaucoup probablement généré par les docker mais les principales enp2s0 (interface ethernet) et wgnet_home me semblent bonne:
Code:
2: enp2s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc prio state UP group default qlen 1000
    link/ether MAC brd ff:ff:ff:ff:ff:ff
    inet ip_nas/24 metric 100 brd masque scope global dynamic enp2s0
       valid_lft 85244sec preferred_lft 85244sec


363: wgnet_Home: <POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1420 qdisc noqueue state UNKNOWN group default qlen 1000
    link/none
    inet 192.168.27.65/32 scope global wgnet_Home
       valid_lft forever preferred_lft forever

tailscale​

Initialement j'utilisais tailscale, mais j'aivais des performances similaire.

Logs​

Je n'ai rien vu de spécial, mais si vous avez besoin que je vérifie quelque chose dites moi.


Voilà je suis un peu au bout de mes idées et de ce que j'ai pu voir sur le forum... Auriez vous des idées de ce qui peut limiter ma connection?

D'avance merci!
 
Un peu de nouvelles, j'ai testé avec openVPN, j'avais des performances moindre. Par contre lorsque j'ai forcé openVPN à passer par du TCP, j'ai obtenu une connection 5x plus rapide.

Code:
Test Complete. Summary Results:
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-10.00  sec  18.5 MBytes  15.5 Mbits/sec                  sender
[  5]   0.00-10.12  sec  18.8 MBytes  15.6 Mbits/sec                  receiver

Donc le pb viendrai plus de la configuration réseau UDP. Des suggestions des éléments à vérifier?

En attendant, je bascule sur openVPN :).

Merci