<div dir="ltr">Matt, just a wild guess.<div><br><div>I had problems in the past with badly configured IPv6 support and too large MTUs (unrelated).</div></div><div><br></div><div>-rsd</div></div><div class="gmail_extra"><br>
<br><div class="gmail_quote">2014-01-21 Matthew Tolle <span dir="ltr"><<a href="mailto:matt@night.com" target="_blank">matt@night.com</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Howdy Folks,<br>
<br>
I've got a 5 node setup here. My server "home" is the primary server that all other servers connect to. The configs on all the servers look like this:<br>
<br>
# cat /etc/tinc/home/hosts/node1<br>
Subnet  = <a href="http://10.2.0.0/16" target="_blank">10.2.0.0/16</a><br>
Address = 192.168.2.1<br>
<br>
<RSA KEY><br>
<br>
# cat /etc/tinc/home/hosts/node2<br>
Subnet  = <a href="http://10.3.0.0/16" target="_blank">10.3.0.0/16</a><br>
Address = 192.168.3.1<br>
<br>
<RSA KEY><br>
<br>
Etc. All the hosts are setup the same.<br>
<br>
# /sbin/tinc -n home dump subnets<br>
<a href="http://10.1.0.0/16" target="_blank">10.1.0.0/16</a> owner home<br>
<a href="http://10.2.0.0/16" target="_blank">10.2.0.0/16</a> owner node1<br>
<a href="http://10.3.0.0/16" target="_blank">10.3.0.0/16</a> owner node2<br>
<a href="http://10.4.0.0/16" target="_blank">10.4.0.0/16</a> owner node3<br>
<a href="http://10.5.0.0/16" target="_blank">10.5.0.0/16</a> owner node4<br>
<br>
# cat /etc/tinc/home/tinc-up<br>
ifconfig $INTERFACE 10.2.0.10 netmask 255.0.0.0<br>
ifconfig $INTERFACE up<br>
<br>
# cat tinc.conf<br>
Name = node1<br>
ConnectTo = home<br>
Mode = router<br>
AddressFamily = ipv4<br>
PingInterval = 600<br>
PingTimeout = 15<br>
<br>
4 out of 5 nodes work just fine. Node 2 however has issues. It does work fine for 5-30m and then pauses my connection to it. It's still up. I can't ping it over the "pause time" with 0% packet loss. Any TCP connection over the link just pauses for a while. The odd thing is it doesn't timeout. In an SSH session to the box over the tinc link I'll type "ps -ef" and 10m later I'll get the response. SSH should timeout way before then so I'm not sure what's going on. It's not like that all the time. I get maybe 15-30m when it's working just fine and then 10m of network pause. While my SSH session is paused I can see that the app on the server is talking to my primary node over the tunnel. That seems odd.<br>

<br>
The app on the node side seems happy and can reach everything it needs to. No sign of issue there. It only seems to be an issue over the tinc tunnel. It kind of feels like maybe something is routing the IP space in a different direction for a period of time and then it comes back. If that were the case my TCP ssh connection would timeout well before the connection returns to life.<br>

<br>
Has anyone seen anything like this? I've poked at a bunch of things to try and pinpoint the issue. So far no love.<br>
<br>
The routing table looks fine and the same on all of them:<br>
<br>
Kernel IP routing table<br>
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface<br>
0.0.0.0         192.168.3.1     0.0.0.0         UG    0      0        0 eth0<br>
10.0.0.0        0.0.0.0         255.0.0.0       U     0      0        0 home<br>
192.168.3.0     0.0.0.0         255.255.255.0   U     0      0        0 eth0<br>
<br>
Nothing else in node2's area uses 10. space.<br>
<br>
Any ideas I would appreciate it.<br>
<br>
Thanks,<br>
<br>
-Matt<br>
_______________________________________________<br>
tinc mailing list<br>
<a href="mailto:tinc@tinc-vpn.org">tinc@tinc-vpn.org</a><br>
<a href="http://www.tinc-vpn.org/cgi-bin/mailman/listinfo/tinc" target="_blank">http://www.tinc-vpn.org/cgi-bin/mailman/listinfo/tinc</a><br>
</blockquote></div><br></div>