From efb7b138ba42bd19945b3ab1f700c340061524f2 Mon Sep 17 00:00:00 2001 From: Sergey Matveev Date: Thu, 21 Sep 2023 20:14:31 +0300 Subject: [PATCH] =?utf8?q?=D0=A2=D0=B5=D0=BF=D0=B5=D1=80=D1=8C=20=D0=B2?= =?utf8?q?=D1=81=D0=B5=20=D0=BA=D0=BE=D0=BC=D0=BF=D1=8C=D1=8E=D1=82=D0=B5?= =?utf8?q?=D1=80=D1=8B=20=D0=B4=D0=BE=D0=BC=D0=B0=20=D0=BD=D0=B0=2010GbE?= MIME-Version: 1.0 Content-Type: text/plain; charset=utf8 Content-Transfer-Encoding: 8bit В прошлый upgrade (c88a83563caf8a6000f430b69e37aa4766315c93) я соединил только два сервера 10GbE сетью через DAC кабель. А моя основная рабочая машина, Intel NUC, ходила по 1GbE. Сегодня привезли ещё одну сетевую карту и два SFP+ на RJ45. Карта точно такая же с Mellanox ConnectX-3 чипом и двумя портами, что и заказывал прежде. Но её вставил во второй сервер, а из него вынул карту с одним SFP+ портом и Intel чипом на борту. Благо что ко всем карточкам давались низкопрофильные планки, ибо в старый сервер только такие влезают. Вставил всё это дело в NUC. И... ничего не заработало. Карта вообще не видится в списке PCI устройств. Изначально то я именно Mellanox новую купленную попробовал, потом её заменил на Intel, который точно рабочий -- подумал что может быть карта нерабочая? Но я же теперь типа немного поумнее стал после просмотра лекции введения в PCIe (4df90850b243b914bf29f7ee7396c99724af3945) и подумал что может быть в NUC, учитывая что у меня аж два NVMe там уже стоят, банально не хватает каким-то образом PCIe lane-ов или что-нибудь в этом духе? Так то в NUC 4x и 16x gen 3 порта. Поставил в BIOS: force 8x, 4x, 4x в разделе PCIe bifurcation. И всё заработало! Причём 4x gen3 lane-ов достаточно для обоих NVMe, а 8x gen2 достаточно (даже избыток) для NIC. SFP+ заработали без проблем. Проверил iperf3: более 9Gbps, но скорость сильно танцует и плавает на полгигабита. С DAC-ом 9.88 стабильно показывает. Греется, действительно, как и пишут, пипец как сильно, трогать пальцем нельзя. Но хотя бы если кабель не подключён, то вроде перестаёт. Cat7 кабеля у меня нет, только 6e. Но расстояние в полметра -- так что наверное вряд ли на что-то влияет. Так вот главное то: ping на DAC показывал ± стабильно 0.030мс, тогда как на RJ45 0.110мс, которые колбасятся и иногда >0.220, иногда чуть меньше 0.090. Добавил интерфейс в BIRD OSPF конфигурацию, указал меньший cost для 10GbE link-ов и IPv6 трафик автоматом идёт по более быстрому каналу. По умолчанию cost=10 для 1GbE. Я указал cost=5. Это сработало при подключении сервер↔сервер. Но мой NUC подключён 10GbE только к одному серверу, и 1GbE через коммутатор ко второму. Он выбирает для второго сервера маршрут через 1GbE, а не через, пускай и на один hop дальше, 10GbE link-и. Плюс раньше у меня default route шёл просто через -iface wg_gw, а сейчас это уже либо 10GbE, либо wg туннель. Надо как-то динамически менять этот default route будет. -- 2.50.0