Dell Intel PRO Family of Adapters Manuel d'utilisation

Page 55

Advertising
background image

Avec les options d'optimisation des performances, l'association des files d'attente FCoE du deuxième port peut être diri-
gée vers un autre ensemble de cœurs d'UC non concurrent. Les paramètres suivants indiquent au logiciel d'utiliser les
UC de l'autre socket de processeur :

l

Nombre de nœuds NUMA FCoE = 1 : Affecter les files d'attente aux cœurs d'un nœud NUMA (ou socket de pro-
cesseur) unique.

l

Nœud NUMA de départ FCoE = 1 : Utiliser les cœurs d'UC du deuxième nœud NUMA (ou socket de pro-
cesseur) du système.

l

Décalage de cœur de départ FCoE = 0 : Le logiciel démarrera au premier cœur d'UC du nœud NUMA (ou
socket de processeur).

Les paramètres suivants indiquent au logiciel d'utiliser un ensemble d'UC différent sur le même socket de processeur :
Cela prend pour hypothèse qu'un processeur prend en charge 16 cœurs (non hyper thread).

l

Nombre de nœuds NUMA FCoE = 1

l

Nœud NUMA de départ FCoE = 0

l

Décalage de cœur de départ FCoE = 8

Exemple 2 : Utilisation d'un ou de plusieurs ports avec des files d'attente affectées à plusieurs nœuds NUMA. Dans ce
cas, pour chaque port de carte réseau, le Nombre de nœuds NUMA FCoE est défini sur ce nombre de nœuds NUMA.
Par défaut, les files d'attente seront affectées de façon égale à chaque nœud NUMA :

l

Nombre de nœuds NUMA FCoE = 2

l

Nœud NUMA de départ FCoE = 0

l

Décalage de cœur de départ FCoE = 0

Exemple 3 : L'affichage montre que le paramètre Nœud de port NUMA FCoE est 2 pour un port de carte donné. Il s'agit
d'une valeur en lecture seule fournie par le logiciel, indiquant que le nœud NUMA optimal le plus proche du péri-
phérique PCI est le troisième nœud logique NUMA du système. Par défaut, le logiciel a affecté les files d'attente de ce
port au nœud NUMA 0. Les paramètres suivants indiquent au logiciel d'utiliser les UC du socket de processeur optimal
:

l

Nombre de nœuds NUMA FCoE = 1

l

Nœud NUMA de départ FCoE = 2

l

Décalage de cœur de départ FCoE = 0

Cet exemple met en évidence le fait que le nombre de bus PCI et leur emplacement peut varier en fonction des dif-
férentes architectures de plateforme. Les figures ci-dessous montrent deux architectures de plateforme simplifiées. La
première est l'architecture ancienne commune à bus principal dans laquelle plusieurs UC partagent l'accès au contrô-
leur central mémoire et/ou contrôleur central des E/S qui fournit la connectivité du bus PCI et de la mémoire. La
deuxième est une architecture plus récente, dans laquelle plusieurs processeurs d'UC sont interrompus par QPI et
dans laquelle chaque processeur prend en charge directement la connectivité intégrée du contrôleur central mémoire
et PCI.

Il existe un avantage perçu à garder l'affectation des objets de ports, comme les files d'attente, aussi près que possible
du nœud NUMA ou de la collection d'UC auxquels elles accèderont le plus probablement. Si les files d'attente des
ports utilisent les UC et la mémoire d'un seul socket alors que le périphérique PCI est associé à un autre socket, la
consommation QPI de bande passante du bus entre les processeurs risque d'être indésirable. Il est important de bien
comprendre l'architecture de la plateforme lors de l'utilisation des ces options d'optimisation des performances.

Architecture PCI/mémoire partagée à racine unique

Advertising