Una iSCSI SAN (Storage Area Network su protocollo IP) è una soluzione flessibile ed economica per data-center, ambienti virtualizzati e carichi di lavoro mission-critical. Per ottenere le massime prestazioni in termini di throughput, bassa latenza e affidabilità servono però scelte progettuali accurate e un tuning costante.
Questa guida – arricchita con esempi pratici, una tabella riassuntiva e una sezione FAQ – mostra come ottimizzare ogni anello della catena: storage array, server/initiator e rete.
Cosa troverai in questo articolo
Prestazioni del sistema di storage
Lo storage array è il cuore della SAN: un gruppo RAID sotto-dimensionato o sbilanciato può diventare il collo di bottiglia anche in presenza di una rete perfettamente configurata.
1. Separazione dei workload
Isola i carichi di lavoro che hanno profili I/O differenti:
- Esempio: posiziona i LUN di un database OLTP su un pool RAID 10 all-flash, mentre i file server di archivio possono sfruttare un RAID 5 su HDD 7.2k RPM.
2. Caching avanzato
Abilita read/write cache a livello di controller; se possibile, attiva il write-back con batteria (BBWC/FBWC) per migliorare le prestazioni in scrittura senza rischiare perdita dati.
3. Load balancing sugli Storage Processor
Distribuisci i LUN su tutti gli Storage Processor (SP) disponibili:
- Esempio pratico: su un array dual SP (A/B) crea 8 LUN in RAID 10 e mappali in round-robin (A, B, A, B…). Controlla le statistiche IOPS/latency con vSphere I/O Analyzer o l’interfaccia nativa (Unisphere, ONTAP etc.).
4. Tuning e monitoraggio
- Controlla IOPS medi, tempo di risposta e cache-hit.
- Applica policy QoS per limitare i tenant “chiacchieroni”.
Prestazioni lato server (initiator)
Gli host ESXi, Hyper-V o Linux devono essere dimensionati per gestire il traffico iSCSI:
1. RAID vs IOPS richiesti
Ogni LUN deve garantire gli IOPS necessari all’applicazione:
- Esempio: un’applicazione richiede 5 000 IOPS (blocchi 8 KB). Un RAID 5 con 6 HDD 10k RPM (≈150 IOPS/disco) non basta: occorre un pool SSD o RAID 10.
2. Multipath I/O (MPIO)
Configura MPIO (Round-Robin o Least-Queue-Depth) per bilanciare I/O e garantire il fail-over:
# ESXi CLI – abilitare Round-Robin
esxcli storage nmp device set --device <naa-id> --psp VMW_PSP_RR
3. Queue Depth e VMkernel dedicati
- Porta la queue-depth a 128+ se supportato dall’HBA.
- Isola i
VMkernel
iSCSI da quelli di gestione/vMotion.
4. Provisioning capacità IOPS
- 10 VM × 500 IOPS picco ⇒ datastore da ≥5 000 IOPS stabili + overhead.
Prestazioni di rete
La rete è parte integrante della SAN iSCSI. Una progettazione non corretta può tradursi in pacchetti persi, ritrasmissioni TCP e latenze insostenibili.
Scenario critico a link singolo
4 server ESXi e un NAS con una sola porta 1 GbE condividono lo stesso switch. Risultato: latenze > 30 ms, backup lenti, VM timeout.
Soluzioni pratiche
- Uplink multipli: crea un port-channel LACP 2 × 10 GbE fra switch e storage.
- Jumbo Frame: imposta MTU 9000 su server, switch e storage.
- Monitoraggio pacchetti scartati su switch:
GigabitEthernet0/1 IHQ:3 IQD:9922 … RXBS:476 Mb/s
IQD alto ⇒ perdita pacchetti.
- Segmentazione fisica: dedicare porte e switch esclusivi al traffico iSCSI; le VLAN non aumentano la banda.
Tabella riassuntiva: ottimizzazioni chiave
Componente | Ottimizzazioni consigliate | Esempio di configurazione |
---|---|---|
Storage Array |
| 8 LUN RAID 10 LUN 1-4 → SP-A LUN 5-8 → SP-B |
Server / Initiator |
| 2 vSwitch iSCSI su NIC diverse Policy VMW_PSP_RR |
Rete |
| channel-group 1 mode active VLAN 20 dedicata allo storage |
FAQ – Domande frequenti
Qual è la differenza tra iSCSI e Fibre Channel?
Entrambi offrono blocchi SCSI su rete. iSCSI usa IP/Ethernet (più economico, facile da gestire), Fibre Channel usa una rete dedicata FC (più costosa ma a latenza minore). Con reti 10/25 GbE ben progettate, iSCSI può avvicinare le prestazioni FC.
È obbligatorio usare Jumbo Frame per iSCSI?
No, ma MTU 9000 riduce l’overhead TCP/IP. L’importante è che tutti i dispositivi sul percorso supportino la stessa MTU, altrimenti si generano pacchetti frammentati e perdita di performance.
Quante NIC servono per host ESXi con iSCSI?
Almeno 2 NIC dedicate per ridondanza. In ambienti ad alto carico si consigliano 2-4 NIC 10/25 GbE con MPIO.
Posso mettere traffico iSCSI e traffico di produzione sulla stessa VLAN?
Tecnicamente sì, ma si rischia di saturare i link fisici. È consigliabile separare fisicamente (o con QoS stretta) il traffico iSCSI da quello utente.
Come verifico se lo storage è il collo di bottiglia?
Controlla: IOPS queue-full lato ESXi, latency>20 ms sui datastore e utilizzo disco >80 % sul controller array. Se rete e CPU sono sotto soglia, il problema è lo storage.