Replit-Commit-Author: Agent Replit-Commit-Session-Id: 7a657272-55ba-4a79-9a2e-f1ed9bc7a528 Replit-Commit-Checkpoint-Type: full_checkpoint Replit-Commit-Event-Id: 1c71ce6e-1a3e-4f53-bb5d-77cdd22b8ea3
80 lines
3.1 KiB
Markdown
80 lines
3.1 KiB
Markdown
# 🖥️ AMBIENTE DI PRODUZIONE - DDoS DETECTION v04
|
|
|
|
## 📋 **SISTEMA OPERATIVO**
|
|
- **OS**: AlmaLinux 9.6 (Red Hat Enterprise Linux compatible)
|
|
- **Kernel**: Linux 5.14+
|
|
- **Architettura**: x86_64
|
|
|
|
## ⚡ **HARDWARE GPU**
|
|
- **GPU**: NVIDIA Tesla M60 (Maxwell 2.0)
|
|
- **Compute Capability**: 5.2
|
|
- **VRAM**: 8GB GDDR5
|
|
- **CUDA Cores**: 2048
|
|
- **Driver**: 550.144.03
|
|
|
|
## 🧠 **SOFTWARE STACK**
|
|
- **CUDA**: 12.4
|
|
- **cuDNN**: 9.10.1 (incompatibilità con LSTM - disabilitato)
|
|
- **TensorFlow**: 2.8.4 (compatibile Tesla M60)
|
|
- **Python**: 3.9+
|
|
- **MySQL**: 8.0+
|
|
|
|
## ⚙️ **CONFIGURAZIONI SPECIFICHE**
|
|
- **Legacy GPU allocator**: Attivato per CC 5.2
|
|
- **Memory growth**: Abilitato
|
|
- **LSTM**: Disabilitato (incompatibilità cuDNN 9.10.1 vs TF 2.8.4)
|
|
- **Parallel processing**: Attivo
|
|
- **Memory optimization**: Attivo
|
|
|
|
## 🚀 **PERFORMANCE TARGET**
|
|
- **Batch size**: 2.000 record
|
|
- **Feature extraction**: 1.500 batch
|
|
- **Ensemble prediction**: 1.000 batch
|
|
- **Confidence threshold**: 0.55
|
|
- **Target performance**: 180+ record/sec (vs 21 precedenti)
|
|
|
|
## 📊 **DATABASE**
|
|
- **Host**: localhost:3306
|
|
- **Database**: LOG_MIKROTIK
|
|
- **Tabella principale**: Esterna
|
|
- **Whitelist**: 97.004 IP in formato CIDR
|
|
|
|
## ⚠️ **NOTE IMPORTANTI**
|
|
1. **SEMPRE testare su AlmaLinux 9.6**, non Windows
|
|
2. **Tesla M60 richiede configurazioni specifiche** per CC 5.2
|
|
3. **LSTM disabilitato** per incompatibilità cuDNN
|
|
4. **Cache whitelist** essenziale per performance
|
|
5. **Ottimizzazioni specifiche Tesla M60** implementate in v04
|
|
|
|
## 🎯 **ULTIMO STATO**
|
|
- Sistema v04 con correzioni anomalie funzionante ✅
|
|
- Ottimizzazioni performance cache whitelist implementate ✅
|
|
- Performance attuale: 194.9 record/sec (su AlmaLinux 9.6) ✅
|
|
- Bug rilevamento anomalie risolti ✅
|
|
- Risk score thresholds ottimizzati ✅
|
|
- Deduplicazione IP funzionante ✅
|
|
|
|
## ⚡ **OTTIMIZZAZIONI ENSEMBLE v04.1**
|
|
- **Chunk size ridotto**: 1000 → 500 per Tesla M60
|
|
- **Memory cleanup**: Garbage collection ogni 10 chunk
|
|
- **Progress logging**: Monitoring real-time performance
|
|
- **Target**: 666 record/sec (40k record/min produzione)
|
|
- **Gap attuale**: 471 record/sec da recuperare
|
|
|
|
## 🚨 **PROBLEMA CRITICO IDENTIFICATO v04.2**
|
|
- **GPU Tesla M60 NON utilizzata**: nvidia-smi = SM 0%, Mem 0%
|
|
- **Cause**: Modelli ensemble sklearn non usano GPU
|
|
- **Performance invariata**: 192.3 vs 194.9 record/sec
|
|
- **SOLUZIONE v04.2**: GPU acceleration forzata per pre-processing
|
|
|
|
## ⚡ **OTTIMIZZAZIONI GPU v04.2**
|
|
- **TensorFlow GPU acceleration**: Pre-processing dati su Tesla M60
|
|
- **Memory management GPU**: tf.keras.backend.clear_session()
|
|
- **Chunk processing GPU**: Normalizzazione L2 su GPU
|
|
- **Test utilization**: test_gpu_utilization_v04.py
|
|
|
|
## 🚨 **FIX CRITICO v04.3 - CUDA ALLOCATOR**
|
|
- **PROBLEMA**: `cuda_malloc_async` incompatibile con Tesla M60 (CC 5.2)
|
|
- **ERRORE**: "TF_GPU_ALLOCATOR=cuda_malloc_async isn't supported on SM60+"
|
|
- **SOLUZIONE**: `TF_GPU_ALLOCATOR=legacy` + `TF_FORCE_GPU_ALLOW_GROWTH=true`
|
|
- **TEST**: test_tesla_m60_fix.py per verificare configurazione |