Replit-Commit-Author: Agent Replit-Commit-Session-Id: 7a657272-55ba-4a79-9a2e-f1ed9bc7a528 Replit-Commit-Checkpoint-Type: full_checkpoint Replit-Commit-Event-Id: 1c71ce6e-1a3e-4f53-bb5d-77cdd22b8ea3
3.1 KiB
3.1 KiB
🖥️ AMBIENTE DI PRODUZIONE - DDoS DETECTION v04
📋 SISTEMA OPERATIVO
- OS: AlmaLinux 9.6 (Red Hat Enterprise Linux compatible)
- Kernel: Linux 5.14+
- Architettura: x86_64
⚡ HARDWARE GPU
- GPU: NVIDIA Tesla M60 (Maxwell 2.0)
- Compute Capability: 5.2
- VRAM: 8GB GDDR5
- CUDA Cores: 2048
- Driver: 550.144.03
🧠 SOFTWARE STACK
- CUDA: 12.4
- cuDNN: 9.10.1 (incompatibilità con LSTM - disabilitato)
- TensorFlow: 2.8.4 (compatibile Tesla M60)
- Python: 3.9+
- MySQL: 8.0+
⚙️ CONFIGURAZIONI SPECIFICHE
- Legacy GPU allocator: Attivato per CC 5.2
- Memory growth: Abilitato
- LSTM: Disabilitato (incompatibilità cuDNN 9.10.1 vs TF 2.8.4)
- Parallel processing: Attivo
- Memory optimization: Attivo
🚀 PERFORMANCE TARGET
- Batch size: 2.000 record
- Feature extraction: 1.500 batch
- Ensemble prediction: 1.000 batch
- Confidence threshold: 0.55
- Target performance: 180+ record/sec (vs 21 precedenti)
📊 DATABASE
- Host: localhost:3306
- Database: LOG_MIKROTIK
- Tabella principale: Esterna
- Whitelist: 97.004 IP in formato CIDR
⚠️ NOTE IMPORTANTI
- SEMPRE testare su AlmaLinux 9.6, non Windows
- Tesla M60 richiede configurazioni specifiche per CC 5.2
- LSTM disabilitato per incompatibilità cuDNN
- Cache whitelist essenziale per performance
- Ottimizzazioni specifiche Tesla M60 implementate in v04
🎯 ULTIMO STATO
- Sistema v04 con correzioni anomalie funzionante ✅
- Ottimizzazioni performance cache whitelist implementate ✅
- Performance attuale: 194.9 record/sec (su AlmaLinux 9.6) ✅
- Bug rilevamento anomalie risolti ✅
- Risk score thresholds ottimizzati ✅
- Deduplicazione IP funzionante ✅
⚡ OTTIMIZZAZIONI ENSEMBLE v04.1
- Chunk size ridotto: 1000 → 500 per Tesla M60
- Memory cleanup: Garbage collection ogni 10 chunk
- Progress logging: Monitoring real-time performance
- Target: 666 record/sec (40k record/min produzione)
- Gap attuale: 471 record/sec da recuperare
🚨 PROBLEMA CRITICO IDENTIFICATO v04.2
- GPU Tesla M60 NON utilizzata: nvidia-smi = SM 0%, Mem 0%
- Cause: Modelli ensemble sklearn non usano GPU
- Performance invariata: 192.3 vs 194.9 record/sec
- SOLUZIONE v04.2: GPU acceleration forzata per pre-processing
⚡ OTTIMIZZAZIONI GPU v04.2
- TensorFlow GPU acceleration: Pre-processing dati su Tesla M60
- Memory management GPU: tf.keras.backend.clear_session()
- Chunk processing GPU: Normalizzazione L2 su GPU
- Test utilization: test_gpu_utilization_v04.py
🚨 FIX CRITICO v04.3 - CUDA ALLOCATOR
- PROBLEMA:
cuda_malloc_asyncincompatibile con Tesla M60 (CC 5.2) - ERRORE: "TF_GPU_ALLOCATOR=cuda_malloc_async isn't supported on SM60+"
- SOLUZIONE:
TF_GPU_ALLOCATOR=legacy+TF_FORCE_GPU_ALLOW_GROWTH=true - TEST: test_tesla_m60_fix.py per verificare configurazione