ids.alfacom.it/extracted_idf/ENVIRONMENT_PRODUZIONE.md
marco370 0bfe3258b5 Saved progress at the end of the loop
Replit-Commit-Author: Agent
Replit-Commit-Session-Id: 7a657272-55ba-4a79-9a2e-f1ed9bc7a528
Replit-Commit-Checkpoint-Type: full_checkpoint
Replit-Commit-Event-Id: 1c71ce6e-1a3e-4f53-bb5d-77cdd22b8ea3
2025-11-11 09:15:10 +00:00

3.1 KiB

🖥️ AMBIENTE DI PRODUZIONE - DDoS DETECTION v04

📋 SISTEMA OPERATIVO

  • OS: AlmaLinux 9.6 (Red Hat Enterprise Linux compatible)
  • Kernel: Linux 5.14+
  • Architettura: x86_64

HARDWARE GPU

  • GPU: NVIDIA Tesla M60 (Maxwell 2.0)
  • Compute Capability: 5.2
  • VRAM: 8GB GDDR5
  • CUDA Cores: 2048
  • Driver: 550.144.03

🧠 SOFTWARE STACK

  • CUDA: 12.4
  • cuDNN: 9.10.1 (incompatibilità con LSTM - disabilitato)
  • TensorFlow: 2.8.4 (compatibile Tesla M60)
  • Python: 3.9+
  • MySQL: 8.0+

⚙️ CONFIGURAZIONI SPECIFICHE

  • Legacy GPU allocator: Attivato per CC 5.2
  • Memory growth: Abilitato
  • LSTM: Disabilitato (incompatibilità cuDNN 9.10.1 vs TF 2.8.4)
  • Parallel processing: Attivo
  • Memory optimization: Attivo

🚀 PERFORMANCE TARGET

  • Batch size: 2.000 record
  • Feature extraction: 1.500 batch
  • Ensemble prediction: 1.000 batch
  • Confidence threshold: 0.55
  • Target performance: 180+ record/sec (vs 21 precedenti)

📊 DATABASE

  • Host: localhost:3306
  • Database: LOG_MIKROTIK
  • Tabella principale: Esterna
  • Whitelist: 97.004 IP in formato CIDR

⚠️ NOTE IMPORTANTI

  1. SEMPRE testare su AlmaLinux 9.6, non Windows
  2. Tesla M60 richiede configurazioni specifiche per CC 5.2
  3. LSTM disabilitato per incompatibilità cuDNN
  4. Cache whitelist essenziale per performance
  5. Ottimizzazioni specifiche Tesla M60 implementate in v04

🎯 ULTIMO STATO

  • Sistema v04 con correzioni anomalie funzionante
  • Ottimizzazioni performance cache whitelist implementate
  • Performance attuale: 194.9 record/sec (su AlmaLinux 9.6)
  • Bug rilevamento anomalie risolti
  • Risk score thresholds ottimizzati
  • Deduplicazione IP funzionante

OTTIMIZZAZIONI ENSEMBLE v04.1

  • Chunk size ridotto: 1000 → 500 per Tesla M60
  • Memory cleanup: Garbage collection ogni 10 chunk
  • Progress logging: Monitoring real-time performance
  • Target: 666 record/sec (40k record/min produzione)
  • Gap attuale: 471 record/sec da recuperare

🚨 PROBLEMA CRITICO IDENTIFICATO v04.2

  • GPU Tesla M60 NON utilizzata: nvidia-smi = SM 0%, Mem 0%
  • Cause: Modelli ensemble sklearn non usano GPU
  • Performance invariata: 192.3 vs 194.9 record/sec
  • SOLUZIONE v04.2: GPU acceleration forzata per pre-processing

OTTIMIZZAZIONI GPU v04.2

  • TensorFlow GPU acceleration: Pre-processing dati su Tesla M60
  • Memory management GPU: tf.keras.backend.clear_session()
  • Chunk processing GPU: Normalizzazione L2 su GPU
  • Test utilization: test_gpu_utilization_v04.py

🚨 FIX CRITICO v04.3 - CUDA ALLOCATOR

  • PROBLEMA: cuda_malloc_async incompatibile con Tesla M60 (CC 5.2)
  • ERRORE: "TF_GPU_ALLOCATOR=cuda_malloc_async isn't supported on SM60+"
  • SOLUZIONE: TF_GPU_ALLOCATOR=legacy + TF_FORCE_GPU_ALLOW_GROWTH=true
  • TEST: test_tesla_m60_fix.py per verificare configurazione