29 Agosto 2025

L’evoluzione della normativa sismica: dal fattore di comportamento agli edifici a basso danneggiamento

La progettazione sismica, più di qualsiasi altro settore dell’ingegneria strutturale, è il risultato di una continua reazione agli eventi. Ogni terremoto significativo ha segnato un punto di svolta, costringendo ricercatori, legislatori e professionisti a rivedere le proprie convinzioni e a tradurle in nuove norme.

In questo percorso, uno dei concetti chiave è stato il fattore di comportamento (q): un’idea che ha rivoluzionato il modo di calcolare le forze sismiche ma che oggi mostra i suoi limiti. Sempre più spesso, infatti, si parla di edifici a basso danneggiamento, come naturale evoluzione dell’approccio tradizionale.

Dai terremoti storici alle prime norme

I concetti teorici che avrebbero permesso di capire la risposta sismica delle strutture erano già disponibili con la legge di Hooke (1675) e i principi della dinamica di Newton (1687). Ma solo i grandi terremoti del Novecento hanno spinto l’ingegneria ad applicarli davvero.

  • Messina 1908 (M7.5): fu un punto di svolta per l’Italia e per l’Europa. Il Regio Decreto del 1909 introdusse per la prima volta l’obbligo di considerare forze orizzontali proporzionali alle masse. Ancora più interessante, le commissioni tecniche suggerirono di ridurre le forze elastiche di un terzo, anticipando di fatto il concetto moderno di fattore di struttura.
  • San Francisco 1906: se negli Stati Uniti prevalse un approccio pragmatico (ricostruzioni rapide e in legno), in Italia si aprì un dibattito tecnico che portò all’avvio di una tradizione normativa più strutturata.

El Centro 1940 e lo spettro di risposta

Il terremoto di El Centro (1940) segnò un salto decisivo. Per la prima volta venne registrato un accelerogramma significativo, che consentì di costruire lo spettro di risposta elastico.

Questo concetto diventò la base di tutte le normative: la forza sismica dipende dal periodo della struttura e dalla domanda spettrale corrispondente.

Si trattò di una conquista fondamentale, anche se in seguito si sarebbe compreso che il danno è più legato agli spostamenti che alle sole accelerazioni.

San Fernando 1971 e la nascita del fattore di comportamento

Il terremoto di San Fernando (1971) cambiò nuovamente le regole del gioco. Registrazioni con accelerazioni superiori a 1 g e gravi danni a infrastrutture moderne dimostrarono che non era realistico progettare in campo puramente elastico.

Da qui prese forza il concetto di duttilità: una struttura può deformarsi oltre lo snervamento mantenendo comunque capacità resistente.

Le norme internazionali introdussero allora il fattore di comportamento (q):

  • si calcolano le forze sismiche come se la struttura fosse elastica;
  • poi si riducono in funzione della duttilità attesa.

In questo modo si ottenevano progetti più economici, ma sempre in grado di garantire la salvaguardia della vita.

La crisi del fattore q

Negli anni ’90 e 2000, studi approfonditi (ad esempio quelli di Priestley) hanno iniziato a mettere in luce le debolezze di questo approccio:

  1. Incertezza nella duttilità reale: dipende da dettagli costruttivi e geometrie, difficile stimarla a priori.
  2. Assunzioni semplificate: diversi codici normativi usavano formule diverse per collegare duttilità e q, con risultati anche 4 volte divergenti.
  3. Rigidezza e resistenza interdipendenti: ma trattate come variabili indipendenti.
  4. Resistenza ≠ sicurezza: aumentare le forze di progetto non sempre significa ridurre il rischio di collasso.

In sostanza, il fattore di comportamento si è rivelato più un artificio matematico che un parametro fisico universale.

Verso una nuova era: edifici a basso danneggiamento

L’esperienza degli ultimi decenni ha chiarito che l’obiettivo non può essere solo quello di evitare il collasso. Un edificio che rimane in piedi ma è gravemente danneggiato può comunque risultare inutilizzabile, con costi enormi e tempi lunghi di ricostruzione.

Per questo motivo si è affermata la filosofia dei low damage buildings:

  • Isolamento sismico alla base: per ridurre le accelerazioni trasmesse alla struttura.
  • Dissipazione supplementare di energia: dispositivi che “assorbono” parte delle sollecitazioni.
  • Strutture a basso danneggiamento in acciaio: pensate per limitare spostamenti residui e facilitare la riparabilità.
  • Capacity design: meccanismi di collasso controllato, con cerniere plastiche localizzate in punti scelti dai progettisti.

Questa evoluzione segna il passaggio dal design for strength al design for resilience, cioè dal dimensionamento sulle forze alla progettazione per la continuità funzionale dopo l’evento sismico.

Conclusioni

La normativa sismica è nata sull’onda dei grandi terremoti, adottando progressivamente concetti sempre più sofisticati: dalle forze equivalenti al fattore di comportamento, dallo spettro di risposta al capacity design.

Oggi sappiamo che il fattore q, pur avendo avuto un ruolo storico fondamentale, non è più sufficiente. La sfida attuale è quella di costruire edifici a basso danneggiamento, in grado non solo di salvare vite, ma anche di garantire resilienza, rapidità di recupero e sostenibilità economica dopo un terremoto.

In altre parole: non basta resistere, bisogna continuare a funzionare.

© ING. MATTEO GIUSEPPE BLASI - P.Iva/Cod.Fisc. 02560760411
Privacy Policy
Cookie Policy
Web design: C3DM
bubblechevron-down