La progettazione sismica, più di qualsiasi altro settore dell’ingegneria strutturale, è il risultato di una continua reazione agli eventi. Ogni terremoto significativo ha segnato un punto di svolta, costringendo ricercatori, legislatori e professionisti a rivedere le proprie convinzioni e a tradurle in nuove norme.
In questo percorso, uno dei concetti chiave è stato il fattore di comportamento (q): un’idea che ha rivoluzionato il modo di calcolare le forze sismiche ma che oggi mostra i suoi limiti. Sempre più spesso, infatti, si parla di edifici a basso danneggiamento, come naturale evoluzione dell’approccio tradizionale.
I concetti teorici che avrebbero permesso di capire la risposta sismica delle strutture erano già disponibili con la legge di Hooke (1675) e i principi della dinamica di Newton (1687). Ma solo i grandi terremoti del Novecento hanno spinto l’ingegneria ad applicarli davvero.
Il terremoto di El Centro (1940) segnò un salto decisivo. Per la prima volta venne registrato un accelerogramma significativo, che consentì di costruire lo spettro di risposta elastico.
Questo concetto diventò la base di tutte le normative: la forza sismica dipende dal periodo della struttura e dalla domanda spettrale corrispondente.
Si trattò di una conquista fondamentale, anche se in seguito si sarebbe compreso che il danno è più legato agli spostamenti che alle sole accelerazioni.
Il terremoto di San Fernando (1971) cambiò nuovamente le regole del gioco. Registrazioni con accelerazioni superiori a 1 g e gravi danni a infrastrutture moderne dimostrarono che non era realistico progettare in campo puramente elastico.
Da qui prese forza il concetto di duttilità: una struttura può deformarsi oltre lo snervamento mantenendo comunque capacità resistente.
Le norme internazionali introdussero allora il fattore di comportamento (q):
In questo modo si ottenevano progetti più economici, ma sempre in grado di garantire la salvaguardia della vita.
Negli anni ’90 e 2000, studi approfonditi (ad esempio quelli di Priestley) hanno iniziato a mettere in luce le debolezze di questo approccio:
In sostanza, il fattore di comportamento si è rivelato più un artificio matematico che un parametro fisico universale.
L’esperienza degli ultimi decenni ha chiarito che l’obiettivo non può essere solo quello di evitare il collasso. Un edificio che rimane in piedi ma è gravemente danneggiato può comunque risultare inutilizzabile, con costi enormi e tempi lunghi di ricostruzione.
Per questo motivo si è affermata la filosofia dei low damage buildings:
Questa evoluzione segna il passaggio dal design for strength al design for resilience, cioè dal dimensionamento sulle forze alla progettazione per la continuità funzionale dopo l’evento sismico.
La normativa sismica è nata sull’onda dei grandi terremoti, adottando progressivamente concetti sempre più sofisticati: dalle forze equivalenti al fattore di comportamento, dallo spettro di risposta al capacity design.
Oggi sappiamo che il fattore q, pur avendo avuto un ruolo storico fondamentale, non è più sufficiente. La sfida attuale è quella di costruire edifici a basso danneggiamento, in grado non solo di salvare vite, ma anche di garantire resilienza, rapidità di recupero e sostenibilità economica dopo un terremoto.
In altre parole: non basta resistere, bisogna continuare a funzionare.