17 de abril de 2021
Directores
Orlando Cadavid Correa
Evelio Giraldo Ospina

Proponen cambiar la estrategia para valorar el riesgo de desastres

12 de marzo de 2014
12 de marzo de 2014

El análisis probabilista de amenazas naturales es una técnica que compartió con la comunidad de la U.N. en Manizales el investigador Mario Gustavo Ordaz Schroeder, del Instituto de Ingeniería de la Universidad Nacional Autónoma de México (UNAM).

El propósito de esta herramienta es explicar aquellas metodologías que permiten establecer cuál es el grado de intensidad de fenómenos naturales que a futuro puede esperarse en sitios de interés.

“Como ingenieros, estamos metidos en el problema de la evaluación de riesgos por dos razones. Una es que el diseño de cualquier obra de ingeniería civil implica un riesgo, entonces, es muy importante que a la hora de diseñar una obra o construirla, el ingeniero esté consciente del riesgo y conozca qué tan tolerable puede llegar a ser. La segunda razón es que independientemente del cargo, se deben conocer los riesgos existentes para disminuirlos”, dijo el mexicano.

Por ejemplo, si una persona es la encargada de la administración de los bienes en una ciudad, conocer los riesgos le interesa para tomar mejores decisiones de protección financiera o de aseguramiento de los bienes, complementó el experto.

Según el ingeniero, la técnica probabilista sobrepasa a la determinista, ya que tiene en cuenta tanto la intensidad como la frecuencia con la que se da un evento, bien sea un sismo, terremoto, inundación o tsunami.

“En el análisis probabilista no solo importa lo que pase con las cargas más grandes, los temblores que puedan ocurrir o las inundaciones, sino que importa también lo que pase con eventos más chicos, pues aquí se tiene en cuenta un factor que no estaba presente, la frecuencia con la que ocurren dichos eventos. En conclusión, la premisa de esta técnica es que la frecuencia con que ocurren los eventos sí importa”.

En ese sentido, no es lo mismo que cierto valor de carga se presente cada 100 años a que se presente una vez cada 100 mil años.

Mientras que la metodología determinista se basa en la escogencia que cada ingeniero quiera darle a la carga (o intensidad) al momento de presentar una obra de ingeniería.

“Sin embargo, estas no se conocen con precisión, ya que es el ingeniero, quien decide qué carga quiere implementar en determinada estructura. Este análisis (el determinista) se ha dedicado a estimar cuál es la carga más grande que se puede presentar en una obra, la cual es diseñada para una carga máxima creíble. Esto, en algunas situaciones, lleva a cosas absurdas porque la carga máxima creíble es apenas inferior a la carga máxima increíble”, comentó.

Es decir, que si el método determinista dice que el riesgo máximo de ocurrencia de un temblor es del 20%, entonces el riesgo máximo increíble sería del 21% o 22%. Este es un margen de diferencia muy limitado que puede traer consecuencias posteriores.

Por ello, aseguró, se ha desarrollado una técnica donde se hace necesario intervenir el concepto de frecuencia de ocurrencia, pues evita la necesidad de imaginarse la carga más grande que pueda ocurrir.

Para finalizar, el profesor Mario Ordaz Schroeder dijo que el análisis probabilista se aplica desde hace 15 años en la rama de la ingeniería dedicada al análisis de estructuras nucleares.

La charla hace parte del proyecto de Gestión del Riesgo en Manizales que se realiza en convenio entre la U.N y Corpocaldas. El objetivo es traer nuevas experiencias para mejorar la valoración del riesgo sísmico de Manizales, con el fin de aplicar las normas NSR-10 y la de transferencia del riesgo (seguro de inmuebles públicos y privados).

(Por:Fin/FLPV/CAPG/sup/AC)
-Agencia de Noticias UN