1 INSTITITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN INCORPORACIÓN DE UN MODELO DE COMPORTAMIENTO DINÁMICO EN LOS CRITERIOS DE DISEÑO DE ESTRUCTURAS Y EQUIPO PESADO SOMETIDOS A CARGAS ALEATORIAS T E S I S QUE PARA OBTENER EL GRADO DE: D O C T O R E N C I E N C I A S C O N E S P E C I A L I D A D E N INGENIERÍA MECÁNICA P R E S E N T A: M EN C CÁNDIDO ZAMORA CUAPIO DIRECTOR: DR. GUILLERMO URRIOLAGOITIA CALDERON MÉXICO, D.F. DICIEMBRE DEL 2006
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
1
INSTITITUTO POLITÉCNICO NACIONAL
ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA
SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN
INCORPORACIÓN DE UN MODELO DE COMPORTAMIENTO DINÁMICO EN LOS CRITERIOS DE DISEÑO DE ESTRUCTURAS Y EQUIPO PESADO SOMETIDOS A CARGAS ALEATORIAS
T E S I S
QUE PARA OBTENER EL GRADO DE: D O C T O R E N C I E N C I A S C O N E S P E C I A L I D A D E N
INGENIERÍA MECÁNICA
P R E S E N T A:
M EN C CÁNDIDO ZAMORA CUAPIO
DIRECTOR: DR. GUILLERMO URRIOLAGOITIA CALDERON
MÉXICO, D.F. DICIEMBRE DEL 2006
2
3
4
INDICE Pág.
I. Índice de figuras
II. Índice de cuadros
III. Simbología
IV. Resumen
V. Abstract
VI. Objetivo
VII. Justificación
7
8
8
9
10
11
12
INTRODUCCIÓN 16
CAPITULO 1
1.- Estado del arte
1.1.- Resultados reportados en la literatura abierta
1.2.- Planteamiento del problema de Confiabilidad en Modelos de edificios de Cortante
1.2.1.- Análisis sísmico por el Método Estático
1.2.2.- Centro de Masa y Rigidez
1.2.3.- Excentricidad de diseño
1.2.4.- Distribución e resistencias asociada a los criterios diseño
1.3.- Metodología de Análisis Estructural y diseño
1.3.1.- Formulación de Modelos
1.3.2.- Modelo de un nivel con elementos resistentes en una dirección
1.3.3.- Modelo de Análisis
1.3.4.- Modelo con elementos resistentes en dos direcciones ortogonales
1.3.5.- Planteamiento dinámico
1.3.6.- Solución al problema inverso de valores característicos
1.3.7.- Parámetros estudiados
1.3.8.- El periodo de vibración libre en traslación
1.3.9.- Excentricidad estática o estructural
1.3.10.- Distribución de resistencias
1.3.11.- Relación de aspecto de la planta
1.3.12.- Demanda de ductilidad
1.3.13.- Método de Análisis
19
19
24
24
26
27
28
29
29
30
31
31
34
36
38
38
39
39
40
40
40
5
1.3.14.- Descripción de la excitación utilizada 41
CAPITULO 2
2.- Análisis del Fundamento teórico de Confiabilidad estructural 44
2.1. Información probabilística
2.2. Incertidumbre estadística
2.3. Modelo de Incertidumbre
44
48
55
CAPITULO 3
3. Análisis de probabilidad de falla en secciones de elementos estructurales 60
3.1. Modelos estructurales deterministas y probabilistas 62
3.2. El problema de seguridad estructural 63
3.3. Sistema de tolerancia estructural 64
3.4. Compatibilidad con la probabilidad con las estructuras 65
3.5. Método del factor de seguridad parcial 66
3.6. El concepto del factor de seguridad y el requisito de formulación de invarianza 71
3.7. Consideraciones de probabilidad acerca del factor de seguridad 73
3.8. Factores de seguridad parcial 77
CAPITULO 4
4. Modelos Probabilísticos para estructuras tipo viga 79
4.1. Análisis de un elemento viga
4.1.1. Formulas para obtener la distribución de probabilidad
82
82
4.2. Propuestas de distribuciones de probabilidad en las variables del elemento viga 83
4.3. Distribución del momento 83
4.4. Distribución de S 83
4.5. Distribución de a(l-a) 83
4.6. Distribución de Pa(l-a) 84
4.7. Distribución de μy 84
4.8. Distribución del momento 84
4.9. Distribución de h2 85
6
4.10. Distribución de bh2 85
4.11. Distribución de /6μ2x
85
4.12. Distribución de f 85
4.13. Distribución de la acción 86
4.14. Distribución de la resistencia y determinación del riesgo 86
CAPITULO 5
5. Planteamiento de la Confiabilidad en función del tiempo 88
5.1. Formulación de la Confiabilidad 89
5.2. Idealización del Modelo estructural 90
5.3. Metodología de análisis del Modelo 91
5.4. Evaluación de la Confiabilidad 91
5.5.Algoritmo de Optimización 94
CAPITULO 6
6. Análisis de resultados
Índice de Anexos de Análisis de resultados
96
120
7. Conclusiones 104
Apédice A 107
Apéndice B 117
Apéndice C 119
Referencias 121
7
I. Índice de figuras
No. Nombre pag.
1.- Distribución de rigidez en los elementos de resistencia………….………...26
2.- Excentricidad…………………………………………………………………….27
3.- Relación de planta………………………………………………………………28
4.- Comportamiento de los elementos resistentes………………………………29
5.- Modelo con tres elementos resistentes paralelos a la dirección del
En las ecuaciones anteriores a y b son los factores de amplificación y desamplificación
dinámica respectivamente, db es la excentricidad accidental, donde b es la máxima
dimensión de la planta en la dirección perpendicular del sismo (fig. 1,2,3.), y d es una
fracción de la misma.
28
Fig.3. Relación de planta.
1.2.4.- Distribución de resistencias asociada a los criterios de diseño Para una estructura con elementos resistentes en una y dos direcciones el RDF87,
considera para fines de diseño, que el momento torsionante Mti se tomara igual a la
fuerza cortante de entrepiso, multiplicada por la excentricidad de diseño, d1e , que para
cada elemento resistente resulte más desfavorable. Con la excentricidad de diseño se
pretende lograr que los valores de los momentos torsionantes calculados estáticamente
que ocurren en las estructuras reales, sean capaces de no permitir que se desarrollen
ductilidad excesiva. Por lo tanto en este trabajo sé continua con el estudio de cinco
criterios de diseño por torsión en los cuales se considera la distribución de resistencias
entre los elementos estructurales, con el fin de encontrar un mejor comportamiento
estructural en los modelos de edificios.
En la siguiente tabla se muestran los cinco criterios de diseño que consideran la
distribución del cortante sísmico en los elementos resistentes.
Criterios de
diseño a b d
RDF87 1.5 1.0 0.10
NBCC 1.5. 0.5 0.05
ATC 1.0 0.0 0.00
CEB 0.5 0.0 0.05
CRIT1 1.0 0.5 0.10
Tabla. 1. Criterios de diseño por torsión.
29
En la tabla anterior se observa que códigos como el de México (RDF87) y el de
CANADA (NBCC-1990), incluyen factores de amplificación dinámica de 1.5 veces la
excentricidad estática y 10% de excentricidad accidental; adicionalmente incluyen
factores de desamplificación de 1.0 y 0.5 respectivamente. Es decir los factores a, b, y
d, varían de un reglamento a otro, y determinan un factor de incremento de la
resistencia lateral total de las estructuras diseñadas por torsión. Esto se refleja en un
incremento relativo en el costo de la estructura, y en la distribución de daño entre los
elementos resistentes.
1.3. Metodología de Análisis Estructural y diseño
1.3.1.- Formulación de los Modelos Con base en los estudios que se han realizado acerca de la torsión, en este trabajo sé
continua con el planteamiento de este problema, para evaluar el comportamiento de
modelos de edificios de un nivel. El modelo a estudiar corresponde a una estructura
tridimensional conformada por tres y seis marcos planos representados por elementos
resistentes verticales, unidos por un diafragma infinitamente rígido, donde se supone
concentrada la masa del entrepiso. La ley de carga-deformación para los elementos se
considero bilineal histeretica estable con una pendiente en la segunda rama del 1% del
valor de la pendiente inicial (fig.4). En el comportamiento de los modelos no se
incluyeron los efectos de amortiguamiento ni los de degradación en las propiedades de
rigidez y resistencia.
Fig.4.- Comportamiento de los elementos resistentes.
30
1.3.2.- Modelo de un nivel con elementos resistentes en una dirección.
De acuerdo con los modelos estudiados en los cuales se consideraron dos elementos
resistentes paralelos a la dirección del sismo, en este estudio se evalúa la respuesta
sísmica no lineal de modelos de edificios de cortante de un nivel con tres elementos
resistentes con el objetivo de estudiar el comportamiento estructural que se origina en
estos modelos, y evaluar la influencia que producen los parámetros que se consideran
en este trabajo.
En este trabajo se estudian modelos con tres elementos resistentes con una
contribución en rigideces del 75% de la rigidez total del modelo, para los elementos
extremos y el 25% restante a los elementos centrales. Para estudiar el efecto de la
distribución de las resistencias en la respuesta de la estructura, se utilizo como
parámetro a Xr, que mide la distancia de la fuerza resistente del entrepiso al centro del
diafragma de piso. De acuerdo con el tipo de estructuración, en estos modelos se varían
los valores propuestos de la excentricidad estática o estructural y el de resistencias, solo
en dirección perpendicular a la distribución de los elementos resistentes, y se analizan
tres relaciones de aspecto de la planta, ( h= b/2, h= b, h= 2b ), correspondientes a
formas denominadas cuadrada, horizontal, y vertical respectivamente, donde h, es la
distancia paralela a la excitación sísmica y b, es la dimensión perpendicular, con las
características en masa y rigidez, para obtener tres periodos diferentes de 0.5, 1.0, 1.5 seg. Los modelos se diseñaron con los cinco criterios que consideran la distribución de
la sobreresistencia torsional en los elementos resistentes, asignando una
sobreresistencia estructural de 1.5 y un factor de comportamiento sísmico Q=4.0. En
todos los casos se incluye en los modelos la incertidumbre en la localización del centro
de masa, tomando posiciones con un valor de excentricidad nominal de 0.1b, a la
izquierda y derecha del centro de masas. Los análisis se efectúan con el programa de
Análisis Estático TORSION.
31
1.3.3.- Modelo de Análisis.
Con el fin de cubrir todos los casos de asimetría en las estructuras se consideran dos
modelos; uno excéntrico en rigideces en el que el centro de masas se localiza en el
centro geométrico de la planta, y el otro excéntrico en masas en donde el centro de
torsión se mantiene en el centro de la planta. Las respuestas se obtuvieron utilizando un
proceso de integración de las ecuaciones de equilibrio dinámico de los modelos [19].
Ya que la resistencia real (Rn) es sistemáticamente mayor que la nominal calculada
(Rn), [20]; para investigar su efecto sobre la respuesta de la estructura, se estudia para
una relación Rr/Rn de 1.50. El efecto de la incertidumbre en la localización del centro de
masas sobre la respuesta se considera, en todos los casos al analizar los modelos con
el centro de masas localizado en su posición original y a +0.1b y -0.1b de ella,
seleccionando aquellos resultados que dan la mayor respuesta.
Fig. 5.- Modelo con tres elementos resistentes paralelos a la dirección del sismo.
1.3.4.- Modelo con elementos resistentes en dos direcciones ortogonales.
La evaluación de modelos con elementos resistentes en dos direcciones ortogonales,
permite ampliar los rangos de variación de los parámetros estudiados en los modelos
con elementos resistentes en una sola dirección, como es el caso de variar los valores
de resistencia en dos direcciones ortogonales. En estos modelos, se sigue el mismo
criterio de distribución en planta de rigideces como en el caso de los modelos con
elementos resistentes en una dirección. Adicionalmente se estudia uno alterno a este en
donde se considera un incremento proporcional a un 5% de la rigidez torsional,
32
estudiándose las tres formas de la planta como son: ( h = b/2, h = b, h = 2b ), con las
características en masa y rigidez, para analizar los tres periodos, ( 0.5, 1.0, 1.5 seg ).,
tomando el mismo periodo en las dos direcciones ortogonales, variando inicialmente la
excentricidad estructural, y las resistencias a lo largo del eje horizontal con una sola
componente sísmica, donde se evaluó básicamente el comportamiento de los elementos
resistentes paralelos a dicha excitación. Finalmente, se diseñan los modelos con los
cinco criterios que consideran la contribución de la sobreresistencia torsional en los
elementos resistentes, asignando una sobreresistencia estructural de 1.5 y un factor de
comportamiento sísmico Q = 4.0. También en este análisis se incluye en los modelos la
incertidumbre en la localización del centro de masa, tomando posiciones con un valor de
excentricidad nominal de 0.1b.
Para un modelo con elementos resistentes en dos direcciones ortogonales como el que
se muestra en la fig.6., se consideró el centro de masa del sistema plano en el centro de
figura, con el objetivo de estudiar y analizar los resultados del caso simétrico. Ya que
este modelo tiene cambios con respecto a los parámetros y variables del modelo
simétrico con tres elementos en una dirección, como son el incremento de elementos
resistentes, así como la mayor información numérica que se obtiene.
En la idealización del modelo a estudiar se trata de representar, el comportamiento
estructural de un edificio real cuando es sometido a una acción sísmica, y asignando
uno de los criterios de distribución de rigieses en los elementos resistentes, que consiste
en dar la mayor rigidez en la periferia de la estructura, con un porcentaje en los
elementos resistentes de los extremos del 75% de la rigidez total de la estructura y el
25% al elemento restante.
Estructuración del modelo Modelo matemático.
Fig.6.-Modelo estructural con elementos resistentes en dos direcciones ortogonales
33
Para estudiar el efecto de la distribución de las resistencias sobre la respuesta de la
estructura, se utilizaron dos parámetros Xr e Yr que miden las distancias de la fuerza
resistente del entrepiso al centro del diafragma de piso. La posición nominal de la fuerza
resistente de un entrepiso es la que genera la aplicación directa de un criterio de diseño
por torsión. Los valores diferentes de Xr e Yr se logran incrementando la resistencia
de los elementos extremos correspondientes a los lados hacia donde se desea ubicar la
fuerza resistente, de esta manera se cumple con la norma de diseño, ya que la
resistencia de cada elemento no será menor que sus correspondientes resistencias
nominales.
El criterio, que se tomo para la distribución de rigideces, consistió en mantener
constante la rigidez del elemento que se encuentra en la parte central del modelo
estructural, y balanceando la de sus extremos, en función de la excentricidad estructural,
así como de la posición del centro de masa definida en el centro de figura del modelo,
(modelo excéntrico en rigideces). Con base a lo anterior se realizo un análisis estático,
para deducir las ecuaciones que rigen la distribución de la rigidez en cada uno de los
elementos.
Considerando que la fuerza sísmica actuara en la dirección "y", para los modelos con
elementos resistentes en una y dos direcciones ortogonales, y de acuerdo al sistema de
referencia del modelo tenemos las siguientes ecuaciones:
Ky1 = (kye * x(numely) + esx - xcm + Sum ) * Fy / X (1)
Kyi int = ( KTy - Kye ) * Fy / (mumely - 2 ) (2)
Ky numel = ( xcm - esx - Sum - Kye * x(1) ) * Fy / X (3)
Donde:
Ky1 = Rigidez del primer elemento.
Kyi int = Rigidez correspondiente a un elemento intermedio "i".
Ky numel = Rigidez del último elemento.
Fy = Componente de la fuerza sísmica.
xcm = Posición del centro de masa respecto al centro del diafragma.
34
numely = Número total de elementos resistentes
KTy = Rigidez total de la estructura.
Kye = Fracción de la rigidez total asignada a los elementos extremos.
X = xnumely - x1
xi = Coordenada de cada elemento respecto al centro del diafragma.
Sum = Sumatoria desde i = 2 hasta numely-1 de (Kyi xi )
1.3.5.- Planteamiento dinámico
Una estructura de cortante se puede idealizar como una columna empotrada en la base,
con masas concentradas en la altura, a nivel de pisos, de tal forma que solo es posible
el desplazamiento horizontal de los entrepisos, ocasionando la aparición de tres tipos de
fuerzas que conforman las ecuaciones dinámicas, como se muestran en las siguientes
figuras:
x
y
z
k
m
1
MODELO DE CORTANTEDE UN NIVEL
Fig.7. Estructuración del modelo de cortante de un piso. FI
FRFA
FUERZAS DINAMICAS EN UN MODELO DE CORTANTEDE UN NIVEL
Fig.8. Fuerzas de equilibrio, que actúan para el modelo de un piso
35
Fig. 9. Estructuración de un modelo de tres niveles.
Esta hipótesis transforma el problema de una estructura con un número infinito de
grados de libertad, debido a la distribución discreta de masas, en una estructura con
desplazamientos horizontales a nivel de cada piso y sin rotaciones en los nudos.
Fig.10. Fuerzas dinámicas presentes en un modelo de tres niveles
FI1 + FR1 + FA1 = 0 (3)
FI2 + FR2 + FA2 = 0 (4)
FI3 + FR3 + FA3 = 0 (5)
FI = Vector de Fuerzas de inercia.
FI = [M] * {U"}
{U"} = Vector de aceleraciones totales.
[M] = Matriz diagonal de masas.
FR =Vector de aceleraciones de rigidez de cada entrepiso.
FR = [K] * {U}
[K] = Matriz de rigidez del sistema
{U} = Vector de desplazamientos totales
FA = Vector de fuerzas de amortiguamiento
FA = [C] * {U'}
[C] = Matriz de amortiguamiento
{U'} = Vector de velocidades totales
36
Si se supone la vibración libre de un sistema, sin amortiguamiento, la ecuación de
equilibrio dinámico general se plantea como:
[M] * {U"} + [K] * {U} = {0} (6)
La ecuación tiene como solución
{U} = {a} sen(wt - f) (7)
Donde:
ai = Amplitud del movimiento en la iésima coordenada
f = Ángulo de fase
w = Frecuencia natural de vibración del sistema
Efectuando la correspondiente sustitución, la ec.5., resulta:
Las tres raíces reales de la ecuación corresponden a las tres rigideces del entrepiso que
guarda una relación directa con los tres modos de vibrar; donde la mayor corresponde al
primer modo de vibrar. De esta manera quedan definidas las propiedades que
relacionan el periodo y la rigidez de la estructura.
1.3.7.- Parámetros estudiados
El definir los parámetros que caracterizan de la manera más real el comportamiento no
lineal de un edificio, ante excitación sísmica es complicado, sin embargo trabajos sobre
el tema indican que la distribución de resistencias en planta, influye notablemente en su
respuesta. Otros parámetros considerados en este estudio son los siguientes: el período
desacoplado de vibración libre, la excitación estática ó estructural, la relación de aspecto
de la planta, y el cociente de resistencia real a resistencia nominal del edificio. 1.3.8.- El periodo de vibración libre en traslación En este parámetro se considero, la asignación de una masa unitaria a los diafragmas de
piso en los modelos, y de esta manera la rigidez total de la estructura, que es función
inversa del cuadrado del período resulta:
2TKT
24π=
Los valores del período que se proponen son 1.5, 1.0, y 0.5 s, para los modelos con
elementos resistentes en una y dos direcciones ortogonales. Tomando en cuenta que
para los elementos en dos direcciones ortogonales, se asigna el mismo valor del período
traslacional, dado por Tx = Ty.
39
1.3.9.- Excentricidad estática o estructural (es)
La excentricidad estática en una y dos direcciones ortogonales para todos los modelos
se normalizó respecto a la dimensión "b", de la planta. Se consideraron dos tipos de
asimetría: la asimetría proporcionada por movimiento del centro de rigideces y por el
movimiento del centro masa, dado que en el intervalo inelástico se trata de dos casos
distintos. Los valores de excentricidad normalizada que se estudian son desde 0.0, 0.1,
0.2, y 0.3, siendo 0.0, el caso simétrico. En las siguientes figuras se muestran los
valores de excentricidad que se proponen en los modelos.
Fig. 12.- Incertidumbre de excentricidades
1.3.10.- Distribución de resistencias
Las variables para determinar el efecto de la distribución de resistencias en planta están
dadas por "xr", para los modelos con elementos resistentes en una dirección e
incluyendo "yr", para los modelos con elementos resistentes en dos direcciones
ortogonales. Estas variables se emplearon para medir la distancia entre la resultante
de las resistencias y el centro geométrico del diafragma, considerando además que
estas variables fueron normalizadas respecto a la dimensión " b ", de la planta.
La variación de los valores de resistencia se definió para ambos ejes ortogonales de la
planta, de acuerdo con la norma de diseño, resultando valores de 0.0, 0.1, 0.2, y 0.3b,
para "x r", y "yr" con intervalos de 0.1b.
40
Para la definición del signo se propuso en función del sistema de referencia, con origen
en el centro de figura.
Fig.13. Distribución de resistencias
1.3.11.- Relación de aspecto de la planta. (h/b)
En los modelos se proponen tres diferentes relaciones de aspecto de la planta como
son: 0.5, 1.0, y 2.0, las cuales modifican a su vez el valor del radio de giro del diafragma
necesario para el cálculo de la masa rotacional y la relación de frecuencias
desacopladas [ref. 6].
1.3.12.- Demanda de ductilidad
La ductilidad es la capacidad de una estructura de sustentar deformaciones superiores a
las del limite elástico sin fallar. La definición se aplica cualquiera que sea el sentido que
se de al termino falla, sea que se trate de colapso, agrietamiento o deformación
excesiva [ref. 16].
La demanda de ductilidad se define como el cociente de la máxima deformación que
experimenta una estructura o parte de ella, sin fallar, entre la deformación que
corresponde a su limite de proporcionalidad o limite de fluencia. La demanda de
ductilidad de todo sistema que posee mas de un grado de libertad depende del tipo de
solicitación que se le imponga y del tipo de deformación que se elija para definirla. En
las estructuras la demanda de ductilidad de un elemento, de un entrepiso, o la demanda
de ductilidad global, esta gobernada por una relación resistencia-deformación. En
elementos, la deformación máxima es la correspondiente al desplazamiento longitudinal,
41
a la rotación o la deformación por cortante; en un entrepiso se considera como la
diferencia entre los desplazamientos de dos niveles consecutivos. La demanda de
ductilidad global representa un promedio pesado de las demandas de ductilidad de
entrepiso.
De las anteriores definiciones se puede observar que la demanda de ductilidad en
elementos puede ser mayor que la de entrepiso, que a su vez puede ser mayor que la
demanda de ductilidad global. Evaluaciones analíticas y experimentales muestran que el
máximo valor de reducción proveniente de la ductilidad es hasta de cuatro para
estructuras conformadas por marcos de concreto bien detallados o marcos de acero,
[ref.17].
1.3.14.- Método de Análisis
Para obtener la respuesta inelástica de los modelos se utilizó el programa TORSIÓN
[ref.9], para análisis dinámico. En este programa la estructura se idealiza como un
conjunto de marcos planos unidos por diafragmas rígidos de piso.
Las excitaciones sísmicas que se emplearon están dadas con intervalos de tiempo de 0.02 seg. Para efectos del análisis, se considero para el diseño de modelos, la influencia
de las dos componentes del sismo, en un 100% del efecto ocasionado en esa dirección,
más el 30% del efecto del sismo en la dirección perpendicular.
1.3.15.- Descripción de la excitación utilizada
Para el presente estudio se utilizó uno de los registros del temblor del 19 de septiembre
de 1985 en la Ciudad de México; denominado SCT, obtenido en la zona de suelo blando
de la ciudad.
Debido a la gran duración de la señal (180 seg.), que representa demasiado tiempo de
cálculo en un análisis inelástico, se optó por recortar el acelerograma de acuerdo al
concepto de intensidad de Arias [ref 18], que permite seleccionar el intervalo de tiempo
42
para el cual el registro presenta el máximo potencial de daño. El criterio consiste en
encontrar la curva de la función acumulada de la energía del sismo, tomada como:
∫∫
ft
t
dtt
dtt
0
2
0
2
a
a
)(
)(
Donde a(t) es la aceleración del suelo y f
t es la duración total del sismo. El criterio toma
la duración comprendida entre el 5 y el 95 por ciento de la energía disipada acumulada.
Este tipo de registro de las aceleraciones del suelo normalizadas contra la máxima
aceleración registrada; se muestra en la fig.9., que representa la intensidad de Arias,
como representativa del daño potencial que el sismo puede producir en un sitio dado,
medido como la suma de la energía disipada por todas las estructuras.
Aplicando el criterio de Arias a la señal SCT EW se observa una reducción en la
duración total de la señal, obteniendo un tiempo efectivo de 39 segundos, que
representan un considerable ahorro de tiempo en el proceso de cálculo. Mientras, para
la dirección NS se obtuvo una duración efectiva de 77 segundos. Ya que los efectos
máximos ocurren dentro del intervalo de los 39 seg., en esta investigación se tomo esta
duración.
La influencia de las condiciones iniciales de la señal excitadora sobre la respuesta del
modelo, hizo necesario una modificación en la parte inicial de los registros recortados;
de tal modo que las aceleraciones se incrementaran en forma gradual hasta alcanzar el
valor de la primera aceleración de la señal.
43
CAPÍTULO II
Análisis del Fundamento teórico de Confiabilidad estructural
Método de confiabilidad aplicando datos de
mediciones aleatorias y de incertidumbre estadística.
44
2. Análisis del Fundamento teórico de la Confiabilidad estructural 2.1. Información probabilística Esta información permite obtener datos y medidas de las propiedades de los modelos
estructurales con base a las características de varias muestras de un modelo
estructural, para obtener propiedades de las variables con incertidumbre
representativas. Por lo tanto debe esperarse, que las fluctuaciones físicas o variaciones
de estos modelos sean incontrolables debido a muchos factores diferentes como los de
construcción de la estructura, magnitud M y distancia R, que se presentan como
variaciones aleatorias de las propiedades estructurales, mediante la aplicación de
funciones de distribución que representan la respuesta del modelo estructural sujeto a
un evento sísmico.
Normalmente, se anticipa que midiendo los resultados obtenidos directamente de las
funciones de distribución en los modelos estructurales dados, se obtienen diferentes
números, que representan dichas propiedades. Esta predicción se determina con la
experiencia que se deriva del estudio, en más de un caso propuesto y aplicado a
condiciones distintas de estado límite, considerando la misma propiedad aleatoria y
puede mostrar variaciones significantes entre estos resultados.
La conclusión es que la variación de los resultados obtenidos expresa la suma de las
fluctuaciones físicas del modelo estructural en observación y las fluctuaciones
inherentes al método de observación. Donde estas variaciones contribuyen a un tipo de
incertidumbre llamada medición de incertidumbre con variaciones aleatorias que pueden
ocasionar errores sistemáticos, y estos no pueden ser eliminados promediando.
En principio, no es posible quitar las variaciones generadas directamente por el método
midiendo consecuentemente los valores físicos obtenidos. Sin embargo, los métodos de
teoría probabilística hacen posible algunas veces formular declaraciones sobre la
naturaleza estadística de las fluctuaciones físicas.
45
Éste es el caso si el método de medición puede aplicarse en varios tiempos a una
estructura, por el que la propiedad física pertinente se conoce como constante o sólo
variando ligeramente de medida a medida. Y por una serie de medidas repetidas, se
genera información sobre la incertidumbre del método midiendo en una forma que a
través de los métodos estadísticos puede ser representado, por un modelo
probabilístico. Cuando el método de medición se aplica, a una estructura con
fluctuaciones físicas inherentes, la medida de incertidumbre, puede eliminarse dentro de
una descripción con naturaleza probabilística de las fluctuaciones físicas. Sin embargo,
la dependencia entre el error Y, y la cantidad física X no debe ser demasiado
complicada.
Ahora si tenemos una cantidad física que fluctúe aleatoriamente, entonces es natural
representarlo por una variable aleatoria X. Supuesto, que la cantidad sea moderada por
un método donde la medida de incertidumbre puede ser representada por una variable
aleatoria, la cual es independiente de X. Los resultados medidos son entonces la suma
Z = X + Y (2.1)
El análisis estadístico de las medidas de los datos, da estimaciones del valor medio E[Z]
y la varianza Var[Z]. Así, las propiedades de incertidumbre del método de medición son
de antemano conocidas y representadas por E[Y] y Var[Y]. Seguido entonces de (2.1),
ya que E[X]=E[Z]-E[Y] y la independencia entre X y Y está dada por:
Var[X]=Var[Z]-Var[Y] (2.2)
Si esta fórmula da valores negativos, la razón es que la suposición de independencia
entre X y Y no es válida. Sin está suposición, la fórmula (2.1) debe ser remplazada por
var[X]= Var[Z]- Var[Y] - 2Cov[X,Y] (2.3)
Donde el lado derecho siempre será no negativo. Sin embargo, la fórmula (2.3) no es
directamente aplicable en esta conexión porque la Var[Y] y Cov[X,Y] no son conocidas,
46
debido al método de medición, que en esta situación, es dependiente de la estructura,
para la medida.
Si suponemos que las medidas de incertidumbre probabilística, pueden ser descritas por
una distribución normal o gaussiana y que el análisis estadístico de datos en las
muestras moderadas, que también son razonables para describir estos datos por una
distribución normal, entonces no se opone con la información dada para asumir que
X=Z-Y, distribuido normalmente. Sin embargo, esta suposición no es una consecuencia
del supuesto que Z y Y, son distribuidos normalmente. Así, se requiere por tanto una
conclusión, en donde el par (Z, Y), tienen una distribución normal bidimensional, tal que
una suposición no puede ser verificada, por una medición y por consiguiente no será
posible verificar una suposición que condicione que X no se distribuye normalmente.
Un caso que ilustra en que sentido es posible "depurar" los resultados de medición, es
para evaluaciones de incertidumbre, cuando el método es bien examinado. Sin
embargo, se enfrenta una dificultad, cuando las propiedades de la estructura en estudio
son del tipo energético como es la “fuerza (acción sísmica)” que es difícil, si no imposible
el hecho de realizar medidas repetidas en la misma estructura de prueba. Por otra parte
la evaluación de la incertidumbre de mediciones, debe por consiguiente basarse en
investigaciones indirectas sobre la respuesta del modelo estructural sujeto un evento
sísmico, combinada con experiencias de las comparaciones de mediciones con métodos
diferentes.
Donde existe la posibilidad de eliminar totalmente la medición de incertidumbre al tratar
con fuerzas de masa u otras propiedades de materiales, que cambian irreversiblemente
durante el procedimiento de medición, dando como condición la unión de tales
mediciones, resultado de una muestra común de valores obtenidos comparables del
mismo método de medición. Para que estos resultados de medidas con métodos
diferentes, puedan ser comparables a las ya mencionadas, deben llegar a una regla de
transformación mediante un muestreo único de un método a otro de medición. De
cualquier forma, no necesariamente se requiere, que el valor de un dato transformado
del primer método de medición debe ser casi el mismo el valor, que se obtuvo por el
47
segundo método de medición, aunque un requerimiento como este, es común tenerlo
para métodos de medición con pequeña incertidumbre. Entonces, para medidas de
propiedades de material irreversible, la opción de este estudio no puede ser controlado
por mediciones, de un supuesto. Así una regla de transformación entre datos viene de
diferentes métodos de medición, donde debe ser considerado como un tipo de regla
general de corrección, para remover los errores sistemáticos del único método de
medición relativo al otro.
En general habrá una incertidumbre considerable sobre la verdad de una afirmación que
especifica el valor de un error sistemático. Si esta incertidumbre puede ser sujeta a una
evaluación cuantitativa. Es decir puede ser de carácter de supuesto, entonces esto
también puede ser representado por un modelo probabilístico que desde un punto de
vista matemático haga, que se desvíe en principio de un modelo estructural
probabilístico, para el conjunto de fluctuaciones o variaciones físicas. La incertidumbre
de cualquier forma es de una naturaleza diferente. Contrario a las fluctuaciones físicas,
la incertidumbre es afectada por investigaciones más detalladas.
Este hecho ha motivado la separación entre aleatoriedad e incertidumbre. La
aleatoriedad inherente relacionada a la estructura no puede ser reducida por
observación, lo que, si se puede con la incertidumbre. Las palabras "medición de
incertidumbre” parecen cubrir una mezcla de dos conceptos. Un método de medición
puede poseer un error sistemático el cual es conocido únicamente con un poco de
incertidumbre, pero por mas investigaciones detalladas del método de medición, está
incertidumbre, puede ser reducida o prácticamente removida. Además un error
sistemático, en un método de medición usualmente con fluctuaciones aleatorias, las
cuales normalmente son cubiertas por las palabras "medición de incertidumbre" aunque
las palabras, "medición de incertidumbre" posiblemente podría corregirse. De otro modo,
las medidas de aleatoriedad pueden ser afectadas por cambios de métodos en las
mediciones.
Vemos que la clasificación de las posibilidades del concepto discutido de
indeterminación entre aleatoriedad e incertidumbre es relativa a la estructura. Y este a
48
su vez es el propio método de medición en estudio, entonces las funciones de
distribución [ ] ℜ∈∀→ℜ x ,0,1:x)(xφ , inherentes a la estructura son caracterizadas como
aleatoriedad. Si la estructura a medir es la estructura de estudio, entonces estamos
hablando acerca de mediciones de incertidumbre. Esta división da posibilidad de afectar
la confiabilidad estructural en estos modelos estructurales por especificaciones de
aleatoriedad e incertidumbre en las normas de diseño sísmico, que se aplican en
ingeniería.
Por lo que un problema de confiabilidad contiene demasiadas variables con
incertidumbre, que pueden ser reducidas con la obtención de muchos datos o
información sin afectar la propia configuración estructural. Donde estas variables
aleatorias, pueden ser afectadas por las funciones de distribución debido a la
aleatoriedad en las propiedades estructurales del modelo. Sin embargo, la medición de
incertidumbre ha sido discutida como una incertidumbre unida al resultado de una
simple medida. Esto le da el mismo carácter, como el concepto de modelo de
incertidumbre. La medida de incertidumbre de un tipo completamente diferente es
llamada incertidumbre estadística.
2.2. Incertidumbre estadística
El propósito de cualquier método de medición es generar información sobre una
cantidad relacionada a los modelos estructurales en medición. Si la cantidad es de
naturaleza fluctuante que requiera un modelo probabilístico para su descripción.
Entonces en el método de medición se debe hacer lo posible, para obtener información
cuantitativa acerca de los parámetros del modelo probabilístico escogido. Por lo que es
natural que un valor promedio generado de un solo análisis para una variable aleatoria X
es suficiente, para dar una solo estimación aproximada mediante el valor de X y es
insuficiente para dar algún dato, acerca de la desviación estándar de D[X]. Sin embargo,
si una muestra de X esta dada, y los valores promedio generados de un cierto número
valores independientemente de X, pueden usarse para las estimaciones dadas para
todos los parámetros del modelo. La razón se relaciona a una estimación de una
49
muestra de X, siendo que tenga sentido y sea posible, será encontrado en la teoría de la
probabilidad matemática.
Para ilustrar el papel de los conceptos estadísticos en el análisis de confiabilidad, vale la
pena repetir los rasgos más básicos de la descripción de información que una muestra
de X de tamaño n contiene el valor medio E[X]: es suficiente para hacer la suposición,
simplificando que X tiene una desviación estándar conocida D[X]=σ . Además esa es la
única información disponible que se da como muestra x1,....,xn de X.
Entonces es obvio que una estimación del valor medio μ=E[X] debe calcularse como el
valor de alguna función μ (x1,....,xn;σ ). Recordando que los valores x1,....,xn, son
obtenidos por experimentos repetidos mutuamente independientes, que dan resultados
de X, o más precisos, como un solo resultado del vector aleatorio (x1,....,xn) donde
x1,....,xn son variables aleatorias distribuidas mutuamente independientes, como X es
natural estudiar las propiedades distribucionales de la variable aleatoria μ (x1,....,xn;σ ).
Por ejemplo, parece ser apropiado escoger la función μ como la función de estimación
esta dada por:
E[μ (x1,....,xn;σ )]=μ (2.2.1)
para que la varianza Var[μ (x1,....,xn;σ )] sé vuelva tan pequeña como sea posible. Está
probabilidad matemática requiere suposiciones distribucionales sobre X y la
determinación es en la mayoría de los casos un problema difícil en cálculo variacional.
Por otra parte, si nosotros estamos satisfechos con la clase de estimación lineal,
entonces ninguna suposición de distribución se necesita y resulta que la mejor opción es
el promedio
∑n
1iiX
n1μ
== (2.2.2)
por lo cual, la desviación estándar es : [ ]nσμD = (2.2.3)
Observamos que el promedio x =( x1,+....+,x2)/n de la muestra es una estimación de μ
pero también la estimación es incierta. La desviación estándar (2.2.3) puede con la
50
interpretación apropiada, ser tomada como una media de esta incertidumbre. En
particular se ve que la incertidumbre desaparece asintóticamente como n-α. En la
presente formulación disminuye inversamente proporcional a la raíz cuadrada del
tamaño de la muestra.
La incertidumbre de este tipo, es llamada incertidumbre estadística y como es visto,
involucra información incompleta debido al tamaño de la muestra finita. Esto puede ser
interpretado como una fluctuación aunque normalmente no se observa como tal en la
práctica. Sólo un simple valor del promedio x es obtenido de la muestra. Sin embargo,
uno puede imaginar una secuencia de resultados repetidos de μ por tomar nuevas
muestras de tamaño n. Entonces μ exactamente fluctúa como una cantidad con
indeterminación de tipo aleatorio y desviación estándar definida por (2.2.3).
La descripción cuantitativa de la incertidumbre estadística, aquí no es aproximada como
una capacidad para un modelo probabilístico con respecto a una evaluación de una
exactitud estructural. Esto es porque un modelo semejante requiere que puedan unirse
contribuciones de las diferentes fuentes de aleatoriedad e incertidumbre juntos en un
modelo integrado de reglas lógicamente consistentes. Supongamos que la variable
estándar ya mencionada X está contenida en un modelo estructural probabilística.
Desde el valor medio E[X] desconocido, es necesario calcular la probabilidad para
asumir que [X] ha dado un valor μ . De este modo, la probabilidad de falla se vuelve una
función pf(μ ) de μ . Entonces hay un problema de cómo μ debe ser escogido. Una
posibilidad es por supuesto su contenido con el valor de la pf(μ ) con un intervalo
conveniente de confianza para pf(μ ), determinado por el uso de (2.2.2) y (2.2.3).
Dentro del modelo mencionado para incertidumbre estadística, un p% del intervalo de
confianza de un parámetro como μ o de la pf(μ ) es un intervalo que tiene una
probabilidad de p% para cubrir el valor verdadero de μ o pf(μ ). Esta probabilidad puede
ser interpretada como una frecuencia relativa relacionada a la ya mencionada secuencia
imaginaria de muestras.
51
Es razonable pedir una sola definición de la probabilidad del total de fallos
incondicionales de probabilidad pf. Tal que una probabilidad se necesita en un modelo
de decisión que esta basado en el principio de aumentar al máximo alguna medida de
utilidad. Una definición natural es un promedio del peso de los valores diferentes de
pf(μ ) es decir
μ)f(μ)dμ(pPtodoμ ff ∫= (2.2.4)
En la cual f( μ ) ≥ 0 es un peso conveniente satisfaciendo la función
1μ)dμf(todoμ
=∫ (2.2.5)
Se ve que la f(μ ) posee propiedades como una función de densidad para una variable
aleatoria. Si μ se interpreta como un resultado de una variable aleatoria M, entonces
pf(μ ) es la probabilidad de falla condicional dado que M=μ de acuerdo al teorema de
suma de la teoría de probabilidad, la probabilidad de falla total se vuelve
μd)μ(f)μ(p=p Mμtodo
ff ∫ (2.2.6)
En la cual fM(μ ) es la función de densidad de M. De ese modo, la función de peso f(μ )
puede interpretarse como una función de densidad fM(μ ) para el parámetro μ modelado
como una variable aleatoria M. En cuanto a (2.2.2) y (2.2.3) deben generarse las
propiedades de la distribución de M de alguna manera de la información contenida en la
muestra x1,....,xn. De resultados de X y el conocimiento de la desviación estándar
D[X]=σ .
La manera usual de analizar este problema es por la teoría estadística de Bayes. Antes
de que la información de la muestra esté disponible, una densidad fM(μ ) se une a M.
Y se asume que esta densidad predeterminada representa el conocimiento disponible
sobre μ ante la muestra x1,....,xn., que es conocida. Desde el vector aleatorio (x1,....,xn)
de acuerdo a la multiplicación el teorema para eventos independientes tiene la densidad
condicional dada por
∏=
)/(=),......(,.......n
1iixn1nX1X μxfxxf (2.2.7)
el total de densidad se vuelve
52
∏=
, )/()(=),......(,.......n
1iixMn1nX1XM μxfμfxμxf (2.2.8)
y de este modo la densidad condicional
∏=
)/()(),....../(n
1iixMn1M μxfμαfxxμf (2.2.9)
Donde "α " quiere decir proporcional a (es decir, los dos lados son iguales, salvo una
constante normalizando determinada por 2.2.5). Ésta es la llamada densidad posterior
de M dada la muestra x1,....,xn, si el lado derecho de (2.2.9) es proporcional a una
densidad uno, aun cuando la fM( μ ) se pone a uno ó si fM( μ ) se pone a una función de
μ la cual esta lentamente variando comparada a la variación de
)/(Π=
μxf ix
n
1i (2.2.10)
Entonces tal que la función varia lentamente de μ , puede reemplazar la densidad
anterior y servir como un modelo para no tener información anterior.
El producto (2.2.10) considerado como una función del parámetro μ es, llamada la
función de probabilidad. Esta formulación de un modelo para la descripción de la
incertidumbre estadística y su reducción por ponerse al día en las bases de la
información muestral es llamada Bayesiana. La formula (2.2.9) es un caso especial de la
llamada formula de Bayes.
Si adoptamos el método estadístico de Bayes como una forma racional de información
disponible, entonces como consecuencia debemos usar la más reciente densidad
posterior a la de M como la función frn la formula (2.2.4).
Por lo tanto, si tomamos a X como una función normalmente distribuida y con la función
de densidad dada por: )_
()/(σμx
φσ1
=μxfx (2.2.11)
La función de probabilidad se vuelve
∏= ⎥
⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
⎟⎟⎠
⎞⎜⎜⎝
⎛ −−∏
=)/(
n
1i
2
σ
μix
21expα
n
1iμixxf ⎥
⎦
⎤⎢⎣
⎡)+−∑
=(−= 2μi2μμ
1i2ix22σ
1exp
53
⎟⎟⎠
⎞⎜⎜⎝
⎛/−
ϕ⎥⎦⎤
⎢⎣⎡ )+−(−
nσxμαxx2μμ
2σ1αexp 22
2 (2.2.12)
Donde x es el promedio de x1,......xn. Así la probabilidad de la función es proporcional a
la distribución de densidad normal mediante el valor x y la desviación estándar n/σ .
Por lo tanto, en el extremo derecho de (2.2.9) es una densidad cuando )μ(fM es
reemplazado por 2.2.1. Y formalmente, el conjunto de densidad anterior para una
constante es expresada, por una densidad M, la cual es difusa sobre todo R. Entonces
la densidad de M se vuelve
⎟⎟⎠
⎞⎜⎜⎝
⎛/−
ϕ=),......(nσxμ
σn
nx1μIxMf (2.2.13)
De donde surge una interrogante de: ¿Que es la distribución normal con valor medio x y
desviación estándar n/σ ?. No tiene valor alguno la analogía con la estimación μ en
(2.1.2). Desde la función condicional de distribución de X es:
⎟⎠
⎞⎜⎝
⎛=≤(σμ-xΦμ) xIXP (2.2.14)
El total posterior de la función de distribución es obtenido como en (2.1.6) para
dμnσxμ
σμxΦ
σnxxIxXp n1 ⎟⎟
⎠
⎞⎜⎜⎝
⎛/−
ϕ⎟⎠⎞
⎜⎝⎛ −
=),......≤( ∫∞
∞− (2.2.15)
con la correspondiente función de densidad
dμnσxμσ
σμx
σnxxIxXP
xxxIxf 2n1n1x ⎟⎟
⎠
⎞⎜⎜⎝
⎛/−
⎟⎠⎞
⎜⎝⎛ −
ϕ=),.......,≤(∂∂
=),......,( ∫∞
∞−
⎟⎟⎠
⎞⎜⎜⎝
⎛/+
−/+
=n11σ
xxσn11σ
1 (2.2.16)
Donde la integral puede ser calculada por el uso de las formulas dadas en las
ecuaciones 2.2.17 y 2.2.18. La densidad posterior de X está dada para ser normal con el
valor medio x y desviación estándar n/1+1σ . Así la influencia en X de la
incertidumbre estadística es que X, en lugar del valor medio desconocido μ obtiene
asignado el valor medio x y, en lugar del valor de desviación estándar conocido, obtiene
54
el valor más grande de la desviación estándar asignada n/1+1σ . La densidad
posterior de X dada la muestra es llamada densidad predecible de X.
Las siguientes fórmulas, frecuentemente son útiles en cálculos de la densidad de
distribución normal
⎟⎟⎠
⎞⎜⎜⎝
⎛ −ϕ⎟⎟
⎠
⎞⎜⎜⎝
⎛ −
2
2
1
1
σμx
σμxσ
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
+/
)+/()(−ϕ
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
+
−ϕ= +
22
2121
22
21
212
221
22
21
1
σσσσσσσμσμx
σσμ2μ (2.2.17)
⎟⎟⎠
⎞⎜⎜⎝
⎛
++=⎟⎟
⎠
⎞⎜⎜⎝
⎛ −⎟⎟⎠
⎞⎜⎜⎝
⎛∫
∞
∞− 22
21
22
212121
11σσ
ϕσσσ
ϕσ
ϕσσ
zdxxzx
(2.2.18)
La probabilidad de error puede ser representada como el valor medio de una función
especial Ψdentro de las variables aleatorias. Esta es la función que toma el valor 1 si
dentro de las variables toma valores que corresponden a un punto en el conjunto de
errores y por todos los demás puntos toma el valor 0. Para simplificar suponemos que X
es la única dentro de la variable aleatoria. Entonces tenemos el error condicional de
probabilidad
[ ] ∫∞
∞−μ(Ψ=μ)(Ψ=)μ( )dxII xXEPf (2.2.19)
Y así de acuerdo a (2.1.6) el total de errores de probabilidad
∫ ∫μ
∞
∞− ⎥⎦⎤
⎢⎣⎡ μ()(Ψ=
todoxf xfxP )dxI
[ ] μ),.........μ()μ()(Ψ= 1
∞
∞− μ∫ ∫ dxxfdxxfx nMtodo
x II
∫∞
∞− 1 ),.........()(Ψ= dxxxxfx nx I (2.2.20)
Así se puede calcular cualquier error de probabilidad dado M=μ y después de esto tener
cuidado de la incertidumbre estadística por incondicionalidad a través del uso de la
densidad posterior para el parámetro M o primero incluir la incertidumbre estadística
directamente dentro de la variable X para obtener su distribución predecible antes del
modelo estructural es considerado para él calculo de la probabilidad de falla.
Esto en general depende de las propiedades matemáticas si un procedimiento es más
conveniente que otro.
55
Suponemos que una distribución normal con parámetros 00 σ,μ puede ser asignada a M
como una distribución anterior. Aplicando las formulas (2.2.17) y (2.2.18) para mostrar
que X tiene una distribución predecible normal con parámetros
r+nμr+xn 0 y
r+n1+r+n
σ (2.2.21)
donde ( )200 σ,μ=r . Por comparación con (2.2.16) vemos que al escoger la densidad
anterior a una contribución de información corresponde a la muestra de “tamaño” r y
con valor promedio σo.
Los métodos Bayesianos que tienen cuidado en la incertidumbre estadística relacionada
a la certeza estructural se pude tratar con un modelo de incertidumbre estadística.
2.3. Modelo de Incertidumbre
La aleatoriedad e incertidumbre contiguas a las variables dentro del mecanismo
establecen para el análisis, con certeza la inclusión de la incertidumbre relacionada a la
formulación del estado límite pertinente dentro del modelo estructural.
Un estado límite es una relación entre la entrada de variables que definen el estado
cuando la estructura está en el umbral, de pasar a un evento adverso considerado, y se
puede ser definido por la ecuación 0),.....,( 1 =nxxg ; en la cual “g” es alguna función de la
entrada de variables escogidas tal que 0>)x(g , para toda x en el interior del conjunto
seguro, y de g(x)<0, para x en el acontecimiento interno adverso, es decir el conjunto de
falla. Desde la frontera entre los dos conjuntos =g {xIg(x)=0}, es definida únicamente
por el modelo mecánico y el evento adverso considerado, al escoger de la función g,
que no es única. Para n=3, el estado límite g es una superficie. Para n general también
denotamos g como él estado límite de superficie.
La función particular g escogida por esta definición es llamada estado límite de la
función.
56
En el proceso de transformar un estado límite, formulado teóricamente en un modelo
matemático, se hace entre varios parámetros físicos. Éstos se anticipan para tener
influencia en la interrogante de sí la estructura es, de hecho, en el estado físico descrito
por la formulación verbal como la falla o ninguna falla. Si dejamos n variables x1,...,xn,
que tomen parte en la descripción del problema de confiabilidad y hay más variables
relevantes, entonces un punto dado (x1,...,xn) no es con toda seguridad un punto en el
conjunto de falla o un punto en el conjunto seguro. Por comprender la estructura que las
variables descuidadas hacen a los valores. Si esta asignación de valores es de una
naturaleza aleatoria, también es un evento aleatorio si el punto dado (x1,...,xn)
corresponde a la falla o no. Nosotros podemos imaginar que cada vez que las variables
ignoradas hacen a los valores el espacio n-dimensional del modelo estructural es
dividido en un conjunto seguro y un conjunto de falla. Así la superficie de estado límite,
se comprende como una superficie al azar de alguna población de superficies. Una
superficie se selecciona de la población por la asignación de valores a las variables
dadas.
La razón de que algunas variables físicas dadas en el modelo de formulación puede ser
cualquiera de las que no son conocidas (posiblemente están más allá de la imaginación)
o, si están identificados que tienen influencia cuantitativamente desconocida e
interacción con otras variables. Esto significa que no es posible eliminar las
fluctuaciones aleatorias de la superficie del estado límite de realización a realización
sólo por extender la dimensión del espacio. Sin embargo, de esta manera al inicio, es
posible disminuir las fluctuaciones de la superficie del estado límite. Siendo esta
disminución neutralizada por las variables extras que tiene fluctuaciones aleatorias entre
evento y evento.
La representación matemática de un estado del límite da lugar a la incertidumbre más
allá que las fluctuaciones causadas por las variables descuidadas. El estado límite se
formula en términos de las variables escogidas x1,...,xn, por uso de un poco más o
menos extensiva del conjunto de funciones matemáticas. A menudo estas funciones son
generados, por el uso de modelos mecánicos idealizados para la estructura y su
comportamiento. Además, estos pueden ajustarse a las observaciones experimentales
57
del comportamiento de falla de algunas estructuras. Estos procesos matemáticos de
idealización inducen a errores sistemáticos a cualquier situación dada de la superficie de
fracaso. Quizás este error puede disminuirse por un modelo de formulación más
detallado. Para el análisis de confiabilidad el punto es que los dos limites de tiempo y los
dictados de las razones operacionales, en la práctica no debemos estar confiados con
algunos niveles demasiado sofisticados de detalle. Por consiguiente, un error
sistemático de tamaño desconocido siempre se presenta. Esto debe ser tomado en
cuenta cuantitativamente en el análisis de confiabilidad por uso de un criterio de
variables. Con el punto de vista superior que toda contribución de incertidumbre debe
ser en forma racional y unificada, tal que el estado límite sea representado por una
unión de probabilidad de distribución.
Una distribución de probabilidad es relativamente interpretada como un conjunto de
posibilidades por las probabilidades asignadas. El problema práctico enfrentado a la
formulación de un modelo de probabilidad consiste en establecer el conocimiento que
permite escoger de este conjunto de posibilidades. Poniendo al día por uso de nueva
información, entonces significa cambiar los pesos de esas posibilidades que están en
conflicto con la nueva información. En el problema estadístico es conseguir
conocimientos sobre el valor medio μ por una variable aleatoria X. Sí escogemos un
conjunto de posibles valores μ , representando nuestro conocimiento sobre μ en la
forma de la densidad anterior fM(μ ). Después de conseguir la muestra de X podemos
revalorar el conjunto de posibilidades por uso de las reglas de la teoría de probabilidad
matemática para obtener un conjunto de pesos importantes descrita por la densidad
posterior fM(μ I g(x)).
En el problema del estado límite en el modelo de incertidumbre, tiene la opción del
conjunto de posibilidades, en la adopción de capacidad, para el error sistemático en
situaciones experimentales, reducir el problema a evaluar la estadística de
incertidumbre. La diferencia entre llevar la capacidad calculada por uso del modelo del
estado límite y llevar la capacidad observada define una muestra de una población,
donde el valor medio expresa el error del modelo sistemático. A menudo el conjunto de
58
peso correcto de posibilidades es un objeto desconocido relacionado a un experimento
supuesto en el que se hacen repeticiones una y otra vez.
En realidad las posibilidades físicas de hacer repeticiones bajo condiciones iguales
están normalmente muy limitadas o incluso excluidas en principio. En común con la
descripción probabilística de un fenómeno de fluctuación y del conocimiento incierto
sobre una cantidad fija es que la descripción es dada en términos de un conjunto de
posibilidades. La diferencia está en la información en base a la opción de los pesos
relativos. Por lo que la teoría de probabilidad es capaz de predecir frecuencias relativas
y por consiguiente un modelo probabilístico posee un poder particular de predicción para
los fenómenos aleatorios de fluctuación contra la cual la esencia del modelo puede ser
probada.
Una comprobación de esencia de un método son los resultados bajo un criterio, del cual
son expresados como un conjunto de posibilidades de peso, debe entonces basarse en
las experiencias de las aplicaciones repetidas del método: a cada aplicación solo puede
notarse un evento observable si ocurre o no. El evento puede ser específico a la
aplicación y debe ser escogido en tal forma que de acuerdo con el método consigue la
probabilidad p. En la sucesión de aplicaciones del método, la frecuencia relativa de la
ocurrencia del evento puede ser en cualquier momento. La desviación entre p y la
frecuencia relativa observada junto con el número de aplicaciones da alguna evidencia
sobre esencia del método de juicio con relación a la sucesión considerada de eventos
notables. También desviaciones grandes o falta de estabilización de tendencias son
señales de menos utilidad del método. Cuando esto se reconoce a través de
experiencias obtenidas, el requisito de comportamiento racional dará fuerza a una
revisión del método de juicio a la larga (es decir, bajo la hipótesis que hay buena
voluntad para aprender de la experiencia). En general el análisis de confiabilidad no se
considera para los errores radicales porque a menudo son difíciles de formular en
términos de un modelo probabilístico cuantitativo.
59
CAPÍTULO III Análisis de Probabilidad de falla en secciones de elementos estructurales
Probabilidad de falla en secciones y elementos
estructurales de un Modelo de Edificio de Cortante.
60
3.- Análisis de Probabilidad de falla en secciones de elementos estructurales
La confiabilidad estructural se fundamenta en la teoría de probabilidad, que es
axiomática, es decir teórica, y para el diseño de estructuras aplicando los criterios de
diseño sísmico implica cumplir con las normas definidas en el reglamento de diseño
[RCDF87-NTC]. Estas normas expresan un resumen de experiencias deducidas con una
confiabilidad propuesta, para que las estructuras estén dentro de la seguridad y suponer
que ocurrirá la probabilidad de falla estructural durante el periodo de vida útil de la
estructura, con base a la teoría de estado límite.
Así, estos modelos probabilistas están en función de la inferencia estadística, que
acumula experiencias, que servirán para planear y tratar de adivinar el futuro en función
del pasado, en donde surgirán interrogantes del diseñador o constructor del ¿Por qué de
la aplicación de un reglamento? Para esto la estadística nos permite verificar el nivel de
confianza y la probabilidad de acertar a la distribución probabilística mediante la
realización de una simulación aleatoria con funciones discretas y continuas, como son
las distribuciones de Weibull y Gaussiana, las cuales tienen un comportamiento con
medidas de tendencia central y dispersión dados por: la media, mediana, varianza y
desviación estándar. Esta medidas sirven para calcular la probabilidad de falla de una
estructura permitiendo racionalizar e idealizar un sistema de diseño, apoyada en la
teoría de estado límite, que estará entre el rango del conjunto de seguridad y falla a
través de una función g(x)=0, que contiene una región de variables aleatorias e
incertidumbre de las acciones externas, así como de las propiedades mecánicas y
geométricas que la estructura requiere para su diseño.
Un caso de estas funciones de distribución con esta tendencia se observa en la fig.3.,
donde se comparan dos curvas de resistencia del concreto, en las que existe una
diferencia notable con respecto a la resistencia de las normas de Estados Unidos y
México.
61
Fig. 14. Distribución tipo campana
Por lo tanto podemos idealizar la acción de una carga sísmica, que actúa sobre un
modelo estructural de concreto reforzado estructurado con muros y columnas unidos por
un sistema de piso o diafragma de piso, de la cual podemos obtener su distribución de
probabilidad dado por E[A(sis.)], contra la resistencia esperada E[R(Ki)], fig.3.1.
Fig. 15. Modelo estructural y matemático.
Resultando un coeficiente de seguridad como se indica a continuación.
[ ][ ] s.cSERE
= (3.1)
Debido a la siguiente relación de planta del sistema estructural de la, fig. 3.2.
Fig. 16. Dirección del sismo
62
Donde estos valores de probabilidad expresan una aproximación en porcentaje de falla y
seguridad estructural de la siguiente forma: 1 - confiabilidad = riesgo Donde la distribución de probabilidad del evento se traza a través del área dada por la
función de densidad P(a≤x≤b)= Área, que en este caso representa una carga uniforme y
“x” es una variable aleatoria, con un conjunto de variables de distribución de
probabilidad, para este modelo:
AR=F.S
dadconfiabili=Cacción la de esperado valor al=A
aresistenci la de esperado valor al=R
3.1. Modelos estructurales deterministas y probabilistas
El análisis estructural probabilista es un método para formular un modelo matemático
con el cual podemos cuestionar y obtener respuesta de: ¿cuál es la probabilidad de
conocer el comportamiento estructural, donde una o más de sus propiedades mecánicas
y geométricas son de naturaleza aleatoria, y en algunos casos la acción también tenga
propiedades aleatorias?. Así, este análisis estructural probabilista puede ser estudiado
como una extensión del análisis estructural determinista, el cual se refiere a la
formulación de un modelo matemático con el que podemos conocer la respuesta de:
¿Cuál es el comportamiento de una estructura con sus propiedades mecánicas y
geométricas, debido a las cargas que es sometida?
Comentario
3.1.a.- Si un modelo determinista es tratado como probabilista, la respuesta se
localizara en un evento con distribución de propiedades probabilísticas entre cero
y uno, si la respuesta es uno, el comportamiento del modelo es determinista, y sí
el evento de probabilidad es cero, entonces este modelo no tiene interés, el cual
simula un comportamiento de ocurrencia 1, en el que se propone “¿Qué
dimensiones debe tener una estructura, cuyo comportamiento es generado por
63
una acción con base al universo del modelo?. Entonces el diseño estructural
probabilista es un problema de decisión, para el análisis estructural, que definirá:
¿Qué dimensiones deben ser asignadas a la estructura para que sus propiedades
tengan una respuesta óptima, con base al modelo probabilista? O en otra forma
equivalente tenemos: ¿Qué valores de probabilidad y ocurrencia, debe tener la
estructura respecto a su comportamiento, para diseñarla óptimamente? [59].
3.2. El problema de la seguridad estructural
Se analiza la operabilidad y serviciabilidad estructural, con base a las propiedades de
cargas que soportarán las estructuras, para llevarlas a un comportamiento de capacidad
de carga última, en el dominio del estado límite, y conocer ¿Qué tan grande debe ser la
carga aplicada al modelo de acuerdo con el mejor criterio, y llevarlo a su capacidad de
carga última?. Todo esto con el fin de que el ingeniero diseñe y garantice, que la
estructura no fallara bajo servicio o al menos que hay un riesgo extremadamente
pequeño de que la falla estructural ocurrirá. La diferencia entre estos dos valores se
llama margen de seguridad. Por lo tanto la experiencia acumulada de un constructor
debe ser necesariamente la base, para asignar el valor del margen de seguridad de
diseño, y por otro lado, esta claro que la variedad de estructuras son diversas, y hay la
necesidad de obtener información estadística, así como una descripción de
experiencias, para lograr un análisis racional [60].
Así, la reacción de la sociedad durante la ocurrencia de un evento en el que existan
probabilidades de fallas estructurales, tendrá en principio una interrogante, sobre si la
Ingeniería ha tenido demasiadas iniciativas en la valoración de este tipo de problema,
para estar en los niveles del margen de seguridad requeridos. Al mismo tiempo, la
necesidad de una compatibilidad económica, resultado de un modelo estructural
racional, equivalente a una herramienta plasmada en el reglamento de construcciones
[RCDF87], que debe estar a nuestro alcance, ya que posiblemente un ingeniero no se
apoya siempre en este sistema autorizado de normas como entidad que debiera
contener los elementos básicos para realizar propuestas de diseño con diferentes
criterios e incertidumbre.
64
3.3. Sistema de tolerancia estructural.
Un sistema de tolerancia como referencia, ocurre cuando una medida geométrica de un
componente constructivo esta acompañada, por una especificación de tolerancia T, que
significa, cumplir con las normas y requerimientos técnicos, como son las dimensiones
del componente, que tendrán un limite dentro del intervalo probabilístico dado por [B-
T/2,B+T/2]. Donde esta medidas permiten evaluar al elemento de construcción,
verificando si cumple con de los requerimientos normativos, cuando se aplican las
normas de diseño, las cuales permiten controlar el diseño con un mayor grado de
confiabilidad el rango de la medida propuesta.
Sin embargo, es probable que todos los componentes generados de una pieza o
elemento, en un proceso de diseño, sean sujetos a una medida de control de fabricación
con el propósito de rechazar los elementos, que no satisfacen una o más de las
especificaciones de tolerancia. Es decir implementar un control de calidad total, y por
otro lado, el proceso de trabajo no debe ser demasiado refinado, a tal grado que, las
medidas sean exactas innecesariamente, especialmente si el costo de fabricación se
realizó con una precisión confiable. Con este punto de vista, los requerimientos de
tolerancia llegan a ser una herramienta adaptable de control, para el proceso de
producción y construcción.
A su vez, la interpretación del concepto de probabilidad, en los tiempos más recientes y
el lenguaje de las matemáticas han sido desarrolladas formalmente, con el propósito de
evaluar estos sistemas, con un proceso en términos de lógica y la variable tiempo, que
han tenido éxito. Y en estos términos, se han aplicado las herramientas de control de
tolerancia, sin ningún problema en la confiabilidad estructural, siendo una de las
razones, para las aplicaciones prácticas de la teoría matemática abstracta, que nos
permite ver diferentes interpretaciones en el mismo concepto de probabilidad que puede
ser usado como modelo, en el cual se especifica que este puede ser operado con un
gran número de repeticiones bajo situaciones controladas, y a esto, es lo que llamamos
65
frecuencia de probabilidad e interpretación, para que una estructura deba considerarse
con fluctuaciones materiales y geométricas.
Estas variaciones se interpretan en forma de histogramas o curvas basadas en datos de
medida, y términos de probabilidad, llamada frecuencias relativas, que describe un
elemento con incertidumbre de tipo físico, para el conocimiento de los ingenieros acerca
de la estructura a diseñar. Por lo tanto, la inclusión de este elemento de incertidumbre
físico, en el modelo determinista, cambia a modelo probabilístico.
Por otra parte esta teoría probabilística, también se interpreta como un sistema de
cálculo en la confiabilidad estructural, aplicada con un criterio profesional, donde las
probabilidades se expresan en grados o eventos de ocurrencia posibles a través de
idealizaciones matemáticas, que son una alternativa, para expresar un valor u otra
cantidad de distribución de probabilidad, que posiblemente describe un conjunto de
seguridad o falla. Y esto indica asumir un criterio, para dar seguimiento a este proceso,
que en la práctica significa un problema particular del ingeniero y para darle solución,
será con base a sus propias experiencias.
En la guía práctica, el trabajo del Ingeniero se debe apoyar en las recomendaciones
existentes de un código, ejecutado por una autoridad representada con marco jurídico
competente y calificado, para discutir y obtener experiencias de la misma especialidad.
Y así, cuantificar y evaluar los diseños de sistemas estructurales con propiedades
aleatorias e incertidumbre presentadas, en los criterios de diseño dados, explícitamente
e implícitamente en el código, que regula los niveles de confiabilidad de las estructuras
diseñadas en la práctica.
3.4. Compatibilidad de la probabilidad con las estructuras
El concepto de probabilidad en sus diferentes interpretaciones, sigue un principio de
supuestos, en los cuales, surgen situaciones de procesos repetibles, dando origen a
criterios base, para una interpretación en el contenido de información del concepto de
66
probabilidad matemática, teniendo ventaja en la evaluación de estos criterios, respecto a
este modelo, comparado con otros, como la teoría de lógica difusa.
Otro parámetro filosóficamente importante, es el problema de decisión, que puede ser
demostrado con la teoría de probabilidad, en la cual, dicho problema se encuentra
dentro de un supuesto superior, comparado, con otros modelos de evaluación cuando
estos conciernen juegos de azar de tipo relativo y específicamente simples, con base a
reglas de cálculo de probabilidad en donde algún apostador ganará, el cual, podrá no
seguir aquellas reglas del juego de azar. De esta propiedad es interesante la selección
de los métodos de decisión, para las bases teóricas acerca de la confiabilidad
estructural.
3.5. Método del factor de seguridad parcial
El concepto de estado límite se relaciona a un requisito especificado, que se define
como un estado de la estructura que incluye sus cargas en las que, la estructura está
justamente en el punto de no satisfacer el requisito. A menudo este último requisito se
formula verbalmente. Sin embargo, normalmente el requisito se interpreta y se formula
dentro de un modelo matemático, para las propiedades geométricas y mecánicas de la
estructura y para las acciones en la estructura, proponemos x1,x2,...,xn., ser esas
variables que contribuyen independientemente a esa parte del modelo matemático que
involucra geometría, propiedades de fuerza y acciones. Estas variables son libres en el
sentido que, puede escogerse sus valores libremente e independientemente dentro de
un subconjunto Rn de un campo espacial n-dimensional. Siendo, este un subconjunto de
una función o las variables n que se encuentran en el dominio de definición del modelo.
Por lo que, a cada opción de valores en la estructura idealizada o definida
singularmente, le corresponden cargas singularmente definidas. Así, esta estructura con
sus cargas es solo una idealización matemática que satisface o no, a un estado límite,
propuesto como requisito. Además, posiblemente “t” no puede comprenderse en
absoluto como un objeto físico, por ejemplo, porque la carga excede la capacidad última
de la estructura.
67
Sí idealizamos una estructura muy simple que consiste en una soga arreglada a un
gancho soportando una carga, y se supone el gancho más fuerte que la soga, estamos
idealizando un problema de confiabilidad, que corresponde al requisito de que la soga
soporte la carga.
Este problema puede formularse en términos de dos variables libres, la fuerza tensor “r”
de la soga y el peso “s” de la carga. Ambas cantidades son positivas por definición. Así
el dominio de definición del modelo es el subconjunto Rn+ de R2. Claramente, esta
estructura de la soga con su carga no puede comprenderse como un objeto físico si “r” y
“s” son escogidos tal que r<s. No obstante permitimos R2+ ser el dominio de definición,
para la estructura considerada como un objeto matemático. Si el modelo matemático
está extendido por una variable geométrica “a”, definida como el área de corte
transversal de la soga, podemos calcular la tensión en la soga como s/a,
independientemente del valor de “r”. Es más, si el modelo está extendido por la ley de
Hooke y con una longitud “l” de la soga podemos calcular el desplazamiento resultante
de la carga, cuando su peso “s” es transferido gradualmente a la soga, bajo el supuesto
de que el gancho “s” esta completamente rígido. El desplazamiento se vuelve ls/(aE)
donde “E” es el coeficiente de elasticidad, con base a la "ley" de Hooke que expresa: “el
alargamiento proporcional relativo a la tensión en la soga”.
Un análisis de confiabilidad considerando el requisito simultáneo, de que la soga debe
resistir la carga y que el desplazamiento será más grande que el dado, por un valor “ δ ”,
se formula en términos de las cinco variables a,l,E,r,s., que por definición todas son
positivas. Así, el dominio por definición del modelo extendido es R5+. Aquí asumimos
que el problema de confiabilidad puede formularse en términos de un número finito de
variables x1,........xn, en el que existirán problemas pertinentes a la confiabilidad donde
esta formulación requiere el uso de una infinidad conveniente de variables o funciones,
en particular cuando sea el caso de las resistencias con propiedades de variaciones
aleatorias temporales y acciones espaciales pertinentes.
Un requisito del estado límite, es dividir el dominio de definición del modelo en dos
conjuntos, el conjunto de seguridad y el de falla. El límite del primero, qué por supuesto,
68
también es el límite del conjunto de falla, se llama estado límite. Por otra parte este
modelo es considerado dentro del estado límite de una estructura suficientemente
simple y es representada como el conjunto de puntos ceros, para una pequeña parte de
una función diferenciable g(x1,........xn)., qué se define por todas partes, del dominio de
definición del modelo y toma valores positivos en el interior del conjunto de seguridad y
valores negativos en el interior del conjunto de falla. Es más, si el conjunto de seguridad
simplemente se conecta, nosotros decimos que el estado límite es regular. Así, el
estado límite se da como el conjunto de valores de las variables de entrada (x1,........xn)
para que:
0=)x,...,x(g n1 (3.5.1)
Se da énfasis a que la opción de “g” no es única. Por ejemplo, los g3 de la función
pueden usarse en lugar de “g” en (3.5.1). Por lo tanto, las partes del estado límite que
pertenecen al conjunto de falla o seguridad, pueden escogerse según sea el caso, en un
problema dado. Además, pueden ser considerados o clasificados en dos categorías
principales como son los estados límite de derrumbamiento (estados límite de carga
última) y los estados límite de servicio. Así, un estado límite de derrumbamiento
normalmente representa una situación donde la estructura esta justo en el punto de
colapsar en su totalidad, esto es, pasar a un estado irreversible, que puede tener una
naturaleza catastrófica y de que la estructura sólo se recupere, por reparación o
reconstrucción total. Un estado límite de serviciabilidad corresponde al límite entre un
estado aceptable y un estado no aceptable bajo el uso normal o común. Un estado
semejante es a menudo reversible con respecto al daño directo de la estructura en el
sentido de que la estructura este sometida a cargas por abajo del limite de seguridad.
Sin embargo, pasando a un estado de límite de serviciabilidad también puede causar
daño permanente a la estructura, como formación de articulaciones u otros daños
visibles. Generalmente, este daño no levantará un problema de confiabilidad de la
categoría de estado límite de derrumbamiento, en que la estructura está sujeta al
mantenimiento general.
En otro caso, el estado límite de derrumbamiento para la soga estará dado por la
función
srs)g(r, −= (3.5.2)
69
Así, el estado limite de derrumbamiento es: r = s, y la falla, puesto por r < s y el conjunto
de seguridad puesto por r > s, ver Fig.3.5.1.
Fíg.17. Dominio de definición y estado límite de falla de un modelo de análisis de confiabilidad,
para una soga que soporta una carga.
El requisito del desplazamiento, debido a la carga es un valor “b” que se encuentra en la
categoría de un estado de límite de serviciabilidad. Y la función “g” puede ser escogida
como:
lsaEsrElag −δ=),,,,( (3.5.3)
Así, la serviciabilidad del estado límite está en función de δ aE=ls, y la falla, dado por
δ aE<ls y el conjunto de seguridad puesto por δ aE ≥ ls.
En el análisis de confiabilidad, las dos categorías de estado límite, serán consideradas
separadamente. Y la situación será diferente, cuando dos o más estados límite de
derrumbamiento pueden ser de importancia.
En este caso asumimos que la capacidad del gancho es mucho más grande que la
capacidad de la soga. Si esté supuesto no puede mantenerse, debemos presentar otra
alternativa dada por la variable rk, con propiedades temporales, para la capacidad del
gancho, y rt, es la capacidad de la soga.
Entonces tenemos un estado límite de derrumbamiento compuesto, que puede definirse
como los puntos ceros de la función
{ } sr,rmin=)s,r,r(g tktk (3.5.4)
S S Estado de falla r≤s Estado de limite r=s R2 + Estado de seguridad: r>s r r
70
El conjunto de seguridad es la intersección de los dos conjuntos dados por
srysr tk >>11
., mientras que el conjunto de fracaso es la unión de los dos conjuntos
dados por srk ≤1
., y srt ≤1
. El estado límite dado por el min{rk, rt}=s, ver Fig. 3.5.2.
Fig. 18. Estado límite de derrumbamiento compuesto para una soga atada
a un gancho y soportando una carga.
Bajo las condiciones de diferenciabilidad especificadas, para la función “g” y para n=3, la
ecuación (3.5.1) define una elemento diferencial pequeño de superficie. Y el estado
límite se denota por consiguiente, como la superficie del estado límite o el conjunto de
falla. Por lo tanto, para razones prácticas estas terminologías se usan para cualquier n.
Típicamente el problema de la diferenciabilidad, entra en situaciones como en la
ecuación (3.5.4), donde físicamente las posibilidades pertinentes son diferentes.
Entre los problemas de estado límite con conjuntos de seguridad convexos, son
utilizados generalmente en la práctica.
Por definición un conjunto convexo con la propiedad de que todos los puntos de la línea
recta que une cualquiera de dos puntos del conjunto, están en el mismo. En otras
palabras, si dos estructuras de un tipo dado son representadas por puntos dentro de un
conjunto de seguridad convexo, entonces cualquier estructura diseñada por
interpolación lineal entre las dos estructuras también es una estructura segura.
71
En particular los problemas de estado límite convexos están preparados para la
aplicación del método determinístico conocido como el método del factor de seguridad
parcial o el método del coeficiente parcial.
En la actualidad, este método se ha autorizado en los códigos dinamarqueses, así como
en los códigos de muchos países. El código europeo actual, también esta basado en el
método de factor de seguridad parcial, para un nivel de seguridad autorizado.
3.6. El concepto del factor de seguridad y el requisito de formulación de invarianza
La documentación de seguridad para una estructura ha sido basada en la proporción del
cociente dado, entre la capacidad de carga calculada “r” y un efecto de carga
correspondiente “s”. Esta proporción:
srn = (3.6.1)
se llama factor de seguridad, desde n>1 si y sólo si r>s, la declaración n>1 describe que
la estructura corresponde a un punto en el conjunto de seguridad, mientras la
declaración n<1 expresa que la estructura corresponde a un punto en el conjunto de
falla.
A simple vista puede dar la impresión, de que el tamaño de “n” es una medida de
seguridad, naturalmente, para una definición dada de “r” y también de “s”. Un aumento
de “n” reflejará seguridad aumentada dado que n>1. Sin embargo, debe notarse que el
factor de seguridad depende de cómo se define la resistencia “r”. Por ejemplo, si
asumimos que la proporción 33
3 nsr
= , como un factor de seguridad.
Ahora definimos a “r” como la resistencia de un corte transversal de concreto reforzado
en una viga plana sujeta a una fuerza normal “N” y un momento “s”. Las fuerzas
interiores se aplican a una distancia del refuerzo, con referencia a un eje dado, ver
Fig.3.6.1. Sin embargo, la opción de este eje es arbitraria. Una opción natural es un eje
a través del centro geométrico de la sección de corte. Así, una opción común, es un eje
a través del centro del refuerzo. Si el momento torsor, causado por la acción la viga es
72
“s” cuando se refiere al eje con una distancia “a”, entonces el momento “s”, con respecto
al eje al refuerzo es dado por S1=S + a N. Consecuentemente el factor de seguridad
(3.6.1) puede ser
Fig.19.Dos representaciones diferentes de las fuerzas
interiores en un plano de una viga de concreto reforzado,
ilustra el problema de formulación de invarianza
Escrito como
SR
aN-SaN-rn
1
1 == (3.6.2)
donde r1 = r + a N = la resistencia con la cual s1 = s + a N, debe ser comparado. De
(3.6.2) tenemos, que si n > 1, para alguna opción de “a” entonces n > 1, para toda “a”.
Sin embargo, el factor de seguridad puede tomar todos los valores en el intervalo abierto
de 1 (para ∞→a ±"" ) “a” (para Nsa 1= ). Sólo, el valor de n = 1, es invariante con respecto
a “a”. Esto corresponde al hecho de que el estado límite está dado por la ecuación.
01-srs)g(r, == (3.6.3)
Naturalmente la superficie de falla correspondiente es independiente de a.
La naturaleza arbitraria de la definición de la resistencia “r”, tiene como consecuencia un
valor arbitrario en el factor de seguridad, que hace característico el manejo de un valor
difícil en las técnicas del contexto de códigos. Necesariamente, una especificación del
factor de seguridad "n” debe estar acompañada por especificaciones de las fórmulas
para la resistencia que corresponde al factor de seguridad especificado. Sin embargo,
es muy inoportuno si el código requiere ser formulado en un nivel de detalle semejante,
para ambos, porque esto llevará fácilmente a la confusión y falta de claridad teórica,
ocasionando bloqueo en la aplicación y desarrollo, para la mejora de modelos teóricos
más universales en mecanismos estructurales. Así, se origina un requisito motivado,
73
para que las especificaciones de seguridad en los códigos, haciéndose independientes
de formulaciones equivalentes y de resistencias arbitrarias, así como de los efectos de
acción correspondientes. Por supuesto, el rendimiento de estas cantidades son
variables escogidas principalmente bajo las consideraciones de conveniencia
matemática. Con toda seguridad, los diferentes tipos de problemas de análisis de
confiabilidad serán mediante una resistencia no definible o de manera clara, por una
sola cantidad escalar. En particular esto se ve en problemas mecánicos, donde el
requisito discutido puede ser expresado, diciendo que el sistema de seguridad del
código, debe ser invariante de la formulación.
3.7. Consideraciones de probabilidad acerca del factor de seguridad
En una formulación probabilística el factor de seguridad (3.6.1) es una variable aleatoria
SRN = (3.7.1)
donde R y S son variables aleatorias que corresponden a la definición de resistencia
escogida. La probabilidad que la estructura no está fallando es entonces:
P(N>1)=P(R>S) (3.7.2)
Contrariamente al propio factor de seguridad, esta probabilidad es invariante con
respecto a la definición de R, y es requerida para todas las definiciones de resistencia
consideradas con respecto a un estado límite dado y se define el efecto de acción
correspondiente en uno y el mismo espacio de probabilidad.
Así, asumimos que R y S son mutuamente independientes y distribuidas según la
distribución normal con parámetros ),( RR σμ y ),( SS σμ , respectivamente ( μ = el valor
medio, 2σ = la varianza). Entonces:
)σσ
μμφ(0)RP(S1)P(N
2S
2R
SR
+
−=<−=> (3.7.3)
74
Donde Φ es la función de distribución normal regularizada. Este resultado sigue del
hecho, que la diferencia entre dos variables normalmente distribuidas es normalmente
distribuida.
Si esta opción de modelo ha hecho que “t” no sea justificado naturalmente, por una
opción como alternativa de definición de la resistencia, para asumir que esta, y el efecto
de acción son mutuamente independientes y normalmente distribuidos. Entonces, aquí,
el requisito sobre la formulación de la invarianza, se presenta con otra apariencia.
Donde los supuestos distribucionales sobre R y S dependen de la definición escogida de
R. Por lo tanto, un código probabilístico no puede ser formulado con base a las variables
del rendimiento como R y S E[.]
En las bases de (3.5.1), llamado factor de seguridad central “n”, puede definirse por
[ ][ ]SEREnc = (3.7.4)
Donde E[.] es el valor medio. Un factor de seguridad más general es: q
pp.q s
rn = (3.7.5)
qué es fundamentado en un valor pequeño escogido rp, sq, para R y S definido por, ver
Fig.3.6.1.
p)rP(R p =< (3.7.6)
q)SP(S q =< (3.7.7)
Si R y S son asumidas para una distribución normal entonces tenemos
s
Rc μ
μn = (3.7.8)
Mientras E[N] no existe.
Ésta es una consecuencia del hecho que S tiene una densidad de probabilidad positiva
en cualquier zona de cero.
75
Fig.20. Funciones de distribución con valores pequeños para R y S.
Además tenemos
Sq
Rp1c
SqS
RpRq.p Vk1
Vk1n
kk
n+
−=
σ+μ
σ+μ= − (3.7.9)
donde VR= RR μσ / , VS= SS μσ / son los coeficientes de variación para R y S,
respectivamente, y donde kp, se define por ( )pkΦ =p (y correspondientemente para kp ).
La estructura se diseña tal que (3.7.10), toma un valor 1- pf es decir, tal que:
βσσ
μμ2S
2R
SR =+
− (3.7.10)
donde ( )β−Φ =pf es la probabilidad de fracaso. Después de un trabajo algebraico de
factores de seguridad con tendencia central, “n” puede ser expresado entonces por β a
través de la fórmula
2R
2
2S
2R
22S
2R
c Vβ1VVβVVβ1
n−
−++= (3.7.11)
Es dado por ∞→cn , para 1/βVR → . De esto sigue que la estructura no puede diseñarse
para tener la probabilidad de falla pf que corresponde a β si 1/βVR ≥ . Sin embargo
existe una inconsistencia física. Esta es por la distribución normal que asigna una
probabilidad positiva al evento R<0. Para los valores pequeños de VR, la inconsistencia
no tiene importancia, pero el modelo pierde su pertinencia para los valores de VR o β
para lo cual VR no es considerablemente menor que l/β . Una opción típica de orden de
76
tamaño, para β será 4 o 5. El modelo de distribución normal para R está a favor por
consiguiente de VR más grande con un valor que es aproximadamente entre 0.15 ≅ 1/6.7
La variación grande de nc, con VR y VS. Para β dado (para β=4, tenemos nc= 1, 1.84,
2.76; para VR = VS = 0, 0.1, 0.15, respectivamente) ilustra la inconveniencia de usar el
factor de seguridad central para las asignaciones de valor en un código que, cuando lo
ideal, intenta mantener control en el valor de β y así en la probabilidad de falla dentro de
una clase de seguridad dada.
Si nc dado por (3.7.11) que se sustituye en (3.7.9) obtenemos
)Vk)(1βV(1
Vβ)/V(V1βV1βV1
Vk1n
SqR
2R
22SRS
R
Rp1p.q ++
−++
−
−= − (3.7.12)
Escogiendo p = 0.05 y q = 0.98 (valores típicos, empleados, por ejemplo en los códigos
dinamarqueses) conseguimos que k1–p = 1.645 y kq = 2.054. Para β =4 nosotros
conseguimos n = 0.5.,0.98 = 1,1.27,1.59 para VR = VS = 0,0.1,0.15 respectivamente. La
variación de n = 0.05.,0.98 se ve para estar aproximadamente 3 veces menos de la
variación de n, para este ejemplo. Esta propiedad, que los factores de seguridad “n”,
por una opción conveniente de “p” y “q” para un valor compuesto de β muestra
considerablemente menos variación con el coeficiente de variación para R y S que los
factores de seguridades centrales, se presenta de una manera análoga para los factores
de seguridad llamados parciales. Éstos son los elementos fundamentales del método de
seguridad usadas en varios códigos actuales de diferentes países.
De donde asumimos que R y S son mutuamente independientes y ambos con
distribución lognormal. Entonces
[ ] [ ] [ ]RlogVar21RElogRlogE −= (3.7.13)
[ ] )V1log(RlogVar R2+= (3.7.14)
77
Y correspondientemente para S. (Introduce la anotación Rμ y μ , para E[R] y E[S],
respectivamente). Formula derivada para la probabilidad de fracaso P(R<S) y los
factores de seguridad centrales nc. Muestra que nc, está limitado para todos los valores
finitos de VR y VS, es decir, que el defecto por (3.7.11) no existe aquí. Derivar np.q bajo el
supuesto de 1<<1<< 22SR VyV lo cual permite el uso de:
[ ] [ ]RElogRlogE ≅ (3.7.15)
[ ] 2RVRlogVar ≅ (3.7.16)
3.8. Factores de seguridad parcial
El requisito de la formulación de invarianza, hace necesario que el método de seguridad
parcial debe ser aplicado a las variables de entrada del modelo mecánico, en lugar del
fraccionamiento arbitrario en resistencia y el efecto de carga correspondiente, Así, es
necesario ir a la ecuación de estado limite (3.5.1).
0=)x,...,x(g n1 (3.8.1)
y asigna todas las especificaciones de seguridad a las variables de la entrada x1,. . ,xn
del modelo. En conexión con el código, éstas variables de entrada deben por
consiguiente ser seleccionadas de una clase regularizada de variables en las que las
especificaciones del código operan. Esto, necesariamente, no significa que estas
características técnicas son independientes de ese modelo o clase de modelos en los
que las variables seleccionadas participan.
Los métodos de factores de seguridad parcial es, en sus principios matemáticos, un
método deterministico, que actúa de la manera siguiente. Sí consideraremos el caso
n=2., correspondiendo a cada punto (x1,x2) en el dominio de definición del modelo de la
zona rectangular abierta de (x1,x2) definido como el producto del conjunto cartesiano.
78
Fig.21. El principio del método de factor de seguridad parcial por el cual
una definición codificada del conjunto de estados suficientemente seguros
se constituye una superficie estado límite convexa.
Fig.22. Ilustración que muestra que los métodos de factores de seguridad
parcial están situados para el estado límite no convexo es considerado.
Los coeficientes f2f1m2m1 α,α,α,α son llamados factores de seguridad parcial con valores
especificados de código que son más grandes o igual a 1. Si está, abierta esta zona de
(x1,x2) es un subconjunto del conjunto seguro.
79
CAPÍTULO IV Modelos Probabilísticos para estructuras tipo viga
Índices de Confiabilidad estructural para elementos
tipo viga.
80
4.- Modelos Probabilísticos para elementos estructurales tipo viga.
La confiabilidad estructural en las construcciones de Ingeniería es concebida con la idea
de satisfacer diferentes necesidades, más o menos explicitas, para soportar o resistir
esfuerzos, pero no es el objetivo primordial. Por lo tanto, el diseño se efectúa
considerando el conocimiento de las necesidades, de las acciones que actuarán, y de
las propiedades de los materiales utilizando métodos de análisis y diseño, aproximados
a cada circunstancia, lo que permite encontrar el “mejor diseño” y la probabilidad de que
una estructura, un sistema estructural o un elemento estructural satisfaga las
condiciones de estado límite y de servicio, para las que fue creada. Consecuentemente,
se define como confiabilidad o probabilidad de éxito. Y al complemento de la
confiabilidad se le conoce como probabilidad de falla (Pf = 1 – c), donde Pf es igual a la
probabilidad de falla y “c” es la confiabilidad, dado que la suma de probabilidades debe
ser uno. Además, no debemos entender el término falla como “ruina”, ya que la falla
puede ser la no satisfacción de las necesidades, de las acciones para las que fue
diseñada en términos de sus funciones, tanto de resistencia, como de servicio. Aunque
algunas veces si puede ser equivalente, y en otras se le conoce únicamente como la
probabilidad de excedencia.
La evaluación de un buen nivel de confiabilidad será relativa a la naturaleza de las
construcciones, y a las acciones que deberá soportar en función de la vida útil deseada
o supuesta, y al costo o problema que implique su falla.
A continuación calcularemos las funciones de distribución de probabilidad considerando
las siguientes distribuciones de probabilidad.
A- R Z =
2cm/kg 61.223220021002Aσ
2RσZσ
2cm/kg 00.000,22cm/00kg.000,22cm/00kg.000,4Z
=+=+=
=−=
81
Variable que convierte: a N[0,1]
σμ-x w = P
Para la distribución normal de Z =0
944 8- 2cm61kg223
2cm00kg2000- 2cm61kg223
2cm00kg2000- Z
ZσZ- Zw .
/./.
/./. ====
Para un riesgo menor a 0.0000003
Otra distribución:
NA[4000,400]
NR[3000,800]
El r iesgo = 0.1357; de cada 100 casos 14 fallaran
Confiabil idad = 0.8643
1.12- w ;12.1-43.8941000- 0w
cm/43kg.89428002400Zσ
2cm/00kg.10003000- 4000Z
===
=+=
==
82
4.1. Análisis de un elemento viga
fig. 23. Viga sometida a carga uniforme
Donde:
L = longitud de la viga
b = base de la viga
h = altura de la viga
Además estas variables t ienen distribución de probabil idad normal
aleatoria.
4.1.1. Fórmulas para obtener la distribución de probabilidad
La medida de adición: 2yσ
2xσyxσ
yμxμyxσ
+=+
+=+
La medida de sustracción: 2yσ
2xμy-xσ
yμ-xμy-xμ
+=
=
La multipl icación: 2yσ
2xσ
2xσ
2yμ
2yσ
2xμxyσyμxμxyμ
++=
=
El cociente: 2/1
2yσ
2yμ
2xσ
2yμ
2yσ
2xμ
yμ1
y/xσ
yμxμ
y/xμ
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
+
+=
=
83
4.2. Propuestas de distribuciones de probabilidad en las variables del elemento viga
4.7. Distribución de μy: Puede ser una constante: σy=0
4.8. Distribución del Momento:
[ ] [ ]5,40Nh ;3,20Nb ;62bhS
60.951x102x/yσ,610.67x102
x/yμNM
59.51x10l
a)-(lpaσ
5066708x10.100.100,36000.956,11'32900.600,409
6001
yx
667x10.10M
667x10.1060080x10.64M
yμxμ
xyμ
861x10.5,864x10)a-l(aNP
l)a-l(aP
M
=
==
=
=+=σ
=
====
=
⎥⎦
⎤⎢⎣
⎡
⎥⎦
⎤⎢⎣
⎡
⎥⎦⎤
⎢⎣⎡
85
4.9. Distribución de Nh2
[ ]00.283,00.600,12Nh
2832σh
282.935 50 80,0002x525x2522x402σh
00.600,12402h
=
=
=+=+=
==
4.10. Distribución de Nbh2
698.469,72bh
)2x32283(23 x 21,600()2x283220(2bh
=
++=
4.11. Distribución de la medida por la constante μx2/6
[ ]
SMf
245,1 2yσ ,333,5 2
yμ SN
00.469,7 ,00.000,322Nbh
=
==
=
⎥⎦⎤
⎢⎣⎡
4.12. Distribución de Nf
2cm/00kg.486fσ
6x102/1
200.245,12333,5))2951.x(02333,5()2)x1,245267.((10
333,51
xyσ
2/1
2yσ
2yμ
2xσ
2yμ
2yσ
2xμ
yμ1
x/yσ
2cm/kg 00.000,23333x10.5
610 x 67.10SMf
=
+
+=
+
+=
===
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
86
4.13. Distribución de la acción:
[ ] 2cm/kg 00.486 ,00.000,2fσ
4.14. Distribución de la resistencia y determinación del riesgo.
[ ]
[ ]
riesgo10000002110
0.002118
0.002118Riesgo 86;2- 2cm27kg697
2cm00kg0002-w
2cm27kg69725002486Rσ
500.00 , 4,000.00R si
000021180Riesgo 4.03; - 2cm18kg496
2cm00kg0002-w
2cm10kg49621002486Zσ
0z :paraZσ
Z -Zw
2cm00kg0002 2cm00kg0002- 2cm00kg0004A- RZ
100 000004Rσ
==
===
=+=
===
=+=
=
=
===
=
.
./.
/.,
/.
:
./.
/.,
/.
/.,/.,/.,
,.,
σ
[ ]
[ ]
falla. de adprobabilid de 8% 0.076; = Riesgo 43416,100697000001w
00697Zσ
00500000003NRsi
51000002000003sc
02070Riesgo
04210490000001w
10496Zσ
00100000003NR:suponemos Si
...,-
.
.,.,:
;..,.,.
.
...,-
.
.,.,
−==
=
==
=
−==
=
87
CAPíTULO V
Planteamiento de la confiabilidad en función del tiempo
Probabilidad de falla estructural de un sistema de tres
grados de libertad.
88
5. Planteamiento de la confiabilidad en función del tiempo
En este trabajo se presenta el estudio de la confiabilidad en función del tiempo, llamado
modelo “estocástico” en el cual se obtendrá la probabilidad de falla estructural y las
condiciones de serviciabilidad y seguridad de las estructuras, en términos del
reglamento de construcciones del Departamento del Distrito Federal (RCDF) [ 12 ].
Además, este estudio dará importancia al comportamiento estructural, en sus variables
como la resistencia (Ri), que estará determinada en términos de la capacidad de
deformación del material o algún tipo permisible de esfuerzos. Posteriormente, se
estudia la respuesta de la fatiga, en función de la confiabilidad y entre otros problemas
estudiaremos los de dinámica estructural.
Sí X., está en función del tiempo. Esto podrá ser, debido a los cambios de carga con el
tiempo (quasi-static), y por las propiedades del material, que cambian con el tiempo,
entre otros como un resultado directo de la aplicación de carga o por algún deterioro del
mecanismo la fatiga y corrosión son ejemplos típicos del deterioro de la resistencia(R).
El problema de confiabilidad elemental en términos estocásticos, es decir con el tiempo
variante y con una resistencia R(t) y los efectos de carga S(t), en un tiempo t dado.
Pf(t)=P[R(t)≤S(t)]………………………………………………………(5.1)
Si la probabilidad instantánea de una densidad de funciones PR(t) y fS(t) de R y S respectivamente son conocidos en el instante de la probabilidad de falla Pf(t), se puede
obtener aplicando la integral por convolución.
Y estrictamente la ecuación 5.1., se puede aplicar si el efecto de la carga S se
incrementa en intervalos del tiempo t, si el efecto de la carga se repite en este instante.
La falla no puede ocurrir precisamente en el mismo instante del tiempo t (asumiendo que
la trayectoria en un tiempo pequeño “t” el miembro fallo)
89
Esto en general genera un cambio en la carga o efecto de la carga, que es requerida;
esto es considerable si se tiene lo siguiente:
• Cambios de carga discreto
• Para cargas que varían en un tiempo continuo pequeños δt arbitrarios,
en un tiempo t, es considerado un instante de tiempo t.
Con esta interpretación estará dado como:
[ ]
[ ] )(dxx(t)fP0x(t)G
x(t)f t∫=≤
……………………………………………………………(5.2)
5.1. Formulación de la Confiabilidad En este trabajo se presenta un estudio para estimar la confiabilidad en Modelos de
Edificios de Cortante de tres niveles que presentan torsión, cuando son sometidas a
solicitaciones sísmicas, y cuyo objetivo es evaluar y analizar la respuesta estructural en
términos de distribución acumulativa, densidad y tasa de falla del parámetro
determinado como demanda de ductilidad estructural, representado como un sistema
coherente en términos de trayectorias y cortaduras mínimas, así, como la obtención de
la probabilidad de falla del sistema aplicando el algoritmo de optimización de Rackwitz y
Fiessler, del cual se elaboró un programa. Con base a lo anterior se toma en cuenta las
incertidumbres de las propiedades mecánicas y geométricas de la estructura, con un
comportamiento lineal sujeto a procesos no estacionarios que corresponden a
acelerogramas sintéticos, para un sitio, donde se localiza el movimiento, con
características de la componente sísmica EW ubicado en el sitio SCT, durante el sismo
del 19 de Septiembre de 1985.
Además los criterios y algoritmos para evaluar y la selección de los coeficientes de
diseño sísmico se determinan mediante el uso y presentación de valores óptimos, dados
por las propiedades estructurales y sísmicas en las que se incluyen las incertidumbres
mecánicas y geométricas de las mismas. Las cuales han sido estudiadas y evaluadas
90
durante un largo tiempo (Esteva 1967, 1968, 1969, 1976; Rosenbluet 1976). Estos
algoritmos han sido desarrollados para los casos en los cuales la ocurrencia de los
terremotos de diferentes intensidades en un sitio dado, es modelada, o por un proceso
de Poisson o por un proceso de renovación.
Así, evaluamos los códigos de diseño sísmico por torsión en México, y con criterios de
confiabilidad estructural, de estos modelos estructurales sometidos a acciones sísmicas
con estas características, y que proporcionan aleatoriedad en las excentricidades
estructurales y diseño, las cuales permiten, idealizar y generar modelos de edificios de
cortante con excentricidad en masas y rigideces aleatorias, que contienen propiedades
de incertidumbre en su probabilidad de falla. Con una metodología de análisis dinámico
y comparando los desplazamientos entre el diseño analítico y el modelo matemático de
diseño por torsión.
5.2 Idealización del Modelo Estructural
En está metodología se idealiza, discretiza y resuelve numéricamente un modelo
matemático de una estructura de cortante de tres niveles con excentricidad en rigideces
y masas, que proporcionan aleatoriedad e incertidumbre en la posición de la fuerza
resultante de diseño por torsión, compuesta en la relación de planta por seis elementos
ortogonales, es decir tres en la dirección “x” y tres en la dirección “y”, para someter este
modelo estructural al sismo real y artificial con las características de la componente EW
del sitio SCT registrado el 19 de Septiembre de 1985, y evaluar su comportamiento y
respuesta estructural, con base a los criterios de diseño sísmico por torsión, en el que se
asigna al menos el 70% de resistencia a uno de los elementos resistentes que soportan
una carga uniforme a través de un diafragma rígido. Y a su vez se compara está
respuesta con los resultados obtenidos por el método analítico de análisis dinámico.
91
5.3. Método de Análisis Para obtener la respuesta lineal de los modelos se utilizó el programa TORSION [9],
para análisis dinámico modal con excentricidades estructurales que generan torsión
sísmica, donde la estructura se idealiza como un conjunto de marcos planos unidos por
diafragmas rígidos de piso.
5.4. Evaluación de Confiabilidad Una vez definidos los estados límite, las variables consideradas como aleatorias, sus
leyes y parámetros estimados, podemos proceder a la evaluación de la confiabilidad, o
de su complemento, la probabilidad de falla, para un escenario elegido. Para los análisis
de confiabilidad de estructuras son necesarias algunas hipótesis [21]:
1. El estado de la estructura está definido en un espacio resultado de un vector de
variables aleatorias;
2. La estructura puede estar en uno de dos estados posibles es decir, estado de
falla o estado de seguridad
La frontera entre ambos estados se conoce como superficie de estado límite. El estado
de seguridad es el estado de una estructura que es capaz de satisfacer todas las
necesidades (mecánicas y de servicio) para las que fue diseñada.
Si Z se define como la diferencia entre la resistencia R y la solicitación S, entonces G(Z)
es la función de estado límite elemental, definida como:
G(Z)= R-S… ……………………………………………………….(5.4)
Donde R es la variable que representa los recursos del sistema y S es la variable que
define la demanda (como un esfuerzo o una deformación). G(Z)>0 define el estado de
seguridad y G(Z)≤0 definen el estado de falla. La probabilidad de falla es entonces:
Donde, )(uφ es la función de densidad de probabilidades de la función normal de “n”
dimensiones.
El índice de confiabilidad β se define como la distancia más corta del origen a la función
límite G(U)=0 en el espacio U. Esta distancia, proporciona un hiperplano tangente a la
función límite en el punto *P , llamado punto de falla más probable, no punto de diseño.
Este método es conocido como Método de Confiabilidad de Primer Orden, FORM (First
Order Reliability Method). Por lo que la probabilidad de falla se aproxima como:
( )β−φ≈fP ……………………………………....…….(5.4.8)
Donde ( )φ es la función normal estándar. Esta aproximación es la de primer orden. El
grado de aproximación depende de la no linealidad de la función de estado límite. El
resultado sólo es exacto cuando la función límite es lineal y las variables de base
normales. La solución por el método FORM se reduce a solucionar un problema de
94
optimización, en donde se busca minimizar β , con la condición de que G(U)=0, la cual
se encuentra mediante un algoritmo de optimización.
5.5. Algoritmo de optimización Existen diferentes métodos de optimización que están disponibles para determinar la
distancia mínima y el punto *P , si disponemos de la función límite y de su gradiente para
cada paso de iteración del proceso. El algoritmo de optimización, para resolver este
problema es el de Rackwitz y Fiessler. Y está dado por la fórmula iterativa siguiente:
( ) ( ) ( )( )( )
( )( )jij
jj
ij
i1j
i αuG
uG.αuu ⎥⎦
⎤⎢⎣
⎡
∇−=+ ………………………….…(5.5.1)
en donde ( ) ( )( )
( )( ) ,uGuG,...,
uGuGuG
t
n1 ⎭⎬⎫
⎩⎨⎧
∂∂
∂∂
=∇ es el vector gradiente de la función de estado límite,
( )( )( )
( ) ⎥⎥
⎦
⎤
⎢⎢
⎣
⎡
∇
∇=α
j
jij
iuGuG ………………………………….…(5.5.2)
y ( )jiα es el vector de cosenos directores de la normal a la función límite orientada hacia
el origen, y ( )( )juG es el valor de la función de estado límite evaluada en el punto ( )ju . El
índice (j) indica el paso de iteración. Esta expresión nos conduce generalmente al punto *P y la distancia mínima se define como: ( ) 21 /**tuuβ = , *u las coordenadas del punto *P .
Cada iteración necesita de la evaluación de la función límite G(U) y de su gradiente
( )uG∇ .
95
CAPíTULO VI
Análisis de resultados
Respuesta de los Modelos de Estructuras de Cortante
96
6. Análisis de resultados y gráficas
Los resultados que se obtuvieron en estos modelos de estructuras de cortante, se
presentan como en todo experimento de simulación donde existe la necesidad de
generar valores de las variables aleatorias mediante una distribución de probabilidad
que representan los factores y características de los edificios, como de la acción
sísmica, y así obtener de estos modelos un comportamiento más aproximado a su
idealización estructural a través de su respuesta, utilizando índices de confiabilidad que
garanticen la seguridad estructural en este tipo de edificios y estructuras. Por lo tanto,
estos resultados se presentan en las figuras 1-7., que describen la deformación de una
estructura de cortante simétrica de uno y tres niveles sometida a un sismo como el que
ocurrió el la Ciudad de México el 19 de Septiembre de 1985 y en donde se tomo y
evaluó como medida estructural el desplazamiento máximo de entrepisos, mediante el
análisis del Programa llamado TORSION, el cual se concluyo y valido en el desarrollo de
este trabajo, así mismo se obtuvo de este programa los desplazamientos estructurales
con una aproximación similar, comparado con el Método Experimental en el que se
simula un sistema de un grado de libertad, dando como resultado un desplazamiento
máximo de 2.5cm, y en el programa TORSIÓN se obtuvo un desplazamiento de
2.488480 cm. Con esto también se puede demostrar en forma analítica de la siguiente
forma:
( )
cm 2.4828
segkg39.4786
segcm 98.1
d :será entodesplazami ely
segkg 39.4786
seg 1.0kg) (1.0
TmK entonces
kg. 1.0
segcm 98.1
segcm-kg 98.07
gwm la obtiene se Así,
segcm 98.1 g 0.1 como así ,
segcm-kg 98.07kgf 0.1 tomamos sí
segcm-kg 7 980.kgf 1 bién ó N 9.807 kgf 1
2
2
2
2
2
2
2
2
22
==
===
===
→→
→→
2
2
44 ππ
97
Finalmente se llevo este problema a una estructura de tres niveles y para validar este
programa se tomaron los datos de un ejemplo propuesto de una estructura de tres
niveles resuelto por el Método Analítico de Análisis Modal Espectral (Ej. 3.3.4., pag. 111
ref.54]., y sus resultados son similares a los que se obtuvieron con el Programa Torsión.
Y se presentan en la tabla 2. ESTRUTURAS
Sistema de un
Grado de Libertad
Sistema de tres Grados de Libertad
Caso 1 experimental y
numerico Caso 2
Métodos de Análisis
K M x k M x
Método Experimental 0.981 0.1 2.3
200 0.407750 0.2471
200 0.407750 2.2583
Programa Torsión 0.981 0.1 2.3
80 0.203875 3.3648
200 0.407750 1.0700
200 0.407750 1.8700 Método de Análisis
Modal Espectral (Llibro)
80 0.203875 2.7100
TABLA 2
Con base a lo anterior, también tenemos en las fig.1, 2 y 3 la descripción de las
respuestas de una estructura de cortante de un nivel para periodos de 0.5, 1.0 y 2.0
seg., en donde se observa que la función máxima de densidad y distribución
probabilística, se presenta para el periodo de 0.5 seg., siendo esta la máxima
deformación que se obtuvo tanto experimentalmente, como analíticamente y empleando
el programa TORSIÓN. Así, podemos tener que la relación de estado límite de una
estructura estará dada y conviene establecer en los reglamentos de diseño la
disposición de que se verifique, en ambas direcciones ortogonales, 3.2≤min
maxx
x .,
donde las 2x” son respectivamente los desplazamientos relativos entre pisos
consecutivos, máximo y mínimo de los elementos resistentes en la dirección que se
analiza.
98
Fig.4. Funciones de Cortadura mínima
99
Fig.8. Función de tasa de falla
100
6.1. Descripción gráfica del registro símico
La excitación sísmica, que se utilizo, para obtener la respuesta estructural correspondió
a la componente horizontal del sismo SCT de 1985, como se muestra en la fig.9., así
como el tipo de instrumento de medida de estos sismos fig.10 y 11.
fig.9. Registro Sísmico de la componente N-S, de 1985
101
FIG.10.Principio básico de operación y registro de un sismógrafo que mide el desplazamiento vertical del
terreno.
Fig.11.Censor triaxial de banda ancha
102
Con base a lo anterior se realizo un estudio adicional del comportamiento de una viga
con sección rectangular de la que se cálculo su probabilidad de falla, con un porcentaje
de 2kg/cm 200f´c = , un 22 kg/cm 000 2´000 E un y kg/cm 200,fy == 4 , cuyas trayectorias
generaron la envolvente de la fig.12., en la que se observa que el criterio analítico, es
más racional comparado con el criterio del A.C.I. Además se cálculo su probabilidad de
falla con estas propiedades y características, resultando igual al 8%. Y a su vez
consideramos otro estudio, para conocer un poco más sobre las normas y criterios de
diseño, realizando un estudio analítico de segundo orden comparado nuevamente con el
criterio del A.C.I., a una estructura de tres niveles y los resultados son los que se
obtuvieron mostraron que un estudio analítico nos lleva a un diseño más racional
comparado con la norma de diseño en un porcentaje del 2.5% (tabla 2). Y en la fig.13.,
se tiene la descripción del movimiento de las fuerzas resultantes de cinco códigos de
diseño por torsión.
fig. 12. Curva real del concreto (trayectorias)
103
fig.13. Fuerzas resultantes de códigos por torsión
Por lo anterior sabemos que de una población de estructuras su probabilidad de falla
será del 12.93%, esto de acuerdo a la fig.14
fig.14.Función de falla de Rackwitz y Fiessler
104
7. Conclusiones
Se formuló un modelo para el análisis de confiabilidad de estructuras con un
comportamiento estructural por torsión. La confiabilidad se evaluó en términos de
índices de confiabilidad para intensidades dadas, función de distribución acumulativa,
función de densidad y función de tasa de falla correlacionada por un sistema coherente
en términos de trayectorias y cortaduras mínimas. Así, medimos la probabilidad de falla
referida a un margen de seguridad que relaciona el desplazamiento del extremo superior
de la estructura con respecto a su base.
De los casos analizados se concluyo lo siguiente:
1. Para el modelo estructural, en su probabilidad de falla se encontró que tiene un
índice de confiabilidad de 1.13=β , es decir tiene una probabilidad de falla del
12.93%, lo que demuestra, con respecto a una de las filosofías de diseño, que
esta debe estar dentro del margen de seguridad, donde al menos una estructura
falle en una población de 100 estructuras, esto quiere decir que durante un sismo
con las características que se utilizo en ente estudio, implicaría en términos
probabilísticos una probabilidad de falla del 10%. Entonces, se observa que en la
realidad las estructuras experimentan un índice confiabilidad mucho mayor, de lo
marca un criterio de diseño.
2. Se observa también que de acuerdo a estudios realizados con estructuras reales
y aplicando métodos probabilísticos, se encontró que el índice de confiabilidad
para estructuras reales en sitio no agrietadas es menor a 2.0=β y comparado
con este trabajo estamos dentro de este rango, lo cual indica que la metodología
de aproximación es aceptable.
3. Otra observación que podemos determinar es que un criterio de diseño no es
precisamente el más optimo para la seguridad estructural, dado que los
coeficientes de diseño y los procesos de construcción, que deberían garantizar la
confiabilidad estructural, para que dicha estructura no falle ante este tipo de
105
eventos, a veces nos llevan a estructuras sobré diseñadas y costosas. Además
con un mayor índice de probabilidad de falla.
Con base a lo anterior se demuestra que el algoritmo que seguimos en este trabajo nos
genera una base de datos bastante confiable para simular estructuras con diversos
parámetros estructurales que contiene incertidumbre en sus propiedades tanto
estructurales como geométricas.
Trabajo futuro
Se propone instrumentar dos o tres edificios de la Unidad Zacatenco y registrar las
deformaciones experimentales durante un sismo, con objeto de hacer la validación
específica del caso.
106
Tablas
Factores de amplificación dinámica Diferencia
Método Analítico Análisis de segundo orden
Código A.C.I. %
1.0815591 1.111100 0.0295409 (3%) Planta Baja
1.0580645 1.081080 0.0230155 (2%) Primer Piso
1.0226140 1.052633 0.0300190 (3%) Segundo Piso
Tabla. 3. Resultados del Análisis por el Código A.C.I., y un Método Analítico, para
un comportamiento dinámico
107
Apéndice A
Programa I. Para el Análisis Modal Espectral (TORSION). Instituto de Ingeniería , UNAM. program torsion;