Top Banner
14 de Noviembre de 2014, Mexicali, Baja California, México Editada por: Dr. Juan Pablo García Vázquez Dr. Álvaro González Ángeles MEMORIA DEL 1ER Y 2DO. SEMINARIO DE INVESTIGACIÓN DE LA FACULTAD DE INGENIERÍA PROGRAMA DE MAESTRÍA Y DOCTORADO EN CIENCIAS E INGENIERÍA
121

Memoria Seminario FIM UABC 2014

May 13, 2023

Download

Documents

Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: Memoria Seminario FIM UABC 2014

MEMORIA DEL 1ER Y 2DO. SEMINARIO DE INVESTIGACIÓNDE LA FACULTAD DE INGENIERÍA

14 de Noviembre del 2014

14 de Noviembre de 2014, Mexicali, Baja California, México

Editada por:

Dr. Juan Pablo García VázquezDr. Álvaro González Ángeles

MEMORIA DEL 1ER Y 2DO. SEMINARIO DE INVESTIGACIÓNDE LA FACULTAD DE INGENIERÍA

PROGRAMA DE MAESTRÍA Y DOCTORADO EN CIENCIAS E INGENIERÍA

Page 2: Memoria Seminario FIM UABC 2014

______________________________________________________________________

UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA

Dr. Felipe Cuamea VelázquezRector

Mtro. Ricardo Dagnino MorenoSecretario General

Dr. Miguel Ángel Martínez RomeroVicerrector del Campus Mexicali

Dr. David Isaías Rosas AlmeidaDirector de la Facultad de Ingeniería, Campus Mexicali

_____________________________________________________________________D.R. © 2014 Facultad de Ingeniería, UABC

MEMORIA DEL 1ER. Y 2DO. SEMINARIO DE INVESTIGACIÓNDE LA FACULTAD DE INGENIERÍA , CAMPUS MEXICALI_______________________________________________________________________

Dr. Marco Antonio Félix LozanoCoordinador del Posgrado de la Facultad de Ingeniería, Campus Mexicali

Page 3: Memoria Seminario FIM UABC 2014

Comité Organizador

Dr. Marco Antonio Félix Lozano Responsable del EventoDra. Silvia Vanessa medina León Área de IndustrialDr. Israel Sauceda Meza Área de MecánicaDra. Marcela Deyanira Rodríguez Urrea Área de ComputaciónDr. Ángel Gabriel Andrade Reátiga Área de EléctricaDr. Alejandro Mungaray Moctezuma Área de CivilDr. Juan Pablo García Vázquez Presidente de Comité EditorialDr. Álvaro González Ángeles Secretario de Comité EditorialM. I. Eva Herrera Ramírez Logística del Evento

i

Page 4: Memoria Seminario FIM UABC 2014

Comité Revisor

Área de Industrial:

Dr. Carlos Raúl Navarro González

Dr. José Luis Pérez Escobedo

Área de Computación:

M. C. Jorge Eduardo Ibarra Esquer

M.I Linda Eugenia Arredondo Acosta

M. C. María Luisa González Ramírez

Área de Eléctrica:

Dr. Guillermo Galaviz Yáñez

Dr. Julio César Rodríguez Quiñónez

Dr. Miguel Ángel García Andrade

Área de Mecánica:

Dr. Álvaro González Ángeles

Dr. Edgar Eduardo Valenzuela Mondaca

Área de Civil:

Dra. Michelle Hallack Alegría

Dr. Álvaro Alberto López Lambraño

Dr. Alejandro Mungaray Moctezuma

ii

Page 5: Memoria Seminario FIM UABC 2014

Tabla de Contenido

Área de EléctricaEigenvalue-based Spectrum Sensing for Interference Avoidance in HeterogeneousNetworks……………………………………………………………………………………………...

Área de MecánicaAnálisis de tuberías API K-55 de revestimiento, sometida a esfuerzos térmicos por elmétodo de elemento finito ………………………………………………………………………….Evaluación estructural de uniones adhesivas permanentes en materiales compuestosmatriz polimérica en aplicaciones aeroespaciales ………………………………………………Análisis de Probetas Experimentales con Soldadura GTAW: Caso de Estudio IndustriaAeroespacial…………………………………………………………………………………………..

Comité Organizador……………………………………………………………………………….. iComité Revisor……………………………………………………………………………………… ii

Medición del riesgo de infarto agudo al miocardio en la región de B.C. mediante modelosno lineales: Resultados preliminares……………………………………………………………...Diseño de una fuente de referencia CMOS de baja sensibilidad para polarización deun circuito integrado.....................................................................................................

Optimización de una red de distribución logística en una empresa comercializadora deacero…………………………………………………………………………………………………...

20

24

Differential Evolution Multi-Objective for Optimization of Isoflux Antenna Arrays…………… 12Administración de movilidad en redes de comunicación móvil de nueva generación………. 16Medición del consumo de energía en un microcontrolador de 16 bits en operación yreposo…………………………………………………………………………………………………

Aplicación del algoritmo TPSO para resolver un problema de espectro compartido……….. 5Detección Espectral Aplicada en Redes Cognoscitivas………………………………………... 8

1

27

Área de IndustrialMadurez organizacional con respecto a Manufactura Esbelta………………………………... 31

Área de ComputaciónHerramienta Gráfica para el Aprendizaje de la Programación………………………………… 50Asistente para el Aprendizaje de la Programación Introductoria en Lenguaje C……………. 53

57

60

62

Revisión del Proceso de Cambio de las Prótesis de Mano……………………………………. 66Diseño y fabricación de un dispositivo de moldeo para prótesis transtibial de materialescompuestos…………………………………………………………………………………………..

70

Área de Ingeniería CivilDesplazamientos Residencia – Trabajo de los Residentes en Tijuana, Baja California…….. 73Impacto de la Red Vial de Baja California en la Calidad de Vida de sus localidades……….. 78Determinación del factor de amplificación en viviendas de mampostería…………………….. 82Daños Estructurales Observados en Vivienda Asociados a Sismos en la Ciudad deMexicali, Baja California……………………………………………………………………………..

88

39

Enfoques de la Contabilidad Lean………………………………………………………………... 36

Optimizando la capacidad de los procesos productivos mediante simulación……………… 42Sistemas de riego presurizado: una alternativa para la sustentabilidad agrícola en el Vallede Mexicali ………………………………………………………………………………………….. 45

Page 6: Memoria Seminario FIM UABC 2014

Línea de alta velocidad ferroviaria en la frontera México-Estados Unidos Caso de Estudio:Mexicali – Tijuana, Baja California…………………………………………………………………Regionalización en la medición de los parámetros de calidades de materiales pétreos enBaja California para mezclas asfálticas de alto desempeño………………………………….. 105

Lista de Autores…………………………………………………………………………………….. 106

91

Evaluación de la susceptibilidad a la deformación permanente de mezclas asfálticas de alto desempeño con materiales pétreos de Mexicali, Baja California…………………………...................................................................Sistema de rociadores automáticos contra incendio en México: situación actual…………… 94Análisis Regional de Frecuencias en Sequías a escala anual en la Cuenca del RíoColorado……………………………………………………………………………………………….

97

100

Page 7: Memoria Seminario FIM UABC 2014

Prólogo

A nombre del comité organizador, reciba una cordial bienvenida al segundo seminario deposgrado de la Facultad de Ingeniería, campus Mexicali. En el año del 2013, se llevó a cabo laprimera edición de este seminario, con el objetivo de promover un espacio académico para ladivulgación de los resultados de investigación de las diferentes áreas de conocimiento que sedesarrollan en la Facultad de Ingeniería, campus Mexicali.

A la par con la variedad de trabajos, tanto por el área de conocimiento dentro de las cuales serealiza investigación en nuestra facultad, el seminario de investigación se ve altamentefortalecido por la participación de tres conferencistas: el Dr. Néstor Perea López de PennsylvaniaState University con la plática: “Materiales 2D, grafeno y más allá”; el Dr. Paul Harris de laUniversidad de California Irvine con la plática “Manufactura sustentable”; y finalmente con laM.C. Luisa Kregel de la Universidad de California Davis con la plática: “La ética en Higiene ySeguridad Industrial”.

Finalmente, agradecemos a todos los ponentes, asistentes al seminario de investigación, comitéevaluador, administración de la facultad de ingeniería y editorial universitaria por sucomprometida participación.

Mexicali, Baja California, México, 14 de noviembre de 2014

Comité Organizador

El presente documento contiene 28 artículos, los cuales fueron seleccionados en la primera y segunda edición del seminario de investigación. Los artículos son agrupados en cinco áreas deconocimiento: mecánica, industrial, computación, eléctrica y civil.

Page 8: Memoria Seminario FIM UABC 2014

1er y 2do. Seminario de Investigación de la Facultad de Ingeniería,

Campus Mexicali

Área de Eléctrica

Page 9: Memoria Seminario FIM UABC 2014

1

Eigenvalue-based Spectrum Sensing for InterferenceAvoidance in Heterogeneous Networks

Daniela M. Martínez1 and Ángel G. Andrade2

Universidad Autónoma de Baja California,Facultad de Ingeniería

Mexicali, Baja California, MéxicoE-mail: [daniela.martinez1, aandrade2]@uabc.edu.mx

Abstract— Cognitive-femtocell networks are proposed toimprove spectral efficiency by sensing the environment and thenfilling the discovered gaps of unused licensed cellular spectrumwith their own transmissions. In order to avoid harmfulinterference to macrocells transmissions, cognitive-femto basestations (CFBSs) must continuously detect and tracktransmission opportunities. Eigenvalue-based detection (EBD) isconsidered a promising spectrum sensing technique, since it isrobust to low SNR conditions, and it does not require exact apriori knowledge neither of the signal to be detected, nor thechannel or noise statistics.

Keywords- Cognitive femtocell networks; Spectrum sensing;Eigenvalue-based detection; performance evaluation.

I. INTRODUCTION

Today’s cellular networks are facing the most acceleratedgrowth in mobile data traffic. In 2011, mobile data trafficgrew over than double for the fourth year in a row, and it isexpected that mobile data traffic will increase 18-fold between2012 and 2016, and by 2016 there will be over 10-billionmobile devices connected [1].

These trends in mobile data traffic growth, force todevelop cost-effective, energy-efficient, and innovativetechnological solutions that can meet the traffic demandsforecasted for future cellular networks. A promising approachto improve the capacity of cellular networks is the deploymentof short-range, low-power, and low-cost femto-base stations(FBSs), which will form a secondary femto-cellular networkoverlaid in the traditional macro-cellular network. Thewireless network resultant from the integration of femto- andmacro-cellular networks is referred to as two-layerheterogeneous network, where the femtocells complement themacrocell in order to increase the overall network capacity [2].

Interference management is particularly challenging inheterogeneous cellular networks. First, given that the FBSs aredeployed by the user, the number and locations of the FBSswill be unknown. Secondly, in order to avoid changes to thelegacy structure of macro-cellular networks, the heterogeneousnetwork topology does not consider direct communication

between FBSs and macro-base stations (MBSs) through thebackbone network. Therefore, it is unlikely that theinterference could be controlled using centralized networkplanning and optimization (as it is done for current cellularnetworks). These facts suggest that autonomous anddistributed approaches for interference management areneeded in the context of femtocell networks.

Recently, Cognitive-FBS (CFBS) have been proposed asentities capable of autonomously acquire information of itssurrounding radio environment, to perform radio sceneanalysis useful to make intelligent decisions regarding theiroperational parameters, and to efficiently manage frequencyand power resources, in order to enable interference-freecoexistence with the macrocell, as well as with the femtocellslocated in its vicinity [3]. The most important mechanism forthe success of the CFBS is the opportune identification of thechannels that are either not in use by any femto- or macro basestation, or that are in use, but the transmitter-receiver pairusing the channel is located at a distance from the CFBS suchthat the mutual interference is negligible.

II. AUTONOMOUS SPECTRUM SENSING FOR CFBS

Interference in heterogeneous networks can be classified asco-layer interference and cross-layer interference [4]. In Fig. 1both types of interference are depicted. Co-layer interferencecorresponds to the interference originated by a CFBS to itsneighbor CFBS’s users (Femtocell User Equipment (FUE)).Cross-layer interference refers to the interference caused to themacrocell users (Macrocell User Equipment (MUE)) by co-channel transmissions of a CFBS.

In order to avoid co- and cross layer interference, theCFBSs should be aware of the radio emissions that take placein the femto- and macrocell networks. Spectrum sensing canprovide the CFBS with information regarding the radioenvironment at relatively high speed and without interventionof the MBS, or the addition of extra infrastructure. Therefore,it can be seen as one of the key technologies for enablingspectrum coexistence between femtocell and macrocellnetworks.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 10: Memoria Seminario FIM UABC 2014

2

Fig. 1. Two cases of interference that may occur in a two-layerheterogeneous cellular network: Co-layer interference (green dashed arrow)

and cross-layer interference (red dashed arrow).

A spectrum sensing algorithm will determine when is safeto use a particular channel at a particular location, and to avoidinterfering with any active user, it must be capable ofdetermining if the CFBS is located inside of the coverage zoneof an active transmitter.

Various signal processing techniques have been proposedfor spectrum sensing algorithms, see e.g. [5] for a completesurvey on spectrum sensing algorithms. Energy Detection(ED) is one of the most studied spectrum sensing techniques.It is optimal when the signal structure is unknown, and itrequires low computational and implementation complexity.However, its performance is susceptible to the randomvariations in the noise power, making it unreliable fordetecting signals in low signal-to-noise ratio (SNR) due to theso called SNR wall [6]. Cyclostationary Feature Detection(CFD) takes advantage of the embedded signatures in theSpectral Correlation Function (SCF) of the modulated signalsto improve detection under low SNR environments [7].Nevertheless, it requires a long processing time in order tomake accurate decisions, and its performance is sensitive totiming errors because it depends on the correctsynchronization with cyclic frequencies of the signal ofinterest.

To overcome the challenges associated with the detectionof signals in low SNR environments, cooperative spectrumsensing performed by a group of sensing nodes has beenproposed in [8]. The cooperation of multiple receiversenhances the reliability in the detection by exploiting spatialdiversity.

In the case of femtocell networks, cooperation can be doneconsidering two strategies:

Cooperative CFBSs. A group of CFBSs form a clusterof femtocells and individually sense the spectrum. It isexpected that femtocells are equipped with IP backhaulconnected to the Internet; therefore the CFBSs in thecluster could communicate to each other. To cooperate,each CFBS sends either the signal captured by its

receiver to perform data fusion, or its individualsensing decision to perform decision fusion at thefusion center [8]. The fusion center can be a centralizeddatabase, or the CFBS that needs the informationregarding the spectrum availability.

Cooperative FUEs. The FUEs associated with a CFBScan be considered as a form of sensor network, wherecooperation would be conceptually the same for thecase of cooperative CFBS. In this case, the fusioncenter is specifically the CFBS and data transmission ismade via wireless, through a control channel.

In the presence of a transmitted signal, the samplescollected by the multiple receivers present spatial correlation,and when only noise is present, the observations are spatiallyuncorrelated. Thus, is possible to formulate a detector basedon these statistical properties of the received data. This classof detectors, known as Eigenvalue-based detectors (EBD) [9]are promising approaches to spectrum sensing in low SNRconditions, without requiring neither synchronization with thesignal to be detected nor exact knowledge of thecommunication channel or noise statistics.

III. EIGENVALUE-BASED SPECTRUM SENSING: EXPLOITING

SPATIAL DIVERSITY FOR SIGNAL DETECTION

Spectrum sensing corresponds to discriminate between twohypotheses: (H0) the channel is available, or (H1) the channelis occupied. From a signal processing perspective, the problemturns on deciding if the samples received correspond to aprimary signal embedded in noise (H1), or to just noise (H0).

A decision rule must be constructed in order to decidewhether H0 or H1 is true. This decision rule consists of a teststatistic (T) and a decision threshold (λ). The test statistic andthe decision threshold are determined in accordance to thesignal processing technique employed to perform spectrumsensing

There are two errors that can be made when the CFBSsense the spectrum: (i) to decide that the channel monitored isbusy, when actually is not, and (ii) to decide that the channelis idle, when there actually is at least one active transmittertransmitting in the channel. The first of these two error typescorresponds to a false alarm, whereas the second correspondto a misdetection [10]. Thus, the performance of spectrumsensing must be measured by the probability of occurrence ofthese errors, this is, the probability of False alarm (PFA) andthe probability of misdetection (PM). The goal of any spectrumsensing technique is to reduce both error probabilities in orderto increase spectrum exploitation.

A. System model

Suppose that the sensing process is carried out consideringcooperation of various (M) receivers. Each receiver collects anumber of samples (L) of the received signal, which can becomposed by the signal of interest plus noise plus other

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 11: Memoria Seminario FIM UABC 2014

3

possible signals coming from other transmitters operating inthe same frequency band. The CFBS must decide if thechannel is available or not, based on the sample set collectedby the M receivers. In order to do so, the CFBS arranges thedata samples in an M x L data matrix to process it.

The motivation behind EBD relies on that the eigenvaluesassociated with the covariance matrix, denoted by Rx,obtained from the M x L data matrix formed by the samplesreceived, have distinct structures when only noise (H0), andwhen signal plus noise (H1) are present at the M receivers.

Under H0, the eigenvalues of the Rx are equals, andcorrespond to the noise power. However, under H1 themaximum of the ordered (in descending order) eigenvaluescorrespond to the sum of the noise and signal powers, whilethe rest of the eigenvalues are equal to the noise power.

Therefore, by taking the ratio of the maximum to theminimum eigenvalue of Rx, it is possible to form a teststatistic (T1) from the received data and then comparing it witha predetermined threshold (λ1). Under H0 the maximum-to-minimum eigenvalue ratio will be equal to 1, and under H1

will be greater than 1.

Similarly, under H0, the mean value of the trace of Rx willcorrespond to the noise power scaled by M. In this sense, adifferent test statistic (T2) and its associated threshold (λ2) canbe formed by taking the ratio of the maximum eigenvalue tothe trace of Rx. Hereafter, we will call Maximum to MinimumEigenvalue (MME) detector to the first case considered toform a test statistic, and Maximum Eigenvalue to Trace(MET) detector to the second one, as done in [9].

IV. PERFORMANCE EVALUATION OF THE MME AND METDETECTORS

The performance of the EBD technique and its impact on afemtocelular network spectrum occupation is addressed in thisletter. The results presented here are considered as a lowerbound on the performance of the EBD, and they are intendedto prove that, under certain considerations, spectrum sensingcan be considered as a technological option for interferenceavoidance in heterogeneous cellular networks.

The evaluation setup is based on the detection of abaseband Quadrature Phase Shift Keying (QPSK) modulatedsignal, which corresponds to a single OFMD sub-carrier. Thescenario considered for this evaluation consists of one MBSand M CFBSs. We assume a traffic pattern for the MBS suchthat the M CFBSs will observe it in the same state (busy/idle)the channel sensed for the entire sensing interval.

The receiver operation characteristic (ROC) curves of theMME and MET detectors are presented in the Fig. 2. ROCcurves quantify the trade-off between the probability ofdetection and the probability of false alarm. The valuescorresponding to the x-axis of the ROC curve represent theexpected probability of false alarm (PFA). The values of the y-

axis correspond to the probability of detection (PD), and theywere obtained by simulations for each threshold estimated.

From Fig. 2 we observe that the MET detectoroutperforms the MME detector for any number of cooperatingreceivers. For an acceptable value of PFA = 0.01 the METaccomplish a PD > 0.99 when 10 cooperating receivers areconsidered. This means that, even in low SNR, the decisionrule constructed for the MET detector is able to ensure that theprobability of interference to macrocell users by CFBStransmissions due of errors on sensing decisions is only 1%and that the CFBS will take the 99% of the spectrumopportunities, increasing the efficiency on the use of thespectrum. From the analysis presented in [6], the ED with 1dB of noise uncertainty presents similar performance only forSNR ≥ - 4.

Fig. 2. Receiver operation characteristic (ROC) curves for the MME andMET detectors, considering 1,000 samples of the received signal, SNR = -18

dB, and varying the number of cooperating nodes.

The capacity of providing reliable detection of signals in inlow SNR conditions is measured by the sensitivity of thedetector. From the results presented in the Fig. 3 we state thatthe MET detector is more robust to deep fading than the MMEdetector, because it can provide higher detection probability ofsignals with low SNR, which is a requirement to guaranteerobustness to channel conditions. However, for both detectorscooperation is necessary to provide good performance.

In order to provide a representation of the gains aboutinterference avoidance provided by spectrum sensing, wecarried out an evaluation of the signal-to-noise plusinterference ratio (SNIR) perceived by a MUE. For this, arandom number of CFBS, ranging between 1 and 20, wasconsidered inside the radius of interference to the MUE. Thismeans that all the CFBSs were located in a zone such that itstransmission can potentially interfere with the signal receivedby the MUE. For the evaluation, i) the CFBSs act as anarchicentities and they do not perform spectrum sensing to decide ifits transmissions could interfere to primary signals, and ii) thegroup of CFBS performs jointly spectrum sensing using theMET detector to identify the availability of the channel, but in

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 12: Memoria Seminario FIM UABC 2014

4

this case, each CFBS has a 20% of chance of fail in detectingthe presence of primary signal (i.e., the PD = 0.8). The Fig. 4presents the cumulative distribution function (CDF) of theSNIR values perceived by the MUE during the evaluation. Itcan be observed that when the CFBSs perform spectrumsensing, the probability of having better values of SNIRperceived by the MUE (for example greater than 10 dB) ishigher than when they do not.

Fig. 3. Sensitivity curves for the MME and MET detectors obtained when1000 samples of the received signal are used for signal detection, the PFA

considered for determining thresholds was 1%.

Fig. 4. Cumulative distribution function of the SNIR presented at a MUEcaused by the transmissions of CFBSs when they use spectrum sensing to

avoid interfering and when they act as anarchic entities.

The results presented in the Fig. 4 were obtainedconsidering an asymmetric channel. This means that weassume that the CFBS did not detect the presence of thechannel because the signal was deep faded at the time ofdetection, but we did not consider that the signal transmittedby the CFBS could be also deep faded. In this case, the signaltransmitted by the CFBS could not interfere to the primarysignal, but we consider that it does. These forms of uncertaintymust be taken into account to evaluate the compromisesbetween spectrum sensing and network performance

V. CONCLUSIONS

Spectral efficiency is playing an increasingly importantrole, as future wireless communication systems willaccommodate more and more users and high performanceservices. There is a clear need for spectrum-aware systemsthat can dynamically exploit the available bands with suitabletransmitter power without interfering with present users whohave legacy rights.

In this article we introduced the Eigenvalue-BasedDetection with the aim of determining if spectrum sensingcould be considered as a technological option for interferenceavoidance in a two-layer heterogeneous network. From theresults presented, we can conclude that an increase on thenumber of cooperating receivers has a positive impact on theperformance of spectrum sensing, since the PD is increased fora fixed PFA. Nevertheless, increasing the number ofcooperating receivers means that there will be an increase onthe amount of signaling traffic needed for transmitting the datacollected by the individual receivers to the fusion center. Thiswill result in larger delay to obtain sensing decisions, orerroneous decisions because of the loss of information causedby the increased traffic in control channels and multipledevices trying to access it. Thus, a compromise must beidentified between the gains on sensing performance and thetraffic overhead caused by the cooperation of multiplereceivers.

REFERENCES

[1] “Cisco Visual Networking Index: Global Mobile Data traffic ForecastUpdate, 2011 - 2016.” 14-Feb-2012.

[2] J. G. Andrews, H. Claussen, M. Dohler, S. Rangan, and M. C. Reed,“Femtocells: Past, Present, and Future,” IEEE J. Sel. Areas Commun.,vol. 30, no. 3, pp. 497 –508, Apr. 2012.

[3] Attar, V. Krishnamurthy, and O. N. Gharehshiran, “Interferencemanagement using cognitive base-stations for UMTS LTE,” IEEECommun. Mag., vol. 49, no. 8, pp. 152 –159, Aug. 2011.

[4] D. Lopez-Perez, A. Valcarce, G. de la Roche, and J. Zhang, “OFDMAfemtocells: A roadmap on interference avoidance,” IEEE Commun.Mag. vol. 47, no. 9, pp. 41 –48, Sep. 2009.

[5] T. Yucek and H. Arslan, “A survey of spectrum sensing algorithms forcognitive radio applications,” IEEE Commun. Surveys & Tutorials, vol.11, no. 1, pp. 116–130, 2009.

[6] R. Tandra and A. Sahai, “SNR Walls for Signal Detection,” IEEE J. Sel.Topics Signal Process., vol. 2, no. 1, pp. 4 –17, Feb. 2008.

[7] P. D. Sutton, K. E. Nolan, and L. E. Doyle, “Cyclostationary Signaturesin Practical Cognitive Radio Applications,” IEEE J. Sel. AreasCommun., vol. 26, no. 1, pp. 13 –24, Jan. 2008.

[8] F. Akyildiz, B. F. Lo, and R. Balakrishnan, “Cooperative spectrumsensing in cognitive radio networks: A survey,” PhysicalCommunication Journal, vol. 4, no. 1, pp. 40–62, Mar. 2011.

[9] N. Pillay and H. J. Xu, “Blind eigenvalue-based spectrum sensing forcognitive radio networks,” IET Commun., vol. 6, no. 11, pp. 1388 –1396, July 2012.

[10] S. M. Kay, Fundamentals of Statistical Signal Processing. DetectionTheory, 1st ed. New Jersey: Prentice Hall, 1998.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 798-0-9908236-4-3
Page 13: Memoria Seminario FIM UABC 2014

5

Aplicación del algoritmo TPSO para resolver unproblema de espectro compartido

Esteban Martínez1, Anabel Martínez2, Ángel G. Andrade3

Grupo de Tecnologías para Ambientes InteligentesFacultad de Ingeniería-UABC, Mexicali, Baja California, México

[esteban.martinez981, martinez.anabel2, aandrade3]@uabc.edu.mx,

Resumen—El crecimiento en los últimos años en el uso detecnologías de comunicaciones inalámbricas y la actualadministración del espectro electromagnético ha provocado labúsqueda de nuevas estrategias que permitan asegurar el acceso ala red a todos los usuarios de estas tecnologías. Una estrategiapropuesta es el despliegue de redes heterogéneas, que permiteincrementar la capacidad del sistema de comunicaciones alintegrar celdas de menor área de cobertura (micro, pico, femto)sobre una red macrocelular operando ambas redes en la mismaporción espectral. Para lograr lo anterior, es necesaria una técnicade Asignación Dinámica de Espectro que permita controlar elacceso de los usuarios al uso compartido del espectro de formaeficiente. En este proyecto se propone implementar un algoritmoque incremente la eficiencia en el uso del espectro compartidomedido en una mayor cantidad de usuarios y menor interferenciadañina entre ellos.

Palabras Clave—Redes Heterogéneas; Asignación Dinámica deEspectro (DSA); Optimización por Cúmulo de Partículas (PSO)

I. INTRODUCCIÓN

Hoy en día es posible encontrar una gran diversidad dedispositivos que nos ofrecen servicios de comunicacióninalámbrica, ya sea voz, video o datos; permitiéndonoscomunicarnos casi desde cualquier parte del mundo. Se estimaque un usuario, desde un teléfono inteligente genera 35 vecesmás datos en comparación con transmitir solo voz desde unteléfono convencional, un dato interesante es que en losúltimos cuatro años, este tráfico de datos móviles se haduplicado [1].

Debido a esta creciente demanda por utilizar servicios decomunicación inalámbricos, y al ser el espectroelectromagnético utilizado por estas tecnologías un recursofinito, surge la preocupación y la necesidad por hacer un mejoruso del espectro con el fin de incrementar la capacidad detransmisión de datos y evitar en un futuro una “escasez deespectro” [2]. Aunque diversos estudios concluyen que másque un problema de “escasez de espectro”, es un problema deacceso al espectro, provocado, en gran medida, por la actualadministración del espectro, ya que ciertas bandas seencuentran saturadas mientras que otras se subutilizan porlargos periodos de tiempo.

Actualmente, y en cualquier parte del mundo, cualquierdispositivo inalámbrico utiliza alguna banda de frecuencia, yasea regulada o libre para la transmisión de datos. Para utilizar

bandas reguladas, el Estado otorga una licencia de usoexclusivo, mientras que el espectro libre o no regulado permiteel acceso, a cualquier dispositivo, a cierta porción del espectrosin necesidad de una licencia. Este esquema se conoce comopolítica de asignación estática de espectro, en la que a cadaservicio de comunicación inalámbrica se le otorga una porciónde espectro, con el fin de evitar interferencias dañinas entre lasdistintas tecnologías que requieren de una porción defrecuencias. Sin embargo, esta forma de administrar también haprovocado que cada vez sea más difícil encontrar bandas librespara el despliegue de nuevos sistemas, especialmente en lasbandas por debajo de los 3 GHz, valiosas para los sistemasinalámbricos por sus características de propagación favorables

II. PLANTEAMIENTO DEL PROBLEMA

Con la creciente demanda de ancho de banda, debido a losnuevos servicios de datos y al incremento de usuariosinalámbricos, se ha buscado mejorar la capacidad de las redes,ya sea, asignando mayor cantidad de espectro a los nuevossistemas de comunicación móvil y/o existentes, o que losoperadores de estas redes implementen nuevas estrategias paralograr un mejor aprovechamiento de la porción espectral que seles asignó. Como se mencionó en la sección anterior, la opciónde asignar mayor cantidad de espectro a los sistemasinalámbricos es imposible, ya que no existe espectro disponibleque pueda asignarse, a excepción de los casos conocidos comoDividendo Digital (bandas de frecuencias que se liberaroncomo resultado del proceso de digitalización de sistemasanalógicos, tales como la radio y la televisión). De lasestrategias tecnológicas de comunicación innovadoras quepermiten que un sistema inalámbrico utilice su espectro de unaforma más inteligente y flexible se encuentra la tecnología deRadio Cognoscitiva (CR) [10], la cual provee a los dispositivosinalámbricos con la capacidad de adaptar de manera óptima susparámetros de transmisión de acuerdo a la interacción con elentorno en el que opera [11]. Otra es la de compartir bandas defrecuencias ya sean entre sistemas con bandas reguladas oentre sistemas con bandas reguladas y no-reguladas. Elespectro compartido promueve la coexistencia de diferentessistemas de radio en la misma porción espectral, sin importar labanda de frecuencia de operación que tienen asignadaoriginalmente. Un ejemplo de ello, es el despliegue de redesheterogéneas, en las que distintas tecnologías inalámbricas

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 14: Memoria Seminario FIM UABC 2014

6

funcionan juntas para brindarle al usuario final una experienciainalámbrica transparente. Las redes heterogéneas se componenprincipalmente por una combinación de macro-celdastradicionales de gran tamaño (conocida como la red primaria) yceldas más pequeñas, incluyendo micro-celdas, pico-celdas yfemto-celdas (denominada la red secundaria). Estacombinación entre redes primaria y secundaria permiteaumentar la capacidad en aquellas zonas de mayor demanda derecursos y distribuir el tráfico entre las celdas pequeñas paraque no se generen cuellos de botella en las macroceldas. Lasredes heterogéneas se caracterizan porque ambas redes operanen la misma porción espectral, por lo que se requiere estableceralguna estrategia de control de acceso y de compartición deespectro que permita aprovechar la banda de frecuenciasasignada a la red. Compartir espectro se refiere a que tanto losusuarios primarios que pertenecen a las macroceldas como lossecundarios, que son atendidos por las femto o micro celdas,tienen la misma oportunidad de utilizar las mismas bandas defrecuencia simultáneamente y, la única restricción para su usoes que no generen interferencia entre ellos garantizando conello una Calidad de Servicio (QoS) en ambas redes.

Entre mayor sea la cantidad de usuarios que utilicen elmismo canal concurrentemente, mayor será la interferencia.Por lo que, una forma de controlar el acceso de usuarios esmediante una asignación efectiva de canales, y en el momentode que alguno de ellos provoque que la interferencia supere unumbral de interferencia predefinido será bloqueado y no podrátransmitir. Aunque esta estrategia asegura una QoS en elsistema al controlar la interferencia, no asegura un incrementoen la capacidad de la red, dado que es posible que a un usuariono se le asigne un canal de comunicación.

III. TRABAJO RELACIONADO

Para resolver el problema de espectro compartido descritoen la sección anterior, esto es, controlar el acceso a los usuariosprimarios y secundarios y, con ello minimizar la interferenciaen el sistema y, asignar canales a los usuarios de tal forma quese maximice la capacidad del sistema. En la literatura se hanpropuesto diversas estrategias que se basan en algoritmosheurísticos tales como; algoritmos genéticos o algoritmosbioinspirados. De este último, la Optimización por Cúmulo dePartículas (PSO por sus siglas en inglés Particle SwarmOptimization) el cual se basa en el comportamiento de lasbandadas de aves o bancos de peces, es de los más utilizados.En este algoritmo cada partícula representa una posiblesolución al problema, y las partículas, análogamente como lohacen las aves o peces, “vuelan o se mueven” a lo largo delespacio de búsqueda en busca de la mejor respuesta posible,modificando su dirección con base a una velocidad y posición.

Resolver el problema de espectro compartido se refiere amaximizar la capacidad total de la red minimizando elconsumo de energía [4] o reduciendo la interferencia presenteen todo el sistema [8], ya sea considerando la técnica Binariode Optimización por Cumulo de Partículas (BPSO), algoritmosgenéticos o la de colonias de insectos [7].

Estas técnicas son independientes del problema, lo cual loshace algoritmos robustos, por ser útil para cualquier problema,pero a la vez débil, pues no está especializado en ninguno. Las

soluciones codificadas compiten entre sí para ver cuálconstituye la mejor solución. La principal ventaja de estosmétodos radica en su sencillez y en que se requiere pocainformación sobre el espacio de búsqueda ya que se trabajasobre un conjunto de soluciones o parámetros codificados.

La técnica PSO es de las herramientas que proporcionan lasmejores soluciones y ha sido utilizado en un amplio rango deaplicaciones, tales como; aplicaciones de control, electrónicas yelectromagnetismo, diseño de antenas, aeroespaciales y desistemas de potencia, debido a que es considerado robusto,además de su fácil implementación y bajo costo computacional[9].

Sin embargo, la técnica PSO presenta deficiencias en laexploración y explotación al momento de generar nuevassoluciones. La exploración se refiere a la capacidad delalgoritmo para moverse dentro de un amplio campo en elespacio de búsqueda, de forma que no se limite a una solaregión y pueda explorar una diversidad de posibles solucionesy evitar divergir prematuramente en un óptimo local. Encambio la explotación es la habilidad del algoritmo paraevaluar eficazmente una región de posibles soluciones (regióncandidata) donde pudiera encontrarse la mejor solución alproblema y no moverse prematuramente a otra región sin haberexplotado las posibles soluciones de la región.

IV. PROPUESTA DE TESIS

En este proyecto se propone resolver el problema de controlde acceso y asignación de canal con base a las característicasde espectro compartido, buscando maximizar la cantidad deusuarios coexistentes en el sistema. El buen desempeño de lared estará limitado por la tolerancia a la interferencia. Para loanterior se implementará un algoritmo PSO modificado. Estasmodificaciones fortalecerán el balance entre las característicasde exploración y explotación, con el fin de asegurar que seencontrará la mejor solución. Una de estas modificaciones esconocida como el Territorial Particle Swarm Optimization(TPSO). Este algoritmo propone incluir un territorio con radioR(t) alrededor de cada partícula, de forma que si el territorio deuna partícula colisiona con otro, actúa un operador de colisiónsobre la partícula de menor aptitud, es decir la que representauna solución inferior, alejándola de la región donde seencuentra la partícula que presenta mejor aptitud. Esto ayuda aevitar el agrupamiento de las partículas en las primeras etapasde búsqueda. También se debe considerar que conformeavanzan las iteraciones de búsqueda, se presenta la tendenciade que las partículas se agrupan, es decir, se incrementa laconvergencia a una solución óptima, por lo que el algoritmotambién considera que el tamaño del territorio es grande alinicio y decrece a cero conforme avanzan las iteraciones. Estoasegura la habilidad de exploración del algoritmo, manteniendouna diversidad en la búsqueda de las soluciones.

En el caso de la explotación, el TPSO implementa uncambio en la interacción social de las partículas, es decir, laforma en que definen su nueva posición, ya que a diferenciadel PSO convencional que toma en cuenta la mejor posición dela partícula y la mejor posición global del cúmulo, el TPSOconsidera el promedio ponderado de la mejor posición de su

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 15: Memoria Seminario FIM UABC 2014

7

partícula vecina. Esto implica que solo aquellas partículasvecinas que tengan una mejor aptitud que la propia partículainfluenciará en la nueva dirección, dirigiéndola a explotar unaregión candidata, de la misma forma conforme se incrementanlas interacciones se la da mayor ponderación a la mejorposición global del cúmulo.

REFERENCIAS

[1] Y. Liu, L. Cai, X. Shen and H. Luo, “Deploying Cognitive CellularNerworks under Dynamic Resource Management,” IEEE WirelessCommunications, vol. 20, no. 2, April 2013, pp 82-88.

[2] P. Ahokangas, M. Martinmikko, S. Yrölä, H. Okkonen, T. Casey,“Simple Rules for Mobile Network Operators’ Strategic choices inFuture Cognitive Spectrum Sharing Networks” IEEE WirelessCommunications, vol. 20, no. 2, April 2013, pp 20-26.

[3] P.F. Marshall and P.J. Kolodzy, “A Potential Alliance for World-WideDynamic Spectrum Access” in NewFrontiers in Dynamic Spectrum,2010 IEEE Symposium, 2010, pp 1-4.

[4] Li. Yu, Cong Liu, Wenyu Hu, “Spectrum Allocation Algorithm inCognitive Ad-Hoc networks with High Energy Efficiency,” on 2010International Conference on Green Circuits and Systems(ICGCS),IEEE(2010), pp 349-354.

[5] B. Atakan, O.B. Akan, “BIOlogically-Inspired Spectrum Sharing inCognitive Radio Networks,” in: Wireless Communications andNetworking Conference, 2007.WCNC 2007. IEEE, 2007, pp. 43–48.

[6] Guangfu Li, Ser Wah Oh, Kah Chan Teh, Kwok Hung Li, “EnhancedBIOlogicallyinspired Spectrum Sharing for cognitive radio networks,”in: 2010 IEEE International Conference on Communication Systems(ICCS), IEEE, 2010, pp. 767–771.

[7] E. Bonabeau, G., Theraulaz, M., Dorigo, “Swarm Intelligence FromNatural to Artificial Systems,” 1st ed., Oxford University Press, USA,1999.

[8] A. Martínez, “Control de Admisión y Asignación de Canal Basado enOptimización por Cumulo de Partículas (PSO) para Redes Cognitivas,”Tesis Dr. en Ciencias, Universidad Autónoma de Baja California,Facultad de Ingeniería, 2012.

[9] B. Arani, P. Mirzabeygi, M. Panahi, “An Improved PSO Algorithm witha Territorial Diversity-Preserving Scheme and Enhanced Exploration-Explotation Balance,” Swarm and Evolutionary Computation, Volume11, Agosto 2013, pp 1-15.

[10] J. M. III, “Cognitive Radio An Integrated Agent Architecture forSoftware Defined Radio Dissertation,” Scientific American, vol. 294, no.3, pp. 66–73.

[11] Beibei Wang and K. J. . Liu, “Advances in cognitive radio networks: Asurvey,” IEEE Journal of Selected Topics in Signal Processing, vol. 5,no. 1, pp. 5–23, Feb. 2011.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 16: Memoria Seminario FIM UABC 2014

8

Detección Espectral Aplicada en RedesCognoscitivas

Guillermo Prieto Avalos1, Ángel G. Andrade2

Grupo de Tecnologías para Ambientes InteligentesFacultad de Ingeniería, Universidad Autónoma de Baja California

Mexicali, Baja California, México[guillermo.prieto1, aandrade2]@uabc.edu.mx

Resumen— La radio cognoscitiva (RC) se propone comouna plataforma tecnológica que permitirá mejorar lasubutilización del espectro radioeléctrico que existe actualmente.Esto a su vez, permitirá atender las demandas de ancho debanda de los nuevos servicios y aplicaciones. La RC basa sufuncionamiento en utilizar el espectro de manera oportuna, bajola premisa de no interferir a los usuarios que tienen el derecho(Licencia) de utilizar sus bandas de frecuencia. En una de laspropuestas de operación de la RC el usuario cognoscitivoaprovecha la o las porciones espectrales que se encuentrensubutilizadas por los usuarios regulados, mientras realiza unaverificación periódica de la ocupación de las bandas defrecuencia para evitar interferir en caso de que un usuarioregulado reclame. En este caso, el usuario cognoscitivo debebuscar alguna otra banda de frecuencia para concluir con sutransmisión. Para lograr lo anterior, los usuarios cognoscitivosdeben contar con algún esquema de detección espectral que lespermita identificar aquellas bandas de frecuencia disponibles. Eneste documento se describe mi propuesta de tesis doctoral en laque se propone desarrollar un nuevo esquema de detecciónespectral que tome en cuenta aquellos factores que afectan elbuen desempeño del sistema inalámbrico en donde se apliquetales como: interferencia y separación espacial entre usuarios.

Palabras claves—Espectro Radioelectrico, Radiocognoscitivo, uso oportunista de espectro,usuario primario, usuariosecundario, interferencia, separacion espacial.

I. CONTEXTO DEL PROBLEMA

Desde la existencia del ser humano, la comunicación hasido clave para su evolución. Las formas de comunicarsefueron cambiando con el transcurso del tiempo; desdegruñidos, gestos, señales de humo y diversas formas graficas(murales y/o pinturas) hasta llegar a los sofisticados equiposelectrónicos que existen hoy en día, como los son los teléfonoscelulares y equipos de cómputos, entre otros. Los sistemas decomunicaciones inalámbricas son aquellos que establecen unintercambio de información entre un transmisor y un receptorutilizando como medio físico el espacio libre. Dicho espaciolibre se le denomina ¨ espectro radioeléctrico ¨ el cual sedefine como un bien público formado por un conjunto defrecuencias (algunos servicios se ofrecen en frecuencias delorden de los GHz) en donde los sistemas de comunicacionesinalámbricos basan sus emisiones para ofrecer servicios a una

población determinada. En México, así como en la mayoríade los países en el mundo, el Estado es quien administra lasfrecuencias del espectro radioeléctrico y, se encarga delotorgamiento y uso de licencias, además tiene la capacidad yfacultad de localizar e infraccionar a los representantes deemisiones no autorizadas (usuario que no cuenta con licenciapara realizar una transmisión). Esta política de administracióndel espectro se le conoce como administración fija delespectro y, entre los derechos que un usuario posee al adquiriruna licencia, es que nadie más puede hacer uso de la banda defrecuencias que ampara, sin importar si dicha banda defrecuencia no se utiliza en ciertos instantes de tiempo oregiones geográficas. Este método de administración delespectro garantiza a las distintas tecnologías inalámbricasprotección contra la interferencia. Una vez que el organismoregulador concede una licencia de uso del espectro, en ella sedefine el tipo de servicio para el que se utilizará ese espectro,y aun cuando el operador que obtiene la licencia termine susoperaciones, esa porción de espectro no puede utilizarse porningún otro tipo de servicio, u operador, hasta que termine lavalidez de la licencia y la banda se liberé para una nuevasubasta.

Se puede observar en la tabla de asignación de espectro dela Comisión Federal de Telecomunicaciones (COFETEL) [1],que la mayoría de las frecuencias ya se asignaron a algúnservicio de comunicaciones. Esto indica que será difícilasignar espectro adicional a los nuevos servicios, tecnologíasy/o aplicaciones que se desarrollen. En contraste con loanterior, algunos estudios muestran que el espectro asignadovaria en utilización de un 15% a 85% [2], cuando se esperaríaque ésta permaneciera en uso todo el tiempo; sin embargo, loexpuesto anteriormente deja claro que existe una desigualdadentre la asignación y el uso que se hace del espectro.

Dado que la actual política de administración del espectroes suboptima desde un punto de vista de máximoaprovechamiento del espectro, diferentes organismos hanconsiderado la necesidad de introducir reformas, no sólo paramejorar su utilización sino también para proveer nuevoespectro disponible para las nuevas aplicaciones de bandaancha móvil. Como resultado de estos estudios [2], se hanpropuesto tecnologías de comunicación innovadoras que

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 17: Memoria Seminario FIM UABC 2014

9

permiten que un dispositivo inalámbrico utilice su espectro deuna forma más inteligente y flexible. Un ejemplo de ello es latecnología de Radio Cognoscitiva (RC) [4], la cual provee alos dispositivos inalámbricos con la capacidad de adaptar demanera óptima sus parámetros de transmisión de acuerdo a lainteracción con el entorno en el que opera [5].

II. RADIO COGNOSCITIVA

En la literatura se proponen algunas estrategias con el fin deaprovechar o eficientizar el uso del espectro. Por ejemplo,compartir bandas espectrales, ya sean entre sistemas conbandas reguladas o entre sistemas con bandas reguladas y no-reguladas. Compartir bandas de frecuencia promueve lacoexistencia entre diferentes sistemas de radio en la mismaporción espectral. Dado que actualmente la mayor parte delespectro está asignado, cualquier iniciativa que fomente lautilización compartida del espectro tiene como premisafundamental que los usuarios no regulados o secundarios (US)no interfieran a los usuarios regulados o Usuarios Primarios(UP) [4], por lo que resulta evidente que para el desarrollo defuturos dispositivos, aplicaciones o sistemas de espectrocompartido basados en la RC es necesaria la detección de todotipo de señales o la compartición simultanea del espectro. LaRC se define como aquél sistema de radio que utiliza lasbandas espectrales en forma dinámica de tal forma quecontribuye en mejorar la utilización del espectro. Estatecnología permite cambiar los parámetros de transmisión deacuerdo al ambiente en que esté operando, es decir, si la RCdetecta una banda de frecuencia de un UP que la tienedesocupada, la utiliza para transmitir, y al mismo tiempo estábuscando otra banda desocupada por si el UP reclama subanda, y al mismo tiempo se cuente con otra banda parafinalizar la transmisión. Esto difiere de los dispositivos deradio convencional con los de RC, en el que estos últimos demanera autónoma tendrán capacidad de tener conciencia delespectro que los rodea.

Para explotar el espectro de una manera oportunista, la RChabilita a los US con receptores que les permite identificarconstantemente, sin equivocarse, el espectro disponible y a suvez seleccionar el mejor canal para establecer unacomunicación con otro usuario o dispositivo del sistema.Decidir erróneamente que dicho canal está libre cuando enrealidad lo está utilizando un UP generará interferencia en lared y, resolver que el canal está ocupado cuando no lo está,resultará en consecuencia en una disminución de la eficienciaespectral. A esta nueva forma de explotar el espectroutilizando la tecnología de RC se le conoce como AccesoDinámico de Espectro (DSA, por sus siglas en ingles).

A. Detección y análisis del espectro

La detección espectral se considera como el procesoprincipal de la RC. La detección espectral busca un espacioen blanco en el espectro, es decir, una porción del espectro en

el que el UP no utiliza en un instante de tiempo. En la figura 1se muestra el aprovechamiento oportuno que hace un US delos huecos o porciones libres de espectro.

Fig. 1. Acceso dinámico al espectro

B. Fundamentos de la detección

El problema de la detección se modela como la prueba de lassiguientes dos hipótesis:

H0: x[n] = w[n] Solo ruido (1)H1: x[n] =s[n]+w[n] Señal + Ruido (2)

Donde la hipótesis H0 corresponde al caso donde la señalrecibida está compuesta únicamente por ruido, mientras que lahipótesis H1 corresponde al caso donde la señal recibida secompone por una señal primaria más ruido. Para elegir algunade las hipótesis, se necesita determinar un estadístico deprueba (T[x]), el cual se calcula en función de las muestras dela señal recibidas y de la técnica de detección utilizada. T[x]se compara contra un umbral (λ), para tomar una decisión [8].La toma de decisión se realiza de la siguiente manera:

Si T[x] < λ elegir H0

Si T[x] > λ elegir H1

Las métricas que se utilizan para evaluar el desempeñocualquier técnica de detección son la Probabilidad de Falsaalarma (PFA) y Probabilidad de Detección (PD). En la figura 2,se puede observar que si se cumple H1 cuando H0 esverdadero, entonces se tiene una falsa alarma, esto significaque el espectro está ocupado cuando realmente está libre. Estamétrica se llama Probabilidad de Falsa Alarma PFA (H1; H0);y por otro lado, decidir que se cumple H0 cuando H1 esverdadero se resuelve un error de detección, esto es decidirque el espectro está libre cuando realmente no lo está. La

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 18: Memoria Seminario FIM UABC 2014

10

métrica que define el error en la detección se conoce comoProbabilidad de Detección PD (H0; H1).

Fig. 2. Descripción de la Probabilidad de falsa alarma y dela Probabilidad de detección.

III. TECNICAS DE DETECCION DEL ESPECTRO EN REDES

COGNOSCITIVAS

Las técnicas de detección espectral permiten identificar lasporciones de espectro disponibles que pueden utilizar los USssin causar interferencia a los UPs. Estas técnicas aseguran unnivel de confiabilidad al momento de decidir si la señalprimaria está o no presente. Entre las características deoperación de las técnicas de detección, se encuentran lassiguientes:

1. Se suele tener poco o nulo conocimiento sobre las señalesque transmiten los UPs (potencia, fase, modulación, entreotros).

2. El tiempo de detección debe ser corto para aprovechar eltiempo disponible para transmitir información útil.

3. Capacidad de detectar señales primarias en entornosafectados por los desvanecimientos e interferencia.

Lo anterior sugiere que cualquier técnica de detecciónespectral debe ser capaz de tomar decisiones acertadas sobrela disponibilidad de alguna banda de frecuencias coninformación limitada, de forma ágil, y sobre todo en presenciade variaciones en el entorno de propagación [7]. Actualmente,existen varias técnicas propuestas para la detección deespectro aplicado a redes de RC, cada una de ellas con susventajas y limitaciones, capaces de lograr distintos niveles dedesempeño dependiendo de la aplicación de las mismas. En latabla 1 se muestra un comparativo de las ventajas ydesventajas de algunas de las técnicas de detección deespectro que se presentan en la literatura.

En la figura 3 se establece el compromiso entre precisión ycomplejidad que presentan las técnicas de detección máscomunes. Se puede observar que a medida que la técnica dedetección es más compleja, ésta se vuelve más precisa enresolver el problema de detección.

Tabla I Cuadro comparativo de las técnicas de detección.

Detector Ventajas Desventajas

De energía

Poca complejidadde implementacióny no requiereconocimientoprevio de la señal.

Incapacidad paradiscriminar entredistintas fuentes deenergía que recibe.

Filtroacoplado

Requiere menortiempo dedetección paralograr unadeterminada PD ode PFA.

Requiere un receptorpara cada tipo desistema primario yun alto consumo depotencia por ejecutarvarios algoritmos dedetección.

Característicascicloestacionarias

Puede detectar lapresencia de unaseñal primaria, auncuando seencuentre inmersaen ruido oseveramenteafectada porinterferencia.

Receptores máscomplejos yrequiere mayortiempo dedetección.

Con base enlos valores

propios(EBD)

Mayor sensibilidadpara la detecciónde señales enentornos de bajoSNR, ya queaprovecha ladiversidad espacialque proporcionanlos sistemas multi-antena o multi-receptor.

El número dereceptores y demuestras tienden aser infinito y esdifícil compensar lasfluctuaciones delcanal si este no seconoce.

IV. PROPUESTA DE TESIS

El detector de energía es una de las técnicas más básicas ysencillas de implementar para utilizarse en aplicaciones dedetección espectral, además de que promete ser la base para laconstrucción de detectores de espectro de manera comercial[9]. Como se muestra en la figura 4, el detector de energíacompara la energía contenida en un canal primario con unumbral de decisión para determinar la disponibilidad del canal.Si la energía es menor que el valor del umbral, el US puedeutilizar el canal, de lo contrario, debe abstenerse de transmitiren ese canal hasta evaluar su disponibilidad en el siguienteperiodo de detección.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 19: Memoria Seminario FIM UABC 2014

11

Fig. 3. Precisión vs Complejidad en los detectores.

Con el fin de mejorar el desempeño del proceso de ladetección del espectro, varios autores han propuesto que ladetección espectral se realice de forma cooperativa, esto es,que una entidad central recolecte las decisiónes de los USs queconforman la red y con esta información resolver la decisióndel estado del espectro.

Sin embargo, de esta iniciativa surgen algunas preguntas deinvestigación, por mencionar algunas se tiene; ¿Cuál debe serla cantidad mínima de nodos que deben cooperar durante elproceso de detección, de tal forma que proporcionen lainformación suficiene para que la entidad central resuelva elproblema de detección?, ¿Cuáles son los aspectos que debentomarse en cuenta (ejemplos; tráfico de control, interferencia,distribución espacial y caudal eficaz ) para el desarrollo de unanueva técnica de detección espectral cooperativa?, ¿Cual es elcompromiso entre precisión y complejidad que esta técnica dedetección cooperativa debe ofrecer? Por lo anterior, lapropuesta de este trabajo de tesis es desarrollar un nuevoalgoritmo de detección espectral ciego y cooperativo. La ideabásica radica en que un grupo de detectores de energíaparticipen en el proceso de detección. La cooperación serealizará cuando cada uno de ellos envíe su decisón a unaentidad central, para que éste, con base a la informaciónrecibida, resuelva la disponibilidad de uso de alguna porcióndel espectro.

REFERENCIAS

[1] www.cft.gob.mx/wb/Cofetel_2008/Cofe_imagenes_del_cnaf_2007.

[2] Ian F. Akyildiz, Won-Yeol Lee, Mehmet C. Vuran *, ShantidevMohanty “NeXt generation/dynamic spectrum access/cognitive radiowireless networks: A survey”, Received 2 January 2006; accepted 2 May2006 Available online 17 May 2006.

[3] Qing Zhao and Brian M. Sadler,” A Survey of Dynamic SpectrumAccess”, IEEE SIGNAL PROCESSING MAGAZINE MAY 2007

[4] J. M. III, “Cognitive Radio An Integrated Agent Architecture forSoftware Defined Radio Dissertation,” Scientific American, vol. 294, no.3, pp. 66–73.

[5] Beibei Wang and K. J. . Liu, “Advances in cognitive radio networks: Asurvey,” IEEE Journal of Selected Topics in Signal Processing, vol. 5,no. 1, pp. 5–23, Feb. 2011.

[6] Tevfik Yucek and Huseyin Arslan, “A survey of Spectrum SensingAlgorithms for Cognitive Radio Applications”.

[7] R. Tandra, A. Sahai and V. V. Veeravalli, “Space-time metrics forspectrum sensing”, IEEE Symposium on New Frontiers inDynamic Spectrum Access Networks (DySPAN 2010), pp. 1 – 12, April6 – 9, 2010.

[8] Danijiela Cabric, Artem Tkachenko y Robert BrodersenW.,”Experimental Study of Spectrum Sensing based on EnergyDetection and Network Cooperation”.

[9] Marko H¨oyhty¨a, Atso Hekkala, Marcos Katz, and Aarne M¨ammel¨a,

“Cognitive Wireless Networks, Concepts, methologies and visionsinspiring the age of enlightenment of wireless communication”.

Fig. 4. Diagrama a bloques de un detector de energía.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 20: Memoria Seminario FIM UABC 2014

12

Differential Evolution Multi-Objective forOptimization of Isoflux Antenna Arrays

Miguel Ibarra1, Ángel G. Andrade2

Universidad Autónoma de Baja California (UABC)Engineering Faculty Mexicali, México

e-mail: [miguel.ibarra1,aandrade2]@uabc.edu.mx

Marco A. PanduroUniversidad Autónoma de Tamaulipas (UAT)

Carretera Reynosa, Reynosa, Tamaulipas, 88779, Méxicoe-mail: [email protected]

Abstract—This design of concentric ring antenna arraysconsiders the optimization of the spacing between rings and theamplitude excitation across the antenna elements in order togenerate the trade-off curves between the side lobe level (SLL)and the isoflux mask error. In order to use fewer levels ofexcitations to diminish the hardware complexity, a concentricexcitation is considered across the antenna array. Simulationresults applying a Differential Evolution Multi-Objective(DEMO) optimization method are provided in this document.

Keywords— Concentric rings antenna arrays, DEMO, isofluxradiation.

I. INTRODUCTION

There are two important design requirements for thesatellite antenna: the reduction of hardware and an isofluxradiation that allows illuminate the earth in a uniform way. Inparticular, we will focus our interest on the design of one ofthe most important components of satellite systems: theantenna. First the reduction of hardware considering a fewerexcitation devices reduces weight and cost of the antennasystem. Second, the radiation requirements for these antennasystems consider an isoflux pattern with a minimum SLL [1]-[2]. The isoflux radiation is useful for satellite applications. Inthis case, different antenna array geometries have beendesigned for isoflux radiation [5]-[6], [9]-[13]. These designshave been focused to generate an isoflux pattern for differentorbits such as geostationary earth orbit (GEO) satellites,medium earth orbit (MEO) satellites and low earth orbit(LEO) satellites. These previous designs have generated anisoflux pattern by using linear, uniform quadrangular,periodic, concentric rings arrays, volumetric array, andanisotropic meta-surface antenna. In the study of concentricrings antenna arrays, it has been considered optimizing anarray to shape an isoflux radiation pattern in GEO and MEOsatellites [5]-[6], [11], [15]. The study cases presented in [5]and [7] consider the design of the antenna array for isofluxradiation as a optimization problem of a single objective.Moreover, the application of a multi-objective evolutionaryoptimization algorithm to design concentric rings antennaarrays for isoflux radiation has not been presented previously.A few related results can be found in the literature [10],[16].

II. PROBLEM STATEMENT

The signals sent by GEO and MEO satellites have lossescaused the different paths followed by the signal (due thecurvature of earth) cause losses in the intensity of thetransmitted signal. So, to avoid these losses it is required toimplement an antenna design that accomplishes an isofluxradiation, same power density to any point of the illuminatedearth surface. In this case, Rs (θ) is function based on theprevious work presented in [5]-[6].

= + + − 2 ℎ+ + ℎ+ − 1 = 0 (1)The function Rs (θ) equation (1) indicates the relative

distance of the satellite to any point of the illuminated earthsurface in any cut of the azimuth plane as shown in Figure 1.Assuming any sweep in the azimuth plane, the function Rs (θ)should be identical, according to the elliptical symmetricshape of the earth; h=36000 km for GEO, and h=20000 kmfor MEO, representing the height of the satellite from theearth; Re is the distance of the earth center to any point of theilluminated earth surface; pursuant to the WGS84 (WorldGeodetic System 84) coordinate system, the dimensions ofearth are as follows: a=6378137 meters is the equatorialradius of the earth and b=6378137 meters is the polar radiusof the earth [5] as shown in figure 1.

Fig. 1. Electromagnetic illumination in the equatorial pole of the Earth.

The antenna array considered in this work consists of astructure of concentric rings as shown in Figure 2. As thearray reference, a central element is considered. Also, theconcentric ring array is formed by NT=1+(NnNr) spacedelements in the x-y plane. The array factor (AF) for thisconcentric ring array is given by equation (2) [5]:

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 21: Memoria Seminario FIM UABC 2014

13

Fig. 2. Geometry of the concentric ring array

, , , = + (2)where u=sinθcosϕ, v=sinθcosϕ; Nr represents the number

of rings; Nn represents the number of elements on the ring n; rn

is the radius of ring n defined by the spacing between ringsS=s1, s2, ..sn, where r1=s1, r2= (s1+s2), … rn= (sn-1+sn);φm=2π (m-1) / Nn represents the angular position of the ringelement m on the ring n; θ is the angle of a plane wave in theelevation plane; ϕ is the angle of a plane wave in the azimuthplane; wnm are the amplitude excitations of the element m onthe ring n. In this case, it is considered a uniform excitation ineach ring, but not uniform between the rings. The objectivefunctions of this design problem can be formulated as follows:= | , , , − | (3)= | , , , /max( , , , )| (4)

where θr=[-θk, θk] is the range of the elevation plane in thecoverage area for each cut in the azimuth plane of the arrayfactor generated, i.e., [-9°, 9°] for GEO and [-14°, 14°] forMEO, with an attenuation of -1.3dB at θ1=0° for GEO and -2.1dB at θ1=0° for MEO; (θSLL, φSLL) is the angle where themaximum side lobe level is attained. The minimization of thesum of the error for each angle in the field of view (fo1), and inthe second component it is the minimization of the maximumside lobe level (fo2).

Then the problem can be formulated as:

Minimize (fo1, fo2) (5)subject to SM, W,

where M=[0.5λ, 1.0λ]Nis the range of the spacing betweenrings and =[Wmin≥-10, Wmax≤10, W≠0]N is the range of theweight coefficients imposed for practical implementation ofthe attenuators. Notice that the relations between the decisionvariables P and W with f1, f2 are not trivial, but highlynonlinear.

III. THE MULTI-OBJECTIVE EVOLUTIONARYOPTIMIZATION ALGORITHM

DEMO is a way of extending Differential Evolution (DE)[14]. The DEMO implementation differs from others andrepresents a novel approach to multi-objective optimization.DEMO can be implemented in three variants: DEMO/parent,

DEMO/closest/dec. and DEMO/closest/obj. In this designcase, DEMO/parent is applied to design concentric ringantenna arrays for isoflux radiation [14].

Algorithm 1.DEMO/parentStep 1. Evaluate the initial population P of randomindividuals.Step 2. While stopping criterion not met, do:2.1. For each individual Pi(i= 1, . . .,popSize) from Prepeat:(a) Create candidate C from parent Pi.(b) Evaluate the candidate.(c) If the candidate dominates the parent, the candidatereplaces the parent. If the parent dominates the candidate,the candidate is discarded. Otherwise, the candidate isadded in the population.2.2. If the population has more than popSize individuals,truncate it.2.3. Randomly enumerate the individuals in P.

IV. EXPERIMENTAL SETUP AND RESULTS

For DEMO algorithm we have set the proposed parametersbased in previous experience solving similar problems [15].The value of F= 0.5.The stopping criterion in the algorithm isthe number of iterations was set to 1000 and the populationsize was set to 300. The algorithm was executed 10 times andthe consolidated front for each run is considered.

A) GEO satellites caseThis design considers Nt=61 antenna elements distributed inMr=4 rings plus a central element. The rings contain 6, 12, 18and 24 elements respectively. Figure 3 shows the trade-offcurve between the mask error and the side lobe level. As adesign example, consider the case of SLL=-26.97dB and MaskError=5.889E-6 obtained in Figure 3. In figure 4 illustrates theobtained isoflux radiation in the elevation plane by this designsolution. It could be appreciated that the selected designgenerates an isoflux radiation with a good accuracy withrespect to the isoflux mask for GEO satellites. If these resultsare compared with the mono-objective designs presented in[7], provides an isoflux radiation with a SLL=-19.04 dB, i.e.,provides a SLL reduction of almost 8 dB.

Fig. 3. Trade-off curve between the mask error and the side lobe level for theconcentric rings antenna array in GEO satellites case.

-55 -50 -45 -40 -35 -30 -25 -200

0.02

0.04

0.06

0.08

0.1

0.12

0.14

SLL(dB)

Mas

k E

rror

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 22: Memoria Seminario FIM UABC 2014

14

Fig. 4. Array factor generated by the design solution of (SLL=-26.97 dB andMask Error=5.889E-6) obtained in Figure 3.

Figure 5 and Table 1 show the geometry and the numericalvalues for the selected design solution respectively, the designsolution proposes a non-uniform spacing between rings from0.5061λ until 0.6068λ. Excepting the central element, theamplitude excitations consider negative values from -0.0223until -3.4308. As illustrated in Table 1, in order to use fewerlevels of excitations to diminish the hardware complexity, aconcentric excitation is considered across the antenna array,i.e., uniform excitation in each ring, but a non-uniformexcitation among rings.

Fig. 5. Geometry for the selected design solution considering an array of 4concentric rings with 61 elements for GEO satellites.

TABLE I. NUMERICAL VALUES FOR THE SELECTED DESIGN SOLUTION(ILLUSTRATED IN FIGURE 6)

RingsSpacingbetweenrings (λ)

Radii of therings (λ)

AmplitudeExcitations

Numberof

elementsCentralelement

0 0 10 1

1 0.5574 0.5574 -3.4308 6

2 0.5061 1.0635 -1.1284 12

3 0.5140 1.5776 -0.3520 18

4 0.6068 2.1844 -0.0223 24

B) MEO satellites caseThis design considers an array of Nt= 37 antenna elements

distributed in Mr=3 rings plus a central element. The solutionsof array factor for DEMO algorithm are generated by using

500 samples for θ=[-90°, 90°] for 500 cuts in ϕ=[-180°, 180°].A value of P=40 points is considered between θ1 and θk for fo1.

In this case, we considered a fewer antenna elements withrespect to the GEO case. This is because MEO satellitesrequire a wider isoflux with respect to GEO case, i.e., it isdifficult to achieve a wider isoflux mask when the samenumber of antenna elements is used; if less antennas are usedin the array, the radiation pattern would be wider providingbetter initial solutions for the DEMO algorithm with respect toan more directive antenna array.

Figure 6 shows the trade-off curve between the mask errorand the side lobe level for the concentric rings array in MEOsatellites case. From Figure 6 it can be observed a non-dominated front with solutions to be on the range of (-49.72dB, -20.99 dB) for the side lobe level and (2.86E-10, 0.158)for the isoflux mask error.

Fig. 6. Trade-off curve between the mask error and the side lobe level for theconcentric rings antenna array in MEO satellites case.

Fig. 7. Array factor generated by the design solution of (SLL=-23.80 dB andMask Error=0.0016) obtained in Figure 6.

The design case of (SLL=-23.80 dB and MaskError=0.0016) could be chosen. Figure 7 illustrates theobtained isoflux radiation in the elevation plane by this designsolution. It could be appreciated that the selected designgenerates an isoflux radiation with a good accuracy withrespect to the isoflux mask for MEO satellites. As shown inFigure 7, the isoflux shape requires a range of field of view of

-2 -1 0 1 2-2.5

-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

2.5

-50 -45 -40 -35 -30 -25 -200

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

SLL(dB)

Mas

k E

rror

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 23: Memoria Seminario FIM UABC 2014

15

-14°≤θ≤14°, i.e., a wider isoflux pattern with respect to GEOsatellites case. Finally, Figure 8 and Table 2 show thegeometry and the numerical values for the selected designsolution for MEO case. As shown in Figure 8 and Table 2, thedesign solution proposes a non-uniform spacing between ringsfrom 0.5385λ until 0.6842λ. The amplitude excitationsconsider positive values for the central element and the ring 1,and negative values for the second and third ring.

Fig. 8. Geometry for the selected design solution considering an array of 3concentric rings with 37 elements for MEO satellites.

TABLE II. NUMERICAL VALUES FOR THE SELECTED DESIGN SOLUTION(ILLUSTRATED IN FIGURE 8)

V. CONCLUSIONS

This paper illustrated the multi-objective design ofconcentric ring antenna arrays for isoflux radiation for GEOand MEO satellites. In this design problem, the trade-off curvebetween the mask error (that considers the isoflux radiationdesired) and the side lobe level was computed using DEMO.The obtained results illustrate that the method of DEMO findsdesign solutions that generates an isoflux radiation with agood accuracy with respect to the isoflux mask for GEO andMEO satellites. Furthermore, the obtained results provide aSLL reduction of almost 8 dB for GEO satellites and 4.8 dBfor MEO satellites, with respect to the mono-objective designspresented previously in the literature. This is achievedconsidering the same design case and similar values ofaperture for the antenna array.

REFERENCES[1]. Roddy, De. 2001. Satellite Communications. Third Edition. McGraw-

Hill TELECOM ENGINNERING.[2]. Joseph A. Angelo, Jr. Satellites: Frontiers in Space. Facts on File

Science, Library of Congress Cataloging-in-Publication Data, UnitedStates.

[3]. Montesano, A., Montesano, C., Caballero, R., Naranjo, M., Monjas, F.,Cuesta, L.E., Zorrilla, P., Martínez, L., 2007, “Galileo SystemNavigation Antenna For Global Positioning”, Second EuropeanConference on Antennas and Propagation, EuCAP 2007, Edinburg,November, pp. 1-6.

[4]. Minatti, G., Maci, S., De Vita, P., Freni, A., and Sabbadini, M., “ACircularly-Polarized Isoflux Antenna Based on AnisotropicMetasurface”, IEEE Transactions on Antennas and Propagation, 2012,Vol. 60, Issue 11, pp. 4998-5009.

[5]. Reyna, A., Panduro, M.A., del Rio-Bocio, C., “Design of aperiodicplanar arrays for isoflux radiation in GEO satellites by applyingevolutionary optimization”, Expert Systems with Applications ExpertSystems with Applications, 2012, Volume 39, Issue 8, Pages 6872–6878.

[6]. Reyna, A., Panduro, M.A. and del Río, C. “Design of concentric ringantenna arrays for isoflux radiation in GEO satellites”, IEICEElectronics Express, . 2011, Vol. 8, No.7, pp. 484–490.

[7]. Mahanti, G.K., Sinhamahapatra, T.K., and Ahmed, A., “Synthesis ofFlat-top Beam Pattern with a Multiple Concentric Circular Ring ArrayAntenna”, IEEE International Conference on Industrial and InformationSystems, 2008, Page(s), 1-4.

[8]. Vives, L. A., y Dalmas, N. O., Giovanni, D., “Análisis y diseño de unaantena tipo Isoflux para satélites de órbita baja (LEO)#, Programacióndel Instituto de Investigaciones Científicas y técnicas de las FuerzasArmadas, Argentina.

[9]. Ibarra, M., Reyna, A., Panduro, M.A. and del Rio-Bocio, C., “Designof Aperiodic Planar Arrays for Desirable Isoflux Radiation in GEOSatellites”, IEEE International Symposium on Antennas andPropagation (APSURSI), 2011, page(s): 3003-3006.

[10]. Ravanelli, R., Iannicelli, C., Baldecchi, N., Franchini, F., “Multi-Objective Optimization of an Isoflux Antenna for LEO Satellite Down-Handling Link”, IEEE 18th International Conference on MicrowaveRadar and Wireless Communications (MIKON), 2010, Page(s): 1-4.

[11]. Reyna, A., Panduro, M.A., and del Rio-Bocio C., “A NewReconfigurable Wide Coverage Pattern byOptimizing a MicrostripPatch Antenna Array”, IEEE International Symposium on Antennasand Propagation (APSURSI), Orlando Florida, June 2013.

[12]. Reyna, A., Panduro, M.A., and del Rio-Bocio, C., “On the Design ofMicrostrip Patch Antenna Array for Uniform Power Density in a WideSpatial Range”, IEEE 7th European Conference onAntennas andPropagation (EuCAP), 2013, pp 2173-2176.

[13]. Reyna, A., Panduro M.A. and del Rio-Bocio, C., “Volumetric RingArray for Uniform Global Coverage in Satellite Applications”, IEEEInternational Symposium (APSURSI) on Antennas and PropagationSociety, 2012, pp 1-2.

[14]. Robic, T., and Filipic B., “DEMO: Differential Evolution forMultiobjective Optimization”, Department of Intelligent Systems,CiteSeer In Proceedings of the 3rd International Conference onEvolutionary MultiCriterion Optimization, 2005, pp. 520–533.

[15]. Reyna, A., Panduro, M.A., del Rio Bocio, C. and Mendez, A.L.,“Design of concentric ring antenna array for a reconfigurable isofluxpattern”, Journal of Electromagnetic Waves and Applications, 2013,Volume 27, pp. 1483-1495.

[16]. Panduro, M.A., Brizuela, C.A., Garza, J., Hinojosa, S. and Reyna, A.,“A comparison of NSGA-II, DEMO, and EM-MOPSO for the multi-objective design of concentric rings antenna arrays”, Journal ofElectromagnetic Waves and Applications, 2013, Vol. 27, No. 9, 1100–1113..

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

RingsSpacingbetweenrings (λ)

Radii ofrings (λ)

Amplitudeexcitations

Numberof

elementsCentralelement

0 0 10 1

1 0.6842 0.6842 10 62 0.5568 1.2410 -1.3550 123 0.5385 1.7795 -0.2398 18

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 24: Memoria Seminario FIM UABC 2014

16

Administración de movilidad en redes decomunicación móvil de nueva generación

E.R. Bastidas-Puga, G. GalavizUniversidad Autónoma de Baja California (UABC)

Facultad de Ingeniería MexicaliMexicali, México

[email protected]

Resumen—En este documento se describe el contexto yalgunos aspectos que justifican la pertinencia y oportunidad deuna propuesta de tesis doctoral. La administración de lamovilidad es un procedimiento que define cómo y cuándorealizar las transferencias de conexión de los usuarios a laestación base que ofrezca mejores prestaciones. Analizar laadministración de movilidad de usuarios en una red heterogénea,así como proponer y evaluar alternativas que mejoren sudesempeño, es un área de oportunidad actual y pertinente pararealizar investigación. Es por ello que en este trabajo se proponediseñar y evaluar procedimientos de transferencia de conexión ensistemas de comunicación móvil de nueva generación con lafinalidad de identificar los retos e implicaciones de laadministración de movilidad de usuarios.

Palabras clave—Administración de movilidad; handover; redesheterogéneas.

I. INTRODUCCIÓN

La demanda de tráfico de datos y de voz para los sistemasde comunicaciones móviles está en constante aumento a nivelmundial. Tiene una tendencia de crecimiento exponencial yalgunas estimaciones consideran que se duplicaráaproximadamente cada dos años entre el 2010 y el 2020 [1].

Una manera de incrementar la capacidad del tráfico dedatos del sistema es incrementar el número de enlaces que sepueden atender simultáneamente en un instante de tiempo porunidad de área, sin aumentar la capacidad individual del enlacey sin incrementar el ancho de banda que se utiliza. De parte dela comunidad científica y de la industria de lastelecomunicaciones se han propuesto estrategias de desplieguede la red para incrementar la capacidad de tráfico de datos porunidad de área [2], [3], [4].

Tal es el caso de las redes heterogéneas (HetNet), las cualesse definen como una combinación de estaciones base (eNB)que pueden ser nodos de alta potencia (HPN) o macroceldas, ynodos de baja potencia (LPN), pero que utilizan la mismatecnología de acceso de radio (RAT) [2], [3]. Los LPNs tienenuna región de cobertura menor que las macroceldas debido aque transmiten con menor potencia, pero su área de coberturacoincide con una parte del área de cobertura de una macrocelday se distribuyen en regiones donde la concentración de usuarios(UE) por unidad de área es mayor.

La HetNet se propone para aumentar la capacidad de tráficopor unidad de área porque reutiliza el recurso espectral en cadacelda; así como para reducir costos y mejorar la eficiencia delas eNBs que se despliegan en términos de la cantidad de UEs alos que dan servicio porque sólo se instalan las eNBs que serequieren y en los lugares que se necesitan [2], [3]. En [5] sepresenta un análisis financiero que indica que el costo totalanual de una HetNet compuesta por macroceldas y LPNs deacceso público en una zona urbana se reduce hasta un 70% encomparación con una red homogénea (que sólo tienemacroceldas).

II. REDES HETEROGÉNEAS

En una HetNet el LPN se clasifica de acuerdo a su potenciade transmisión en picocelda o femtocelda. Si el LPN no tieneconexión alámbrica con el resto de la red se clasifica comonodo retransmisor (RN) [2], [3].

Una femtocelda es una eNB que típicamente la despliegaun suscriptor de la red celular para cubrir un área de servicio eninteriores, por lo que también se le conoce como eNB de hogar(HeNB) [2], [3]. La potencia de transmisión y el área decobertura de una femtocelda son menores que los de unapicocelda; y su conexión (“backhaul”) con el resto de la HetNetes a través del acceso de banda ancha residencial, por lo que noexiste una interfaz directa entre femtoceldas ymacroceldas/picoceldas [2], [3].

Un RN es una eNB que no tiene “backhaul” alámbrico [2],[3]. El “backhaul” inalámbrico se realiza con los mismosrecursos de la RAT que se utilizan para el resto de los UEs, loque ocasiona que el RN genere interferencia adicional a la queproduce un LPN con “backhaul” alámbrico en la HetNet.

En una HetNet se incrementa la complejidad de laadministración de movilidad de los UEs en comparación conuna red homogénea. Esto es porque existe una mayor cantidadde nodos por unidad de área y cada uno de ellos tiene regionesde cobertura de distintos tamaños, lo que provoca que un UEen movimiento requiera iniciar con mayor frecuenciatransferencias de conexión a distintas eNBs, o "handovers", encomparación con una red homogénea. Este incremento en lafrecuencia de “handovers” aumenta el procesamiento y laseñalización de control en la red para realizar lastransferencias.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 25: Memoria Seminario FIM UABC 2014

17

A. Handover

En una red de telefonía celular el “handover” consiste entransferir la conexión de un UE con una estación base haciaotra eNB cuando la calidad del enlace es insuficiente paramantener la comunicación [6]. La eNB que tiene la conexiónoriginal con el UE se conoce como eNB fuente y la eNB a laque se le transfiere la conexión se conoce como eNB objetivo.La transferencia de conexión sucede por varios motivos;cuando un UE se mueve del área de cobertura de una celda aotra o cuando se presenta una reducción de la calidad delenlace debido al incremento en la interferencia percibida, yasea por el UE, por la red o por ambos.

La red de telefonía celular administra la movilidad de losUEs para que los “handovers” que se inician se completen ysean imperceptibles al UE [7]. El proceso de “handover” quese completa y es imperceptible al UE es un indicador de lacalidad de servicio (QoS) que se provee al UE. Es deseableque durante la operación de la red se presente una menorcantidad de “handovers”, ya que esto reduce la cantidad deprocesamiento y el tráfico de señalización en la red.

El procedimiento de “handover” es específico de cadasistema de comunicaciones. En los sistemas de telefonía móvilde nueva generación, como por ejemplo, el sistema LTE-Advanced [2], se utiliza un “handover” duro; esto significaque primero es necesario desconectar al UE de su eNB origeny después de un tiempo (del orden de milisegundos), re-conectarlo a una eNB objetivo [8].

El mecanismo que sigue una eNB en los sistemas LTE-Advanced para decidir si inicia el proceso de “handover”consiste en que el UE constantemente transmite los valores depotencia recibida de las señales que provienen de las eNBs. Sila potencia recibida de una eNB objetivo es mayor que lapotencia recibida de la eNB fuente más un umbral de decisióndurante una ventana de tiempo, entonces se inicia elprocedimiento de “handover” [6], [8].

Configurar los parámetros que controlan el inicio del“handover”, es decir, seleccionar los valores adecuados delumbral de decisión y de la ventana de tiempo, es uno de losproblemas abiertos que se presentan cuando se aborda elproceso de “handover”, ya que debe evitarse que se origine unretardo excesivo en el inicio del traspaso que puede produciruna falla de la comunicación con la eNB fuente antes decompletar la transferencia. También debe evitarse un inicioanticipado del traspaso que provoque rápidamente (porejemplo antes de 1 s) un “handover” de regreso a la eNBfuente original y, en consecuencia, un incremento delprocesamiento y del tráfico de señalización en la red.

El problema que se presenta en la administración demovilidad de una HetNet, en comparación con una redhomogénea, radica en que existe una mayor cantidad de nodospor unidad de área y cada uno de ellos abarca diferentes áreasde cobertura, lo que provoca que un UE en movimientorequiera iniciar procesos de "handover" con mayor frecuencia;la variedad de nodos en la HetNet requiere considerar losaspectos particulares de cada tipo de nodo para los

“handovers”, ya que en una red homogénea el proceso de“handover” solamente se realiza entre macroceldas, pero enuna HetNet se presentan traspasos de conexión entremacrocelda, picocelda, femtocelda y RN, que entre otrosaspectos difieren en potencias de transmisión, ubicación y tipode conectividad con la red (“backhaul”).

III. PLANTEAMIENTO DEL PROBLEMA

En la industria de las telecomunicaciones recientemente sehan realizado análisis sobre la administración de movilidad deUEs en HetNets. En [9] el grupo "Third Generation PartnershipProject" (3GPP) presenta el reporte técnico de un objeto deestudio sobre la movilidad de UEs en HetNets, en el que seconcluye que el desempeño del “handover” en HetNets esmenor comparado con el que presentan las redes que sólocuentan con macroceldas. Lo anterior se debe a que en unaHetNet ocurren más fallas del proceso de “handover” y más“handovers” ping-pong. La falla del proceso de "handover"ocurre si una vez que se inicia la transferencia de conexión, lacalidad del enlace no es suficiente para mantener lacomunicación del UE con la eNB fuente antes de completar el"handover". Los "handovers" ping-pong son transferencias deconexión en las que el UE se conecta con una nueva eNB yvuelve a transferir su conexión a la eNB fuente original demanera muy rápida (por ejemplo, antes de 1 s). Las fallas de“handover” son un mal indicador del servicio que provee la reda los UEs y los “handovers” ping-pong incrementan elprocesamiento y señalización de control en la red.

Una observación que se hace en [9] es que se debeconsiderar mejorar el procedimiento de “handover” paraofrecer una buena administración de movilidad de UEs enHetNets.

Analizar la administración de movilidad de UEs en unaHetNet, así como proponer y evaluar alternativas que mejorensu desempeño, es un área de oportunidad actual y pertinentepara realizar investigación; actual porque las HetNets seproponen como una estrategia del despliegue de las nuevasredes de telefonía celular [3], [4]; y pertinente porque eldesempeño de las estrategias de administración de movilidadconvencionales aplicadas en HetNets no es apropiado para estetipo de sistemas [6], [9].

A. Procedimiento de “handover” del grupo 3GPPLos elementos de la red que intervienen en el

procedimiento de “handover” son el UE, las eNBs, la entidadde administración de movilidad (MME) y el servidor de datosde entrada (S-GW) [8]. El S-GW es un nodo que reenvíapaquetes hacia el UE o provenientes del UE (DL/UL). Unafunción de la MME es mantener registro de la celda en la quese encuentra un UE e indicar al S-GW la ruta que deben seguirlos datos del DL para un UE.

La Figura 1 muestra el procedimiento de “handover” básicoen redes del 3GPP, que se utiliza cuando existe interfaz entrelas eNBs involucradas [8]. El UE transmite a la eNB fuente losvalores de potencia recibida desde la eNB fuente y la eNBobjetivo; la eNB fuente compara los valores de potencia y si lapotencia recibida de la eNB objetivo es mayor que la potenciarecibida de la eNB fuente, entonces esta envía a la eNB

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 26: Memoria Seminario FIM UABC 2014

18

objetivo una solicitud de admisión de “handover”.Posteriormente la eNB objetivo analiza su disponiblidad derecursos para el control de admisión del UE. Si la eNB objetivoadmite la solicitud de “handover” lo notifica a la eNB fuente yesta última envía un mensaje de reconfiguración de conexión alUE para ejecutar el “handover” e inicia el reenvío de los datosdel DL a la eNB objetivo para evitar que se pierda información.La ejecución del “handover” consiste en desconectar al UE dela eNB fuente y conectarlo con la eNB objetivo. Después deque el UE se conecta con la eNB objetivo, la transmisión dedatos con el UE se reanuda. Por último, la eNB objetivosolicita al MME actualizar la nueva ruta de los datos del DLdesde el S-GW y le solicita a la eNB fuente liberar los recursos.

Fig. 1. Procedimiento de “handover” intra-MME/S-GW para redes del 3GPP.

B. Trabajo de investigación relacionado

En [6], [9], [10], [11] y [12] se presentan trabajos deinvestigación sobre el desempeño de la administración demovilidad de UEs en HetNets de sistemas de telefonía celularde nueva generación.

En [6] se propone un esquema para coordinar lainterferencia entre celdas de una HetNet con lo que se reducenlas fallas de “handover” y los “handovers” ping-pong. Estapropuesta aplica en HetNets con macroceldas y picoceldasporque tienen interfaz directa entre ellas que permite lacoordinación de interferencia.

En [12] se propone un esquema de “handover” suave conel uso de transmisión coordinada de múltiples puntos (CoMP)en sistemas LTE para aplicarse en redes de comunicacionesmóviles que dan servicio a trenes de alta velocidad con un RNmóvil. Se propone una transmisión CoMP para que el RN enel tren se conecte simultáneamente a dos eNBs, lo quecontribuye a reducir la probabilidad de fallas de “handover” yla probabilidad de interrupción de servicio. Las propuestas en[6] y [12] no aplican del mismo modo para HetNets confemtoceldas porque estas no tienen interfaz directa con el restode las eNBs.

En [10] se propone un procedimiento de “handover” parareducir el tiempo de interrupción del servicio (SIT) que ocurreen transferencias de conexión entre macroceldas y

femtoceldas, en comparación con el procedimiento de“handover” definido por el grupo 3GPP. Se plantea que laprincipal causa del SIT en el “handover” es el reenvío de losdatos del DL desde la eNB fuente hacia la HeNB objetivo (verFigura 1), porque la transferencia se realiza a través del“backhaul” residencial. Por ello se propone duplicar los datosdel DL cuando se inicia el “handover”, desde el S-GW haciala eNB fuente y hacia la HeNB objetivo. Los resultadosindican que para el procedimiento de “handover” que sepropone el SIT se reduce en comparación con el “handover”que se utiliza en sistemas LTE-Advanced y esto es debido aque los datos del DL se envían de manera anticipada a laHeNB fuente.

En [11] se propone un criterio para seleccionar laeNB/HeNB objetivo en el procedimiento de “handover”. Enuna HetNet es posible que varias HeNBs compartan la mismazona de cobertura, porque el suscriptor de la red despliega lasfemtoceldas y no el operador. Esto provoca que en caso de“handover” existan varias opciones de eNB/HeNB objetivopara transferir la conexión. El criterio que se propone paraseleccionar a la eNB/HeNB objetivo utiliza la calidad delenlace y el ancho de banda disponible en las potencialeseNBs/HeNBs objetivo para realizar la selección. Con estapropuesta se reduce la probabilidad de bloqueo de “handover”en comparación con el procedimiento actual para sistemasLTE-Advanced, ya que se toma en cuenta la disponibilidad derecursos para seleccionar la eNB/HeNB objetivo.

Tanto en [10] y [11] las propuestas consideran pasosadicionales al procedimiento de “handover” actual, con sucorrespondiente incremento en la señalización, procesamientoy tiempo de respuesta. En [10] se duplican los datos del DLpara transmitirlos tanto a la eNB fuente como a la HeNBobjetivo desde el S-GW; y en [11] se requiere que la eNBfuente solicite a las potenciales eNB objetivo informaciónsobre su disponibilidad de recursos, a la vez que estasrespondan a la eNB fuente con la información requerida, paraque esta última decida a qué eNB se le solicita el “handover”.

Una estrategia alternativa a considerar para mejorar eldesempeño de movilidad de UEs en HetNets y que apliquetanto a picoceldas como a femtoceldas es simplificar o reducirla cantidad de pasos que utiliza el procedimiento de“handover”. Es por ello que a continuación se plantea lasiguiente pregunta de investigación.

C. Pregunta de investigación

En una HetNet un UE en movimiento requiere de“handovers” con mayor frecuencia que en una red homogéneadebido al menor tamaño de las regiones de cobertura de losLPNs. Mayor cantidad de “handovers” implica mayorprocesamiento y señalización de control.

En el procedimiento de “handover” que se describe en laSección III-A cada paso se realiza con el uso de un enlacealámbrico o inalámbrico (ver Figura 1), en el que se transmitenseñales de control o señales de datos con sus respectivostiempos de respuesta debido al procesamiento y al transportede la información. El tiempo de respuesta total de los enlaces

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 27: Memoria Seminario FIM UABC 2014

19

puede provocar que el “handover” sea perceptible al UE, lo queno es un buen indicador del servicio que provee la red. Si estostiempos de respuesta son muy grandes también puedencontribuir a que se generen fallas de “handover”, porque latransferencia de conexión debe completarse antes de que sepierda el enlace de comunicación del UE con la eNB fuente.

En el procedimiento que define el 3GPP, la decisión deiniciar el “handover” la toma la eNB, y a partir de esemomento se realiza un procedimiento que transmite señales decontrol como se muestra en la Figura 1. Este procedimiento de“handover” es adecuado para redes homogéneas, pero ya quese desplieguen HetNets en los sistemas de telefonía celular denueva generación no tendrá el mismo nivel de desempeñoporque ocurrirán más fallas de “handover” y más “handovers”ping-pong [9].

Una hipótesis para disminuir la cantidad de fallas de“handover” y los “handovers” ping-pong en HetNets es reducirel tiempo que requiere el procedimiento de “handover” paracompletar la transferencia de conexión.

Si el procedimiento de “handover” requiere menos tiempopara completar la transferencia, entonces es menos probableque el enlace de comunicación del UE con la eNB fuente sepierda antes de completar el “handover”, o sea, es menosprobable que ocurran fallas de “handover”. Si se requieremenos tiempo para completar la transferencia de conexióntambién se pueden reducir los “handovers” ping-pong, porqueel “handover” ping-pong ocurre cuando la transferencia seinicia anticipadamente, lo que ocasiona otro “handover” deregreso a la eNB fuente original. Un menor tiempo paracompletar el “handover” implica que la red tendrá mayormargen de tiempo para iniciar el traspaso sin comprometer eléxito de la transferencia de conexión, y por consecuencia sereducirán los traspasos anticipados que ocasionan “handovers”ping-pong.

Se identifica que una estrategia para reducir el tiempo querequiere el procedimiento de “handover” para completar latransferencia de conexión es simplificar el procedimiento. Encaso de reducir los pasos del procedimiento del “handover” sepuede lograr una reducción de la señalización de control que serequiere y del tiempo de respuesta total para completar latransferencia de conexión, ya que se evitarían algunos enlacesintermedios.

Si en el procedimiento de “handover” el UE toma ladecisión de iniciar la transferencia de conexión y se encarga denegociar el “handover” con la eNB objetivo, se podría reducirla complejidad del procedimiento de “handover” actual con susrespectivos enlaces. Por ejemplo, se podrían evitar los reportesde medición que envía el UE a la eNB fuente, así como losintermediarios entre el UE y la eNB objetivo (eNB fuente,MME) para solicitar la transferencia de conexión. Esto seríaposible a cambio de un incremento en la capacidad deprocesamiento del dispositivo móvil, que para HetNets espertinente analizar y evaluar debido a que el desempeño de laadministración de movilidad de UEs en HetNets es menor encomparación con redes homogéneas.

Un procedimiento de “handover” más sencillo implicamenor tiempo total de respuesta y menor cantidad de tráfico deseñalización para controlar el traspaso de conexión. De estemodo se plantea la siguiente pregunta de investigación:

¿Cuál es el compromiso en las métricas de desempeñofallas de “handover”, “handovers” ping-pong y tiempo deinterrupción de servicio en HetNets de sistemas de telefoníacelular de nueva generación, al aplicar un procedimiento de“handover” en el que el UE controla el inicio y se encarga denegociarlo directamente con la eNB objetivo?

Por lo anterior la propuesta de tesis consiste en diseñar yevaluar nuevos procedimientos de “handover” controlados ynegociados por el propio dispositivo móvil para mejorar eldesempeño de la administración de movilidad de usuarios enredes heterogéneas de sistemas de telefonía celular de nuevageneración.

REFERENCIAS

[1] UMTS-Forum, “Mobile Traffic Forecasts 2010-2020 report,” UMTSForum, Tech. Rep., January 2011.

[2] E. Dahlman, S. Parkvall, and J. Skold, 4G LTE/LTE-Advanced forMobile Broadband. Academic Press. Elsevier, 2011.

[3] A. Damnjanovic, J. Montojo, Y. Wei, T. Ji, T. Luo, M. Vajapeyam, T.Yoo, O. Song, and D. Malladi, “A survey on 3GPP heterogeneousnetworks,” Wireless Communications, IEEE, vol. 18, no. 3, pp. 10–21,2011.

[4] Qualcomm, “The 1000x data challenge,” Online available athttp://www.qualcomm.com/solutions/wirelessnetworks/technologies/1000x-data, 2013.

[5] H. Claussen, L. T. W. Ho, and L. Samuel, “Financial analysis of apicocellular home network deployment,” in Communications, 2007. ICC’07. IEEE International Conference on, 2007, pp. 5604–5609.

[6] D. Lopez-Perez, I. Guvenc, and X. Chu, “Mobility managementchallenges in 3GPP heterogeneous networks,” CommunicationsMagazine, IEEE, vol. 50, no. 12, pp. 70–78, 2012.

[7] T. S. Rappaport, Wireless Communications, Principles and Practice, 2nded. Prentice Hall, 2002.

[8] 3GPP, “Technical Specification Group Radio Access Network; EvolvedUniversal Terrestrial Radio Access (E-UTRA); Overall description;Stage 2 (Release 11),” 3GPP, Technical Specification TS 36.300v11.3.0, 2012.

[9] 3GPP, “Mobility Enhancements in Heterogeneous Networks,” 3GPP,Technical Report TS 36.839 v11.1.0, December 2012.

[10] T. Guo, A. ul Quddus, and R. Tafazolli, “Seamless handover for LTEmacro-femto networks based on reactive data bicasting,”Communications Letters, IEEE, vol. 16, no. 11, pp. 1788–1791, 2012.

[11] A. Roy, J. Shin, and N. Saxena, “Multi-objective handover in LTEmacro/femto-cell networks,” Communications and Networks, Journal of,vol. 14, no. 5, pp. 578–587, 2012.

[12] W. Luo, R. Zhang, and X. Fang, “A CoMP soft handover scheme forLTE systems in high speed railway,” EURASIP Journal on WirelessCommunications and Networking, vol. 2012:196, 2012.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 28: Memoria Seminario FIM UABC 2014

20

Medición del consumo de energía en unmicrocontrolador de 16 bits en operación y reposo

Camarillo-Ramos Mario Alberto, Bravo-Zanoguera Miguel Enrique, López-Avita RobertoFacultad de Ingeniería

Universidad Autónoma de Baja CaliforniaMexicali, Baja California, México

[email protected], [email protected]

Resumen— El presente trabajo muestra una metodologíapara medir el consumo de energía dinámica y estática en unmicrocontrolador Microchip PIC24FV32KA302. Se utiliza unatécnica de medición del voltaje diferencial generado por lacorriente total-consumida (Iss) en una resistencia en modo “lowside” flotando el microcontrolador. Se presenta la configuraciónfísica para realizar la prueba, así como los resultados obtenidosen ciclos de operación en ejecución de código aritmético y reposo.Los resultados muestran el aumento en el consumo de energía amedida que la frecuencia aumenta. Con la herramienta demedición desarrollada es posible optimizar diseños donde elconsumo de energía es prioridad.

Palabras clave—Microcontrolador, Bajo Consumo, Mediciónde consumo de energía.

I. INTRODUCCIÓN

Así como existen métodos de monitoreo de consumo deenergía de baterías para casa-habitación [1] que permiten eluso eficiente de la energía almacenada, es posible utilizar esastécnicas en microcontroladores. El microcontrolador puedegestionar el manejo de los módulos internos, así como loselementos externos para hacer más eficiente el consumo deenergía. Por ejemplo en [2], un dispositivo al operar demanera normal polarizado con una batería, podría estar enfuncionamiento durante tres meses. El mismo dispositivo, contécnicas apropiadas, optimiza los recursos cuando está enoperación y en reposo, reduce el consumo de corrienteextendiendo de esta manera la vida de la batería al doble.

Las técnicas a las que se hace referencia principalmente sedividen en dos: hardware y software [3]. Las relacionadas conhardware sugieren utilizar diferentes tecnologías para elsemiconductor y las uniones entre los diversos dispositivos aimplementar. Esta configuración no es modificable por elusuario final. Varios fabricantes de microcontroladorescuentan con esas características de ahorro de energíaintegradas (energymicro, Renesas, Texas Instruments,Microchip, entre otros). La optimización debido a laarquitectura del microcontrolador se logrará estructurando elconjunto de comandos del dispositivo para una ejecuciónarmónica entre una instrucción y otra. Algunas de estascompañías proveen herramientas que calculan el consumo deenergía de cada instrucción en un bloque de código. Con esteresultado es posible estimar el perfil de energía [4].

Las categorías de manejo de la energía por medio delsoftware son divididas en análisis de técnicas de manejo anivel de código fuente, a nivel de algoritmo y arquitectura delsoftware, y en esta categoría es donde el usuario final tienemayor control del consumo de energía [3].

Tiwari [5] presenta en sus investigaciones el impacto delcódigo generado en relación a la energía consumida por elsistema. Experimentó diferentes instrucciones y técnicas deprogramación para determinar cuánta energía consumía elprograma. Obtuvo resultados favorables al reducir el consumode energía en un 40% y plantear nuevas técnicas decompilación [6].

Además del algoritmo, varios estudios han demostrado quela manera de programar impacta directamente en el consumode energía del dispositivo, otros estudios detectaron que elnivel de optimización utilizado para generar el códigomáquina tiene repercusiones en el uso eficiente de la energía[7] [8] [9].

Los niveles de optimización del compilador pueden reducirde manera importante el tamaño de código en leguaje de altonivel a transformar en código máquina y por ende,implementarlo en dispositivos de menores recursos. Sinembargo, este resultado produce código diseñado para unaejecución lo más rápida posible pero aumentando el consumode energía [9].

El no utilizar optimizaciones para la generación de códigomáquina en los diferentes programas de compilación podríaser una manera para no incrementar el consumo de energía,pero el resultado puede ser hasta un 250% más instrucciones[9], lo cual consideramos que esto no necesariamentegarantiza un consumo de energía menor, por lo que seproponen herramientas de medición del consumoindependiente de compiladores y estimaciones de fabricantes.

En la medida que la frecuencia aumenta, también lo haceel consumo de energía, pero contrario a lo que se podríapensar si se utiliza una frecuencia baja, esta provoca unconsumo mayor de energía en algunos casos [4] [9]. El tiempoque se invierte en algoritmos complejos sería mayor, por loque la energía acumulada tendería a elevarse. La tendencia esutilizar algoritmos eficientes durante periodos cortos almáximo de la capacidad que proporciona el dispositivo yregresar al estado de mínimo consumo de energía [4] [9].

Investigaciones han demostrado que además de lasoptimizaciones a la compilación de software, se debe cuidar elnúmero de variables, la extensión de las mismas y las

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 29: Memoria Seminario FIM UABC 2014

21

ocasiones en las que se accede a ellas. Además, la estructuradel dispositivo y el acceso a la memoria aportansignificativamente al consumo de energía [6] [7] [8] [9].

La metodología empleada en el presente trabajo basada enla configuración por software y la ejecución de operacionesaritméticas es útil para la medición de energía, aplicable acualquier microcontrolador. Además de que la configuraciónde prueba utiliza instrumentos accesibles en costo ydisponibilidad, encontrados en la mayoría de los laboratoriosde instrumentación..

II. DEFINICIONES

A. Bajo consumo de energía

La definición de bajo consumo de energía varía de unaaplicación a otra. Para este experimento se considera el reduciral máximo la energía consumida por el microcontrolador. Enalgunos sistemas, existen fuentes de alimentación que notendrán problema en suministrar la energía necesaria para laaplicación, sin embargo se puede optimizar el consumo parareducir costo o maximizar eficiencia [10]. Cuando la fuente deenergía es limitada (baterías) o el sistema energizado sedesconecta y debe operar con la fuente secundaria(normalmente baterías), la operación del sistema dependerá dela capacidad de la fuente y en esta situación los sistemasrequieren un análisis del perfil de energía.

B. Fuentes de consumo de energía

En los dispositivos electrónicos que utilizan la tecnologíaCMOS, como los microcontroladores y microprocesadores, laenergía total que consume puede dividirse en dos rubros: laenergía dinámica y estática. La energía dinámica es la queconsume el dispositivo cuando está ejecutando alguna rutinadel proceso. La energía estática es la que consume eldispositivo simplemente al estar en reposo y energizado [11].

La Energía Dinámica incluye la pérdida de energía cuandolos circuitos CMOS conmutan y las corrientes que polarizanlos circuitos analógicos (osciladores, ADC, DAC, entre otros).Dicha Energía Dinámica se calcula para cada uno de loscircuitos de la siguiente manera:∙ ∙ (1)

donde V es el voltaje de operación (VDD), f es la frecuenciade conmutación y C es la capacitancia de carga de cada uno delos elementos CMOS [11, p. 2]. La frecuencia de conmutaciónes particular para cada diseño del fabricante, por lo que no setiene control sobre este parámetro. La capacitancia de carga Ces complicada medirla y por ende controlarla. El únicoparámetro accesible para el usuario es el voltaje depolarización VDD.

La corriente promedio de consumo del dispositivo sedefine como: á á (2)

Es la suma de productos del tiempo en el que se encuentraejecutando alguna tarea específica y en modo de bajoconsumo [12]. La energía consumida por el dispositivo es laintegral de la potencia instantánea en un periodo de la señal.

III. METODOLOGÍA

La configuración de la medición de energía se muestra enFig. 1. La metodología consta de la medición de voltaje através de una resistencia Rshunt para determinar la corrienteconsumida (ISS) y poder calcular la energía consumida por eldispositivo de acuerdo a Ec (2). Esta medición consta de dosetapas. En la primera etapa el microcontrolador ejecuta uncódigo con funciones aritméticas enteras sin signo de 64 bits.Después entra al estado de reposo (segunda etapa). Elmicrocontrolador utiliza el Watch Dog Timer (WDT) parareiniciar el proceso cada 256mS. Se realizan mediciones con eloscilador interno a 8MHz, 4MHz, 2MHz y 1MHz, cada una deellas de manera independiente.

Fig. 1 Configuración de la medición de energía

A. Medición de corriente

Se utiliza una resistencia 10@¼ Watt para medir la caídade tensión entre el microcontrolador y tierra (shunt). Estemétodo es conocido como medición “low side”. Se toma enconsideración que la caída de tensión en esta resistencia noafecte el correcto funcionamiento del microcontrolador;aunque el voltaje sea minúsculo, podría afectar al procesador.El voltaje medido se utiliza para calcular la corriente y poderdeterminar la energía consumida. El voltaje de polarización losuministra una fuente fija de 5V con una capacidad máxima de3 A. En la Fig. 2 se muestran estas conexiones.

Fig. 2 Esquemático de conexiones del microcontrolador

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 30: Memoria Seminario FIM UABC 2014

22

B. Microcontrolador

El microcontrolador a utilizar es de Microchip contecnología XLP (eXtra Low Power). El modelo es24FV32KA302 de 28 terminales. Esta familia demicrocontroladores reduce la señal de reloj principal con unfactor de 0.5, por lo que internamente las instrucciones seejecutan en 4MHz, 2MHz, 1MHz y 500KHz. Se utiliza elWDT interno de 31KHz para generar un pulso de 1mSindependiente del oscilador principal y de esta manera teneruna base de tiempo diferente para poder reiniciar el procesocada 256 mS.

C. Software

Se utiliza el ambiente de programación MPLAB X 2.00 deMicrochip con el compilador PICC versión 5.023 de lacompañía CCS. No se utiliza ningún tipo de optimización parael algoritmo, por lo que el nivel de optimización es elpredeterminado (nivel 9). Lo anterior para evitarintervenciones de optimización que modifiquen elcomportamiento en el algoritmo por parte del compilador.

D. Algoritmo

Se utiliza un derivado de MSP Competitive Benchmark[13] para realizar la medición de energía. Consta de cuatrofunciones realizando operaciones aritméticas (suma, resta,multiplicación y división) de variables enteras sin signo de 64bits. A las variables de 64 bits se les asigna 264-1, el valormáximo para no tener sobreflujo. De esta manera se garantizaque el compilador invoque las subrutinas de ensambladordurante la ejecución del programa y no en la etapa depreprocesamiento. Se configura el WDT para activarse cada256 mS y de esta manera despertar y reiniciar almicrocontrolador. Esta acción provocará que la señal a medirse repita cada 256 mS más el tiempo en el que elmicrocontrolador se reinicia, que es un ajuste interno paraliberar el oscilador al procesador. El valor de reinicio escalculado para que la frecuencia menor termine de realizar lasoperaciones aritméticas antes de ser reiniciado. Al terminar lasoperaciones el microcontrolador opera en modo de bajoconsumo de energía. Permanecerá en este estado hasta que elWDT haya terminado de realizar su trabajo. Transcurrido eltiempo de 256 mS el microcontrolador se reinicia, como semuestra en la Fig. 3.

Fig. 3 Diagrama de Flujo del algoritmo

E. Sincronía

F. El microcontrolador genera una señal de sincronía de unpulso cuadrado con duración de cinco microsegundosdespués de la configuración inicial que realiza elcompilador (Cinit) para activar el disparo delosciloscopio. Anteriormente las mediciones se realizabansin sincronía, y esto producía incertidumbre en el inicio yen el proceso de adquisición de la señal. Se realiza laadquisición de la señal durante 10 segundos. Sepromediaba la señal adquirida, pero al no tenercertidumbre del inicio, los resultados obtenidos nosiempre eran los mismos. Este proceso consumía bastantetiempo y se realizaba de manera manual. El pulso desincronía automatiza la adquisición y proporcionacertidumbre en el promedio que realiza elosciloscopio.Osciloscopio

El osciloscopio es un Tektronix TDS2012C con unaprofundidad de memoria de 2500 puntos y se configura paratomar mediciones de voltaje en dos canales. En el canal 1 seintroduce la señal a medir (voltaje de resistencia shunt) y en elcanal 2 el pulso de sincronía que envía el microcontrolador. Eldisparo para capturar la señal se realiza al detectar el canal 2 unpulso de 5 microsegundos. Después de sincronizarse elosciloscopio realiza la función para capturar y promediar 128señales (máximo para este modelo). Cada señal representa unciclo del algoritmo a la frecuencia de prueba. La señal sepromedia para el mismo número de muestras debido a que sedispara siempre con la sincronía en el mismo instante detiempo. La frecuencia de muestreo del osciloscopio para todaslas señales a capturar es de 50KHz, esta permite tener unaseñal completa en la frecuencia más baja a la que se ejecuta elalgoritmo.

IV. RESULTADOS

Es posible medir las señales bajo una misma unidad detiempo para poder compararlas. Anteriormente no se utilizabasincronía para el osciloscopio, lo cual se tornaba problemáticoal desear filtrar la señal para minimizar ruido (debido a losvoltajes tan pequeños). Se realizaban cortes individuales a cadaadquisición y se realizaba superposición (Fig. 4). Al tener lasincronización, el pulso indica cuándo debe presentarse unacaptura en el osciloscopio. Esto permite utilizar la función depromediado y facilita la adquisición de la información (Fig. 5).

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 31: Memoria Seminario FIM UABC 2014

23

Fig.4 Promedio de 10 señales adquiridas con una frecuencia de 4MHz deoperación del µC

Fig. 5 Sincronización con osciloscopio mostrando las cuatro frecuencias deoperación de duración total de la prueba

La sincronización permite realizar una comparación entrecada señal con los mismos parámetros en tiempo. La energíaconsumida por el microcontrolador a diferentes frecuencias semuestra en la Fig. 6.

Fig. 6 Consumo de energía respecto a la frecuencia de operación del µC

V. CONCLUSIONES

El consumo de energía en un microcontrolador dependedirectamente de la frecuencia en la cual esté operando. En lamedida que la frecuencia aumenta, también lo hace la energía.El consumo no es lineal, es decir, si aumenta al doble lafrecuencia, no lo hará la energía en la misma proporción. Estose debe a que la energía depende directamente del tiempo en elque el microcontrolador esté realizando alguna tarea. Si seencuentra en modo de ahorro de energía en una frecuencia bajay permanece la mayor parte del tiempo en ese estado, elconsumo de energía puede ser igual o mayor al realizar laoperación a una frecuencia alta y regresar a modo de ahorrocon una frecuencia menor.

Se recomienda realizar pruebas con otro osciloscopio quetenga una mejor resolución para capturar posibles transitoriosen frecuencias de muestreo mayores. El utilizado para realizarlas pruebas tiene una memoria de 2500 puntos, fue suficientepara una prueba donde el la frecuencia de operación para elmicrocontrolador se encontraba en 500KHz.

Se evaluaron frecuencias diferentes pero solo una a la vez.Una prueba adicional podría ser realizar cambios de frecuenciamientras se ejecuta el código.

No se evaluaron programas donde existan ciclos finitos y/oinfinitos (for y while). Se deberán evaluar para determinar elconsumo en las entradas y salidas del ciclo.

La metodología empleada en el presente trabajo para lamedición de energía es aplicable a cualquier microcontrolador,ya que utiliza instrumentos accesibles en costo ydisponibilidad, encontrados en la mayoría de los laboratoriosdonde se utilicen microcontroladores.

VI. REFERENCIAS

[1] B. Belvedere, M. Bianchi, A. Borghetti, C. Nucci, M. Paolone y A.Peretto, «A Microcontroller-Based Power Management System forStandalone Microgrids With Hybrid Power Supply,» Sustainable Energy,IEEE Transactions on, vol. 3, nº 3, pp. 422-431, 2012.

[2] Digi-Key, «http://www.designnews.com,» 14 Enero 2013. [En línea].Available: http://www.designnews.com/lecture-calendar.asp?p_l_ed=CEC_Semester_Three_2013#lecture_track_cgid_168. [Último acceso: 31 Agosto 2013].

[3] G. Luo, B. Guo, Y. Shen, H. Liao y L. Ren, «Analysis and Optimizationof Embedded Software Energy Consumption on the Source Code andAlgorithm Level,» Embedded and Multimedia Computing, pp. 1-5, 2009.

[4] Renesas Electronics, «http://www.techonline.com,» 18 Septiembre 2013.[En línea]. Available: http://www.techonline.com/electrical-engineers/education-training/webinars/4420344/Implementing-Ultra-low-Power-Design-Techniques-for-High-performance-32-bit-MCU-based-Applications. [Último acceso: 18 Septiembre 2013].

[5] V. Tiwari, S. Malik y A. Wolfe, «Power Analysis Of EmbeddedSoftware: A First Step Towards Software Power Minimization,»Computer-Aided Design, IEEE/ACM International Conference on, pp.384-390, 1994.

[6] V. Tiwari, S. Malik y A. Wolfe, «Compilation Techniques for LowEnergy: An Overview,» Low Power Electronics, Digest of TechnicalPapers., IEEE Symposium, pp. 38-39, 1994.

[7] C. Robertson y C. Martinez, «Analyzing the software aspect of anembedded system's power consumption,» Electrical and ComputerEngineering (CCECE), 24th Canadian Conference on, pp. 853-856,2011.

[8] D. Ortiz y N. Santiago, «Impact of Source Code Optimizations on PowerConsumption of Embedded Systems,» Circuits and Systems and TAISAConference, pp. 133-136, 2008.

[9] M. Ibrahim, M. Rupp y S. E. -D. Habib, «Compiler-Based OptimizationsImpact on Embedded Software Power Consumption,» Circuits andSystems and TAISA Conference, pp. 1-4, 2009.

[10] A. Holberg, «ATMEL,» 02 2006. [En línea]. Available:www.atmel.com. [Último acceso: 13 Diciembre 2013].

[11] B. Ivey, «Microchip,» 2011. [En línea]. Available:www.microchip.com. [Último acceso: 7 Diciembre 2013].

[12] «ST,» Mayo 2013. [En línea]. Available: www.st.com. [Últimoacceso: 1 Diciembre 2013].

[13] W. Goh, «Texas Instruments,» 7 Julio 2009. [En línea]. Available:www.ti.com. [Último acceso: 28 Noviembre 2013].

161.72 200.68

303.1

472.2

0

100

200

300

400

500

0.5 1 2 4

Ener

gía

(nJ)

Frecuencia (MHz)

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 32: Memoria Seminario FIM UABC 2014

24

Medición del riesgo de infarto agudo al miocardioen la región de B.C. mediante modelos no lineales:

Resultados preliminaresAngel Hernandez-Monay1, Roberto L.Avitia2 y Miguel E. Bravo-Zanoguera2

1Programa de Maestría y Doctorado en Ciencias e Ingeniería (MyDCI) de la Facultad de Ingeniería2Cuerpo Académico de Bioingeniería y Salud Ambiental

1,2Universidad Autónoma de Baja CaliforniaBlvd. Benito Juarez S/N, Ex-Ejido Coahuila, Mexicali, B.C. México.

Resumen— El procesamiento de señales electrocardiográficas(ECG) ha permitido que se pueda describir el comportamientoeléctrico del músculo cardiaco tanto en condiciones normalescomo anormales (arritmias). Distintos autores han podidopredecir un infarto agudo al miocardio a partir delcomportamiento anormal de la señal ECG y utilizando bases dedatos estándar, pero ninguno de los anteriores se han puesto aprueba para la región de Baja California. En el presente trabajose propone utilizar modelos no lineales que describan elcomportamiento del ECG, partiendo de una base de datosestándar que contiene señales normales y con predictores deinfarto llamados PVC y PAC. A partir de lo anterior se proponeutilizar los mismos modelos para señales propias tomadas en laregión de Baja California. Los resultados preliminares que semuestran permiten tener una descripción de la normalidad tantoen tiempo como en amplitud de los parámetros de un ECG enuna base de datos de ECG estándar.

Palabras clave—Infarto agudo al miocardio, ritmo sinusalnormal, riesgo de infarto en Baja California.

I. INTRODUCCIÓN

El procesamiento de señales electrocardiográficas (ECG)permite describir eléctricamente el músculo cardiaco a travésde sus componentes principales descritas como la onda P, elcomplejo QRS y la onda T. Los parámetros que regularmentese calculan para describir la normalidad incluyen el ritmosinusal normal que son la frecuencia cardiaca (FC) entre 60 y100 latidos por minuto, el intervalo PR (PRI) entre 0.12-0.20s,la duración del complejo QRS (QRSd) entre 0.06-0.10s,además el intervalo QT (QTI) menor a 0.44s, entre otrascaracterísticas que dependen de la derivación que se estéconsiderando en el análisis [1,2].

Las isquemias ocurren cuando la parte del músculocardiaco conocido como miocardio se ve privado de lacantidad normal de oxígeno. Las causas más comunes son lasasociadas a un estrechamiento u obstrucción de las arteriascoronarias o arritmias repentinas que causan pobre irrigaci’onsaguinea. Cuando las isquemias son de corta duración losefectos pueden ser reversibles, es decir las células cardiacas serecuperaran, pero cuando los periodos de isquemia sonprolongados el músculo cardiaco muere, a lo que se le llama

infarto agudo al miocardio, y es por esto que la temprana deisquemias cardiacas resulta critico en la salud de las personas[3].Los síntomas son variados, incluyendo entre ellos dolor delpecho, miedo a morir, nauseas, baja presión y pulso débil,además en el ECG se observan disturbios del ritmo sinusalnormal .El riesgo de isquemia al nivel del miocardio se puedemedir durante y después de una prueba de esfuerzo ymonitoreando el segmento ST (STS), la presión y el estatusclínico del paciente. Una isquemia miocárdica es positivacuando la depresión del segmento ST es mayor a 80 ms y unaelevación del mismo por encima de 1 mm. Aunque en añosrecientes se ha demostrado que el mejor indicador de infartoagudo al miocardio (IAM) son los elevados niveles de laenzima Troponina, estos solo pueden detectarse de 5 a 7 horasdespués de haber ocurrido el infarto, así que en esas primerashoras el ECG se convierte en una herramienta crucial [4].

II. MATERIALES Y MÉTODOS

A. Procesamiento de Señales de ECG estándar

Para nuestra primera clasificación del sujeto consideradosano, a partir de los trazos ECG, utilizamos una base de datosde electrocardiografía estándar conocida como PTBDED (Porsus siglas en inglés The PTB Diagnostic ECG Database) lacual contiene los trazos de ECG de 12 derivaciones con 290pacientes con edades entre 17 y 87 años, de las cuales 148registros pertenecen a sujetos que sufrieron IAM, entre otrasarritmias y 52 registros de sujetos considerados sanos, todasellas con una frecuencia de muestreo de 1000muestras/segundo y una resolución de 16 bits [5].

A efecto de lograr una descrición de la normalidad de lostrazos descritos como sanos, se recortaron los latidoscardiacos de cada sujeto utilizando una ventana de 250 ms,como se propone en el algoritmo de M Casas et al [6]. Cadauno de estos latidos se caractizan a partir de la localizacion delinicio y final del complejo QRS denominados QRSon yQRSoff respectivamente. Para lograr el mejor realce delcomplejo QRS se utilizón un filtro Butterworth de 5 orden conuna ancho de banada de 5-11hz y un filtro de diferencias, elcual sirve para hacer énfasis en los cambios de inclinación dela señal como se muestra en la Figura 1. Después de esto se

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 33: Memoria Seminario FIM UABC 2014

25

eleva al cuadrado la señal para resaltar más los componentesmayores. Luego pasamos una ventana de integración con laque fácilmente podremos detectar el QRS [7].

A partir del inicio y final del complejo QRS se definieronlos parámetros del trazo electrocardiográfico en términos de suduración en tiempo como el segmento ST (STS), el intervaloPQ (PQI), la onda P (PW), el segmento PQ (PQS), el intervaloQT (QTI), el complejo QRS (QRS), el segmento ST-T (STS)y la onda T (TW) tal y como se muestra en la Figura 2. Parauna desripción inicial se utilizaron las derivacionesortogonales X, Y y Z de la base de datos PTBDED.

Una vez descrita la normalidad de los sujetos sanos, sepretende realizar un modelo matemático no lineal que puedadescribir también aquellos trazos de ECG que presentaronIAM, tales modelos podrían ser de tres tipos como sedescriben a continuación.

B. Modelos Gaussianos

Este tipo de modelación, considera al proceso en cuestióncomo uno ‘Gaussiano’, el cual contiene valores aleatoriosasociados con cada punto en el rango del tiempo, de tal formaque cada variable tenga una distribución normal.

Los procesos Gaussianos son importantes en el modeladoestadístico debido a las propiedades heredadas de ladistribución normal. De esta forma, si un proceso aleatorio seprocesa como un proceso Gaussiano, las distribuciones dediversas magnitudes derivadas se pueden obtener de formaexplícita.

C. Modelo oculto de Márkov

Un modelo oculto de Márkov es una herramienta pararepresentar distribuciones de probabilidad sobre secuencias deobservaciones. El objeto observado en un tiempo determinadopuede ser cualquiera al que le podamos asignar unadistribución de probabilidad [8].

Este modelo recibe su nombre de las propiedades que lodefinen. Primero, asume en un determinado momento t, laobservación fue generada por un proceso del cual sedesconoce su estado actual del observador. Y segundo, seasume que el estado de este proceso oculto satisface lapropiedad de Márkov, esto es, que un estado, solo esdependiente del estado de la observación anterior y solo ese.

También, la salida(s) debe de satisfacer esta propiedad, yaque deben de ser independientes a estados y observacionescon cualquier otro índice.

Esto hace que la distribución conjunta de una secuencia deestados y observaciones se pueda representar de la siguientemanera:

Donde T=1,2,3,..

Este tipo de modelado nos ayuda a caracterizar las ocurrenciasen los patrones ECG (P, QRS, T) con una función de densidadde probabilidad, y mantener las propiedades de la estructuracíclica del ECG.

D. Redes Neuronales

Se trata de modelos matemáticos inspirados en el sistemanervioso central de los animales (el cerebro) y se utilizan paraestimar funciones que puedan depender en una gran cantidadde entradas (generalmente desconocidas). Comúnmente serepresentan como sistemas de “neuronas” interconectados quepueden computar valores de entradas y son capaces de“aprender” de forma automatizada y reconocer patrones.

Los modelos de redes neuronales son, esencialmente,modelos matemáticos simples definiendo una función f:X→Yo una distribución sobre X o ambos X y Y.

El principal motivo de interés de las redes neuronales, es laposibilidad de aprendizaje. [9].

III. RESULTADOS PRELIMINARES

1) Tabla de tiempos QRS

Fig.1. Representación del QRS a partir de sus puntoscaracterísticos de referencia QRSon y QRSoff.

0 100 200 300 400 500 600 700-1000

-800

-600

-400

-200

0

200

400

600

800

1000

Tiempo en ms

Fig. 2. Parámetros considerados para medir la normalidad de los trazosde ECG ortogonales X,Y y Z utilizando la base de datos PTBDED

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 34: Memoria Seminario FIM UABC 2014

26

Habiendo localizado las componentes, obtenemos lascaracterísticas estadísticas de nuestro conjunto, como semuestra en los siguientes resultados parciales:Tabla 1. Tabla con valores de medias de duración de complejoQRS (ms) en señales de prueba y su respectiva variabilidad enms2.

No. dePaciente

Sano

Tiempos QRS

QRSX

(ms)

QRSY

(ms)

QRSZ

(ms)

VAR qrsX (ms)2

VAR qrsY

(ms)2

VAR qrsZ(ms2)

001

002

003

004

005

006

007

008

009

010

011

012

013

014

015

016

017

018

019

79.06 72.83 59.25 22.33 1.58 0.73

43.84 54.47 59.19 32.08 1.68 103.05

63.10 52.18 51.27 378.43 357.51 15.49

43.60 62.33 82.00 7.20 64.27 3.95

23.04 59.66 59.25 5.07 105.14 0.85

37.28 56.03 67.22 146.00 2.30 11.16

53.79 47.70 45.46 11.67 1.49 3.68

24.19 65.48 65.84 383.09 269.70 59.35

53.18 48.78 47.50 0.72 0.56 0.77

40.12 49.48 52.80 14.10 32.09 49.81

55.22 50.72 49.88 1.36 1.11 0.95

88.75 80.66 113.86 210.57 211.44 456.85

29.20 49.86 61.95 40.79 0.57 22.43

34.38 55.26 65.12 63.96 37.51 105.20

41.13 67.68 70.51 889.64 28.56 30.46

42.66 54.76 64.37 307.87 28.28 89.15

56.28 48.78 50.22 23.18 70.81 74.63

50.43 50.02 57.55 411.84 269.10 366.69

46.86 65.35 66.67 333.20 8.51 1.27

Sample of a Table footnote. (Table footnote)

IV. CONCLUSIONES

La caracterización estadística de los componentes dela señal ECG es el vital para el modelado apropiado de lasseñales con las que se aplicaran los diferentes modelos. Latabla I presentada muestra la clase de resultados parciales quellaman la atención de esta primera parte de la investigación, yaque nos permitirá caracterizar y modelar nuestro sistema.

V. REFERENCIAS

[1] Frank G. Yanowitz, MD (2010), The “Alan E. Lindsay ECG Tutorial”,V6.

[2] Spodick DH, Normal sinus heart rate: sinus tachycardia and sinusbradycardia redefined. Am.Heart J., 1992, Oct, 124(4): 1119-1121.

[3] Gibbons RJ, Balady GJ, Bricker JT, Chaitman BR, Fletcher GF,Froelicher VF, Mark DB, McCallister BD, Mooss AN, O'Reilly MG,

Winters WL Jr, Gibbons RJ, Antman EM, Alpert JS, Faxon DP, FusterV, Gregoratos G, Hiratzka LF, Jacobs AK, Russell RO, Smith SC Jr;American College of Cardiology/American Heart Association TaskForce on Practice Guidelines , Circulation 2002 Oct 1; 106(14) 1883-92.pmid:12356646.

[4] Alpert JS, Thygesen K, Antman E, and Bassand JP. Myocardialinfarction redefined-a consensus document of The Joint EuropeanSociety of Cardiology/American College of Cardiology Committee forthe redefinition of myocardial infarction. J Am Coll Cardiol 2000 Sep;36(3) 959-69.

[5] Goldberger AL, Amaral LAN, Glass L, Hausdorff JM, Ivanov PCh,Mark RG, Mietus JE, Moody GB, Peng C-K, Stanley HE. PhysioBank,PhysioToolkit, and PhysioNet: Components of a New ResearchResource for Complex Physiologic Signals. Circulation 101(23):e215-e220 ,2000 (June 13).

[6] Manuel M. Casas, Roberto L. Avitia, Alexandra Gomez-Caraveo, MarcoA. Reyna, and Jose A. Cardenas-Haro (2015), A complete Study ofVariability in Time and Amplitude of a Standard ECG Database.International Journal of Computer Theory and Engineering, 7(5).

[7] Edwin Andrés Quintero y Juan David Valencia. (2012) Simulación delalgoritmo Pan-Tompkins para la detección de intervalos QRS en tiemporeal.

[8] Grahrami, Z. (2001) An introduction to Hidden Markov Models andBayesian Networks. International Journal of Pattern Recognition andArtificial Intelligence. 15(1):9-42.

[9] Carsten Meyer, José Fernández Gavela, and Matthew Harris. (2006)Combining Algorithms in Automatic Detection of QRS Complexes inECG Signals.

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 35: Memoria Seminario FIM UABC 2014

Jesús A. Rodríguez Ortiz, Miguel A. García Andrade, Andrés T. Medel De Gante

Facultad de Ingeniería Campus Mexicali Universidad Autónoma de Baja California

alonzo.rodriguez, miguel_grc, [email protected]

Resumen— En este trabajo se presenta un ejercicio de diseño de una fuente de referencia de corriente de 10μA en tecnología CMOS de 180 nanómetros con una sensibilidad menor al 5%. Se realiza el análisis en pequeña señal para la obtención de una expresión de la sensibilidad de la arquitectura propuesta y determinar la dependencia de ésta. Se presentan también los resultados de las simulaciones de la fuente con los diferentes escenarios de fabricación y la sensibilidad obtenida.

Palabras Clave—fuentes de referencia; sensibilidad; circuito de polarización; espejo de corriente

I. INTRODUCCIÓN

La demanda de aplicaciones móviles con mejor desempeño, ha estimulado a la industria de la microelectrónica a mejorar los procesos y técnicas de fabricación de Circuitos Integrados (CI) y reducir las dimensiones de los transistores a tal grado que en la actualidad éstas rondan el orden de los nanómetros. Esto ha permitido la integración de millones de transistores en una menor área y con ello incrementar las funciones del circuito [1,2].

El aumento de complejidad de los CIs así como la demanda de reducir el consumo de potencia para alargar la vida de las baterías en aplicaciones móviles, trajo consigo nuevos retos y necesidades para los diseñadores de circuitos integrados. Una necesidad importante es el mantener constante o con muy poca variación la polarización de los circuitos. Esto se logra mediante el uso de fuentes de referencia [1].

Los circuitos que generan o producen un voltaje o corriente constante independiente de influencias externas son llamados: referencia de voltaje o referencia de corriente. Estas fuentes han tomado una gran importancia en el diseño de circuitos integrados analógicos y mixtos, polarización de bloques de circuitos analógicos, o referencias para la conversión analógico-digital, entre otras.

Una fuente de referencia ideal es independiente del proceso en el cual se fabrica, a las variaciones de voltaje de la fuente de alimentación, al igual que a las variaciones de temperatura en el ambiente. Un circuito con estas características se le llama independiente a PVT (Proceso, Voltaje y Temperatura). Para lograr lo anterior se realizan diferentes estrategias de diseño.

El parámetro de variación al cual se evalúa la efectividad de una fuente de referencia se le llama sensibilidad, el cual es definido en pocas palabras, como la variación porcentual, o relativa de un parámetro de interés respecto a otro [3,4].

II. SENSIBILIDAD

En este diseño se utiliza en concepto de senbilidad para asegurar que la referencia de corriente tenga muy poca variación respecto a la fuente de voltaje. El concepto de sensibilidad se define en el siguiente párrafo.

Supongamos que la referencia es un voltaje designado como . La sensibilidad de a cambios en la fuente de alimentación esta dada por [4]:

= lim∆→∆ ∆ =

(1)

∆ ≅

∆ (2)

La ecuación (2) nos indica que, si la sensibilidad de respecto a es la unidad, entonces un cambio del 10% en causará un cambio de 10% en , la ecuación es válida para cualquier parámetro que tenga influencia en el parámetro analizado. Para referencias de corriente simplemente reemplazando por .

En análisis en pequeña señal es conveniente utilizar la siguiente expresión para determinar las variaciones de corriente contra voltaje:

=∆ ∆

(3)

donde ∆/∆ es la relación de corriente voltaje, en pequeña señal, la cual se pueden determinar sustituyendo los bloques por sus modelos lineales en pequeña señal. V e I son el voltaje de alimentación y la corriente en el punto de operación respectivamente.

III. DESARROLLO

Para este trabajo, se eligió una estructura autopolarizada en corriente en base a transistores MOS y BJT, mostrada en la figura 1 [2][5]. La corriente de referencia es la que pasa por la rama del transistor M2. Esta corriente es reflejada por el transistor M4 hacia el transistor M3, la cual fluye hacia M1 y esta es reflejada de nuevo hacia M2. De ahí el nombre de autopolarizada. La salida se toma a través de M6. El valor de la

27

Diseño de una fuente de referencia CMOS de baja sensibilidad para polarización de un circuito

integrado

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 36: Memoria Seminario FIM UABC 2014

Fig. 1. Fuente de corriente de referencia autopolarizada.

Fig. 2. Modelo de pequeña señal de la fuente de corriente de referencia.

corriente I2 es establecida por la resistencia R y el voltaje en el nodo N2, el cual, como se puede ver en la figura 1, si las dimensiones de los transistores M1 y M2 son iguales, también lo son los voltajes de compuerta Vgs, por lo tanto el voltaje en el nodo N2 es el mismo que el voltaje del diodo VBE del transistor Q1 que es de aproximadamente 0.7V. Esta es la principal ventaja de esta estructura ya que el voltaje en un diodo de unión PN de silicio varía muy poco en un amplio rango de corrientes y temperatura; siempre es de aproximadamente 0.7V.

Un problema de este tipo de estructuras es que presenta múltiples puntos de operación, y es necesario inicializarla al momento de encenderla para que opere en el valor correcto de corriente. El transistor M5 realiza esta función y se le conoce como circuito de arranque. El transistor M5 crea un camino de corriente desde VDD a tierra a través de M4, M5, y M1. Esta corriente produce un voltaje en la compuerta de M1 el cual a su vez produce una corriente en M2 iniciando el lazo de corriente. Una vez encendida la fuente, se asegura que el voltaje en el nodo del drenador de M1 (N3) sea mayor que en el drenador de M2 (N4) para que el transistor M5 se apague.

A. Circuito equivalente

Para determinar la sensibilidad de la corriente en respecto a voltaje de la fuente , se analiza el circuito usando el modelo de pequeña señal mostrado en la figura 2. La

de CA que modela las variaciones de la fuente de alimentación VDD.

Solucionando para y suponiendo ≫ " y # = se obtiene:

$ %&'() (4)

Usando la ecuación de sensibilidad se obtiene la siguiente relación:

** =

1%&'() (5)

Se observa de la ecuación (4) y (5) que la sensibilidad depende del producto gm2rds2 del transistor M2.

Con el voltaje de diodo de aproximadamente 0.7v y la corriente de 10μA a través de la resistencia usando la ley de ohm obtenemos = 70.ῼ. Al sustuir estos valores en la ecuación (5) con VDD = 1.8V y una sensibilidad de 0.05, da como resultado:

%&'() 1 51.42 (6)

Para determinar la relación de aspecto de las dimensiones de los transistores se utiliza la ecuación de corriente en saturación con KPN=250μA/V2 y KPP=60μA/V2 para el transistor N y P respectivamente. Suponiendo 5567 = 0.2 volts, se obtienen las relaciones requeridas.

89: ; = 2= 89: ;> = 8.33 Para determinar el valor de L, se realizaron varias

simulaciones con diferentes valores de L, desde el valor mínimo de 180 nanómetros hasta un valor de 10 micrómetros, para calcular el producto gm rds y obtener la sensibilidad. Los resultados se muestran en la tabla I. El valor teórico de la sensibilidad es calculado con la ecuación (5) y el valor simulado es obtenido mediante simulación del circuito en el simulador ELDO. Se observa que para L=1μm el producto gmrds es de 53, apenas algo mayor a lo obtenido con la ecuación (6), con lo que la sensibilidad es de 4.77%. Sin embargo, en simulaciones se obtiene que con L=4μm, la sensibilidad es de 4.44%. Esta discrepancia es normal ya que el modelo de pequeña señal no toma en consideración efectos de segundo orden como la modulación de canal y efectos de canal corto.

En base a estos resultados se eligió el valor de L=10μm, esperando una sensibilidad de 2.7%. Se eligió este valor de L más grande ya que se espera que al fabricar el circuito, los valores de los parámetros de los transistores varíen debido a las tolerancias en el proceso de fabricación.

Considerando que con el proceso de fabricación la resistencia R puede varias hasta un ±25% [6], se propone agregar una resistencia de ajuste externa en paralelo a R. Para esto es necesario aumentar el valor diseñado de R de manera tal que aún con un ±25% de variación, la corriente se pueda ajustar a 10μA. El valor R tomó un valor de 105.6kΩ el cual nos permite una variación aproximada del 30%.

28

Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Page 37: Memoria Seminario FIM UABC 2014

B. Simulación en el punto de operación.

La simulación en el punto de operación con una resistencia de ajuste externa al circuito con valor de 251.4kΩ indicó una corriente de salida de 10.0005µA

IV. RESULTADOS

Después de realizar la simulación en el punto de operación, se agregó una fuente de señal alterna a la fuente de alimentación, representando la variación que puede tener ésta.

Se alimentó el circuito con una fuente de 1.8v con variaciones del ±2.5% (0.045v CA a 100Hz). La figura 3 muestra la simulación en transitorio con estas condiciones.

El resultado de la sensibilidad de la corriente de salida a las variaciones de la fuente de alimentación fue de 2.7% a temperatura ambiente y condiciones de proceso típicas. Se varió la temperatura a 0°C y a 60°C, ajustando la resistencia externa a 293kΩ (en 0°C) y 206.5kΩ (en 60°C), la sensibilidad tomó valores de 3.09% y 2.5% respectivamente. La figura 4 muestra la simulación transitoria con estas condiciones.

En la tabla II se resumen los resultados para las diferentes temperaturas y condiciones de proceso. TT se refiere a los modelos típicos de los transistores N y PMOS, FF indica modelos con condiciones rápido N y rápido P (FF), SS para

slow N y slow P, FNSP para Fast N, Slow P y FPSN para Fast P y Slow N. La máxima sensibilidad obtenida fue de 4.5% a cero grados centígrados con las condiciones d proceso SS, y la mínima sensibilidad fue de 2.29% a 60 grados centígrados en condiciones de proceso FF.

V. CONCLUSIONES

La fuente de referencia diseñada presenta las siguientes ventajas: Al entregar la referencia en corriente se evitan caídas de voltaje indeseadas. La estructura es autopolarizada, es decir, la corriente de referencia se genera de la corriente de salida. Posee un circuito de arranque para asegurar la magnitud de la corriente al valor requerido. El transistor BJT genera un voltaje base-emisor que es utilizado como referencia de voltaje de baja sensibilidad. La sensibilidad de todo el sistema, depende casi completamente de 2 dispositivos, un transistor NMOS y una resistencia. La corriente de salida es ajustable con resistencia externa.

En base al análisis del modelo en pequeña señal y a la definición de sensibilidad, se obtuvo la condición de diseño

%&'() = **

#5A**B , esta condición es de gran utilidad ya

que permitió dimensionar los transistores para cumplir con el

TABLA I. COMPORTAMIENTO DE LA SENSIBILIDAD RESPECTO A LA LOGITUD DE CANAL L

L(μm) gm (μs) gds (s) gmrds S % (Teórica) S % (Simulación)

10 93.34 637n 146 1.76 2.70

5 93.56 887n 105 2.44 3.87

4 93.61 975n 96 2.68 4.44

2 93.97 1.29μ 72 3.54 6.98

1 94.69 1.76μ 53 4.77 11.51

0.5 94.93 2.73μ 35 7.35 20.11

0.18 93.58 6.29μ 14 17.19 65.14

TABLA II. COMPORTAMIENTO DE LA SENSIBILIDAD RESPECTO A LA TEMPERATURA Y CONDICIONES DEL PROCESO DE FABRICACIÓN.

T Condición I max I min I ref S

0°C

TT 10.46712 µA 10.44998 µA 10.45855 µA 3.28% FF 10.47804 µA 10.46392 µA 10.47098 µA 2.70% SS 10.45616 µA 10.43267 µA 10.44441 µA 4.50%

FNSP 10.46544 µA 10.44804 µA 10.45674 µA 3.33% FPSN 10.46928 µA 10.45209 µA 10.46068 µA 3.29%

27°C

TT 10.00681 µA 9.9933 µA 10.00005 µA 2.70% FF 10.01717 µA 10.00502 µA 10.01109 µA 2.43% SS 9.99685 µA 9.98085 µA 9.98885 µA 3.20%

FNSP 10.00517 µA 9.99162 µA 9.99839 µA 2.71% FPSN 10.00897 µA 9.99542 µA 10.00219 µA 2.71%

60°C

TT 9.39079 µA 9.37943 µA 9.38511 µA 2.42% FF 9.4008 µA 9.39003 µA 9.39541 µA 2.29% SS 9.38147 µA 9.36914 µA 9.37530 µA 2.63%

FNSP 9.38921 µA 9.37786 µA 9.38353 µA 2.42% FPSN 9.39293 µA 9.38152 µA 9.38722 µA 2.43%

29

Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Page 38: Memoria Seminario FIM UABC 2014

valor de sensibilidad especificado como requisito de diseño.

Fig. 3. Simulación transitoria para determinar la sensibilidad de la corriente de referencia respecto a la variación de VDD.

Fig. 4. Variación de la corriente para diferentes temperaturas.

La adición de una resistencia externa nos brinda un margen de ajuste para compensar la tolerancia, de la resistencia interna, debida a las variaciones del proceso de fabricación. Así mismo, ésta permite un ajuste a la corriente de salida sin afectar la sensibilidad.

Las simulaciones mostraron que se cumplió y superó el objetivo de diseño. Siendo como requerimiento una sensibilidad igual o menor al 5%, los resultados indicaron una sensibilidad de 2.7% lo cual indica teóricamente que por cada 100 milivolts la corriente de salida varía 15 nanoamperes.

Aun sin ser objetivo específico de este trabajo el diseñar la fuente de referencia independiente a la temperatura, ésta presentó una sensibilidad a la misma que cumple con los objetivos propuesto al inicio; sin embargo, afectó la corriente central lo cual puede ser resuelto ajustando la resistencia externa. Se puede concluir que el diseño puede tolerar cambios de temperatura desde 0°C hasta 60°C, siendo 27°C la temperatura óptima de operación.

VI. REFERENCIAS [1] Phillip Allen E., Holberg, Douglas R. CMOS Analog Circuit Design.

Oxford University Press. Tercera Edición. New York. pp 784. 2012.

[2] F Maloberti. Analog Design for CMOS VLSI Systems. Kluwer Academic Publishers. Primera edición. Boston. pp 374. 2002.

[3] Razavi Behzad. Design of Analog CMOS Integrated Circuits. Mc Graw-Hill. Primera Edición. Boston. pp 684. 2001.

[4] Geiger L. Randall, Allen E. Phillip. VLSI DESIGN TECHNIQUES FOR ANALOG AND DIGITAL CIRCUITS. Mc Graw-Hill. Primera Edición. Boston. pp 969. 1990.

[5] Johns David A., Martin Ken. ANALOG INTEGRATED CIRCUIT DESIGN. John Wiley & Sons, Inc. Primera Edición. New Jersey. pp 706. 1997.

[6] Documentación del proceso CMOS 180n UMC. http://www.mtc-online.be/ Accesible solo con acuerdo de confidencialidad.

30

Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Page 39: Memoria Seminario FIM UABC 2014

1er y 2do. Seminario de Investigación de la Facultad de Ingeniería,

Campus Mexicali

Área de Industrial

Page 40: Memoria Seminario FIM UABC 2014

Madurez organizacional con respecto aManufactura Esbelta

Sánchez Corona, Ana LauraFacultad de Ingeniería

Universidad Autónoma de BajaCalifornia Mexicali, Baja California,

[email protected]

Navarro González, Carlos RaúlFacultad de Ingeniería

Universidad Autónoma de BajaCalifornia Mexicali, Baja California,

[email protected]

Leyva Sánchez, EliaFacultad de Ingeniería

Universidad Autónoma de BajaCalifornia Mexicali, Baja California,

[email protected]

Resumen—En toda organización se busca una cultura demejora en los procesos y soluciones que generen una mayorproductividad, eficiencia, reducción de costos, optimización derecursos y se reconoce que tienen varias áreas de oportunidadpara competir, ampliar su productividad y motivar para losretos futuros, es por tal motivo que se propone la aplicación demanufactura esbelta. La evaluación de la madurezorganizacional constituye una parte importante para lasempresas ya que les permite medir el nivel en el que seencuentra, y será de gran relevancia la utilización de lamanufactura esbelta que se ha definido en los últimos tiemposcomo una filosofía de excelencia, la cual está compuesta poruna serie de herramientas que ayudaran eliminar todas lasoperaciones que no le agregan valor al producto, servicio o alos procesos, ayudan a la reducción de desperdicios y se basanen la eliminación de mermas planeadas, el respeto por eltrabajador y en la mejora continua utilizada por miles deindustrias, es importante mencionar que no todas lasorganizaciones que implantan la filosofía tienen éxito esto sedebe a diversos factores, mismos que se abordaran a lo largo deesta investigación.

Palabras clave—Manufactura Esbelta; madurezorganizacional; optimización de recursos; mermas;desperdicios.

I. INTRODUCCIÓN

Las empresas se encuentran bajo una gran presión que lesexige convertirse en organizaciones más eficientes y obtenermás con los mismos recursos o incluso con menos. Es porello que se realiza una propuesta de mejora continua para lareducción de mermas a través de la aplicación demanufactura esbelta.

El camino a seguir para la implementación de manufacturaesbelta es entender las necesidades de la organización,teniendo en cuenta las características de calidad y todo loque lo involucra.

La Manufactura Esbelta crea una Cultura de Mejora deProcesos, se encamina hacia la transformación del negocioglobal a través de productos o servicios que aportan mayorvalor de satisfacción al cliente, y al interior de lasorganizaciones genera una mejora del entorno de trabajopara sus profesionales.

El sistema Manufactura Esbelta consiste en un modelo degestión que lleva a la empresa que lo implanta a nivelesaltamente rentables y competitivos. El motor que dinamizala implantación del sistema de Manufactura Esbelta se basaen el convencimiento y apoyo de la gerencia de la empresadurante el lanzamiento de este proyecto, es así que el uso delas herramientas que el sistema ofrece, permite observar ymejorar en aquellas actividades y campos donde seimplante, pero es necesaria una estandarización del sistemaque afirme y consolide todas las acciones que se realicen alinicio y durante su implantación. Al final, si la implantaciónfue exitosa los buenos resultados son notables y apreciadosen el corto y medio plazo.

La evaluación de la madurez organizacionalconstituye una parte importante para las empresas ya que lespermite medir el nivel en el que se encuentran, será de granrelevancia la utilización de la Manufactura Esbelta que se hadefinido en los últimos tiempos como una filosofía deexcelencia, está compuesta por una serie de herramientasque ayudaran a eliminar todas las operaciones que no leagregan valor al producto, servicio o a los procesos, ayuda ala reducción de desperdicios y se basa en la eliminación demermas planeadas, el respeto por el trabajador y en lamejora continua utilizada por miles de industrias, esimportante mencionar que no todas las organizaciones queimplantan la filosofía tienen éxito esto se debe a diversosfactores.

González (2007) hace notar que para poderimplantar la metodología y herramientas es necesarioconocer que es manufactura esbelta así que será necesariodefinirlo como una filosofía enfocada a la reducción dedesperdicios. El concepto surge principalmente del sistemade producción Toyota, donde básicamente Lean es unconjunto de “Herramientas” que ayudan a la identificación yeliminación de desperdicios, a la mejora en la calidad y deesta manera a la reducción de tiempos y costos deproducción.[1]

La aplicación de la Manufactura Esbelta permitereducir la variabilidad, los defectos y errores para unamejora prolongada, es por ello que su aplicación fomenta elvalor a través del crecimiento de beneficios operativosenfocándose en la eficiencia y el crecimiento, no solo esaplicable en la manufactura sino que también cualquier área

31

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 41: Memoria Seminario FIM UABC 2014

de la organización puede aprovechar sus conceptos y versebeneficiada por su pensamiento. [1]

Manufactura esbelta es una disciplina derendimiento comprobada que ofrece la manera más eficazpara desarrollar el diseño y gestión de la excelenciaoperativa, como describen Sotil, Urbina y Villavicencio(2014) en su artículo (Agregando valor en una plantaprocesadora de lácteos), Manufactura Esbelta es unaherramienta de mejora continua que define el valor desde elpunto de vista del cliente, identifica la cadena de valor paraeliminar desperdicios y las actividades innecesarias, buscaflujo de valor hacia el cliente, orienta sus procesos yactividades a eliminar los inventarios innecesarios ypersigue la perfección dentro del ciclo de mejora continua.La mejora continua consiste en la aplicación de herramientasque permitan optimizar los resultados de los procesos,incrementando sus niveles de eficiencia y eficacia en toda lacadena de valor, la identificación del proceso es esencial entoda mejora, es así, que el mapa de flujo de valor nospermite identificar todas las actividades a través de un flujohorizontal para producir un producto o servicio desde laorden hasta la entrega, considerando todos los elementosinvolucrados, ya sean personas, activos, tecnología einformación o todo aquello que esté relacionado con lamejora. [2]

Una de las grandes necesidades que tiene laindustria en la actualidad es como desarrollar susoperaciones disminuyendo los tiempos de entrega ycumpliendo lo pactado con el cliente, disminuyendo losdesperdicios de manera tal que aumente la productividad ypor ende la productividad del negocio, la finalidad de aplicarconceptos y herramientas incluidas en la filosofía deproducción manufactura esbelta en una organización nosservirá para identificar los principales desperdicios que segeneran y para establecer mejoras potenciales que permitanun ahorro en aquellos recursos que no agregan valor, estosdesperdicios son el objetivo de la manufactura esbelta. [3]

Las organizaciones se encuentran buscandoconstantemente soluciones que generen una mayorproductividad y eficiencia, pero sobre todo buscandiferenciarse y responder activamente a las exigenciasdiarias del mercado como son: entregas rápidas, alta calidady precios competitivos; para dar solución a esas exigenciasbuscan nuevas formas de producir, innovar y permanecer enel mercado. Pedraza (2010) destaca que la manufacturaesbelta es una estrategia de producción basada en el sistemade producción Toyota (SPT) que busca utilizar lasprincipales herramientas del SPT en busca de la eliminaciónplaneada de todo tipo de desperdicio u operaciones que nogeneran valor al producto, el mejoramiento continuo de laproductividad y calidad; y el respeto por el trabajador okaizen. [4]

Cabe destacar que el desempeño del sectorindustrial tiene aún grandes áreas de oportunidad para llegara altos niveles de excelencia. Se busca encontrar factores y

prácticas significativas detonadoras de un desempeñodestacado en el contexto de la manufactura esbelta. (Sillero,2013). [5] Tal y como cita Niño y Bednarek (2010) en suartículo un sistema de Manufactura Esbelta adaptadocorrectamente en condiciones y forma de trabajo enpequeñas y medianas empresas puede ser fructífera para laorganización. [6]

Tolamatl, Cano, Flores y Nava (2012) citan que laMejora Continua constituye una estrategia muy importantepara apoyar la competitividad de los negocios a través de lainnovación incremental en la generación de valor almercado. En los procesos de manufactura la operación deuna estrategia de Mejora Continua esto modifica el nivel dedesempeño de los procesos mediante la innovaciónsistemática, a través de métodos para la solución deproblemas y la concepción de nuevas formas de gestión yoperación. Esto permite la reducción de costos y mejorar elvalor ofertado al cliente, reduciendo de esta manera losdesperdicios. Los cambios en el ambiente de negocios, losaltos niveles de competitividad y las altas exigencias de losmercados, obligan a las empresas a ajustarse constantementea nuevas condiciones competitivas. Para enfrentar estosretos, las empresas utilizan dos estrategias poderosas: lainnovación y la mejora continua de procesos. Con laaplicación de los diferentes métodos para la MejoraContinua su propósito es elevar los indicadores dedesempeño de los procesos, con la participación activa delpersonal, en una sinergia sistemática. [7]

El nivel de éxito de iniciativas de ManufacturaEsbelta, tradicionalmente se evalúa en su capacidad dereducción del inventario en la organización; sin embargoesto no es sencillo pues cualquier reducción implicaenfrentar nuevas problemáticas. Para la determinación delos parámetros de inventario, la cantidad optima delproducto a pedir, el nivel óptimo de inventario y la cantidadque reporte dicha cantidad para un nivel de servicio dado,González, Garza y Trujillo mencionan que es necesarioconocer el comportamiento de las demandas, haciendonecesario un análisis de demandas para determinar sucomportamiento. [8]

A pesar de las miles de implementaciones llevadasa cabo en la última década, muchas empresas siguencometiendo errores desde el inicio o durante el proyecto demanufactura esbelta y como resultado no consiguen altosrendimientos; ni mejoras rápidas, apreciables y sostenibles,por lo que se hace latente que es necesario evaluar lasrazones de las fallas o éxitos en las implementaciones. Laforma tradicional de mejoramiento de procesos se centra enidentificar eficiencias locales y buscar ciclos de producciónmás rápidos, reemplazando las personas por laautomatización; el resultado podría presentar unsignificativo porcentaje de mejora para los procesosindividuales pero tendrían un pequeño impacto global ysobre la cadena de valor (Méndez y Palacio, 2009), estopudiera ser por la falta de alineación del proyecto hacia losfines y objetivos de la organización. [3]

Para potencializar el impacto de las iniciativas demanufactura esbelta, estas debieran presentar dos

32

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 42: Memoria Seminario FIM UABC 2014

características esenciales: Tener una estructura o secuenciade trabajo que pueda observarse y facilite su ejecución encualquier nivel de la organización; además de posibilitar elaprendizaje de las lecciones realizadas y el progreso hacia elconocimiento. Así mismo, Robert (2005), recomienda seguiruna serie de pasos para asegurar el éxito de las iniciativas deManufactura Esbelta buscando involucrar a un pequeñoequipo implementador con habilidades complementarias quedeben de estar comprometidas a un propósito común, a unosobjetivos de resultados específicos o a un enfoque o a unaresponsabilidad compartida o común. Esta secuencia semuestra en la Tabla 1. [9]

TABLA 1. PASOS PARA IMPLEMENTAR MANUFACTURAESBELTA

1. Crear el Comité Directivo de seguimiento

2. Organizar la mejora (incluye selección de consultor externo-interno)

3. Definir Visión y Objetivos

4. Formar/Entrenar Equipo Directivo

5. Establecer métricos

6. Diagnostico situación actual

7. Perfil de prioridades, (selección de herramientas, áreas piloto)

8. Elaborar plan de mejora

9. Constituir el equipo implementador

10. Vencer la resistencia al cambio

11. Presentar plan al Comité Directivo

12. Implementar plan (Énfasis entrenamiento a los diferentesniveles)

13. Comprobar los resultados

14. Estandarizar las mejoras

15. Presentar resultados al Comité Directivo

16. Dar reconocimiento

17. Plantear nuevas implementaciones o mejoras

Las empresas tienen la necesidad de ser productivaspara poder resistir y prosperar en el mercado actual; pues laestabilidad y el desarrollo de las empresas dependenfundamentalmente de la capacidad de satisfacer a losclientes con la mayor eficiencia y confiabilidad, trabajandoen tener niveles de servicios cada vez mayores (coninventarios mínimos); por lo que conviene medir laorientación de la empresa hacia los clientes. [8]

La filosofía Esbelta se basa en la demanda delcliente, el flujo continuo y la nivelación del trabajo, asímismo se centra en el concepto de valor agregado, a travésde los ojos del cliente, puede observarse un proceso yseparar los pasos que agregan valor y los que no, por otraparte esta filosofía analiza los diferentes tipos dedesperdicios, es decir todo aquello que no agrega valor,estos desperdicios son el objetivo de la Manufactura Esbelta,el proceso a seguir para su implementación es entenderclaramente las necesidades del cliente de los productos oservicios además de tener en cuenta características antesmencionadas como la calidad, los tiempos de entrega y elprecio. (Méndez y Palacio, 2009). [3]

La situación actual exige que las organizacionescoordinen actividades cada vez más complejas buscando quelas compras, la producción, el almacenamiento y ladistribución, tengan costos más bajos con niveles máselevados de servicio al cliente, así también la estabilidad ydesarrollo de las empresas dependen fundamentalmente dela capacidad de satisfacer a los clientes con la mayoreficiencia y confiabilidad posible. Méndez y Palacio (2009),mencionan que como fase inicial en el desarrollo eimplementación de la filosofía Manufactura Esbelta, se debede elaborar un “mapa de valor del proceso” (herramientaque permite identificar el flujo del proceso y el flujo de losmateriales) y que debe de incluir al cliente; pues ellosgeneran la presión para reducir los costos de sus productosasí como minimizar los tiempos de entrega, exigiendomayor calidad en productos o servicios, recomiendan unasecuencia para los procesos de Manufactura Esbelta. Definirque agrega valor para el cliente, definir y hacer el mapa devalor del proceso, crear flujo continuo, que el cliente jale loque requiera y esforzarse por la excelencia y lograr laperfección. [3]

El avance en la competitividad de las empresasproviene de miles de empleados que ayudan y apoyan en lasolución de problemas, lo que permite que los procesosfluyan en línea con la demanda del cliente y se centra en lareducción de costos mediante la eliminación de actividadessin valor añadido. [10]

II. HIPÓTESIS

Se propone que a través de la manufactura esbelta y susherramientas se logrará llevar a cabo la evaluación de lamadurez organizacional, recopilando la informaciónnecesaria mediante la aplicación de cuestionarios de campoen diversas empresas; por medio de entrevistas, visitas,alumnos que laboren y/o proyectos de vinculación con valoren créditos.

III. OBJETIVO

Proponer el desarrollo de la metodología manufacturaesbelta para evaluar el grado de madurez de unaorganización y así coadyuvar a la eliminación de mermas.

IV. OBJETIVOS ESPECÍFICOS

Conocer que es manufactura esbelta Proponer un adecuado instrumento de medición

para medir el nivel de madurez organizacional Aplicar el instrumento de medición en empresas de

la ciudad de Mexicali B.C. Analizar resultados de la madurez organizacional y

su impacto o logros Determinar las variables criticas de éxito y de

fracaso del proceso Buscar alternativas de solución a los problemas

encontrados Diseñar un plan de solución

33

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 43: Memoria Seminario FIM UABC 2014

Proponer un plan de trabajo encaminado a darcumplimiento a las metas de la organización.

V. JUSTIFICACIÓN

Se busca con la aplicación de la metodología ManufacturaEsbelta analizar y optimizar los procesos de la organización,convirtiéndose en una empresa comprometida con la mejoracontinua, por lo cual es relevante analizar los procesos enforma metódica y aportar soluciones de raíz, agregandovalor a su organización, la necesidad de realizar estainvestigación nace al cuestionarse por que algunas empresastienen éxito con la aplicación de manufactura esbelta y otrasno lo tienen.

Manufactura Esbelta es una disciplina de rendimientocomprobada que ofrece la manera más eficaz paradesarrollar el diseño y gestión de la ExcelenciaOperativa.[2]

Este enfoque utiliza metodologías efectivas para propiciarmejoras de rendimientos significativos y cuantificables alinterior de la Organización, la aplicación de ManufacturaEsbelta permite reducir la variabilidad, los defectos y errorespara una mejora prolongada, es por ello que fomenta el valora través del crecimiento de beneficios operativosenfocándose en la eficiencia y el crecimiento.

Es importante destacar que Manufactura Esbelta noconstituye un fenómeno nuevo, sin embargo, a pesar de lasmúltiples implementaciones llevadas a cabo en la últimadécada, muchas empresas siguen cometiendo errores en eldiseño y el lanzamiento del proyecto, como resultado, noconsiguen rendimientos rápidos, apreciables y sostenibles.

VI. MÉTODO

Se desarrolló y aplicó un primer instrumento demedición para valorar el “assesment” o inventario deaplicaciones de Manufactura Esbelta, se enviaron por correoelectrónico usando como contacto a alumnos que seencuentran realizando proyectos y/o practicas, este primerinstrumento se aplicó dentro de 15 empresas locales en laciudad Mexicali, B.C del 03 al 12 de Noviembre del 2014.

Este instrumento piloto consta de un cuestionario de 12preguntas, el cual se aplicara en tres nivelesorganizacionales (operativo, intermedio y gerencial), paraposteriormente revisar las diferencias entre los resultadosobtenidos. El instrumento se muestra en la figura 1.

VII.RESULTADOSLos resultados del instrumento de medición piloto aplicadose presentaran el día 14 de Noviembre de 2014 en elSeminario de Posgrado.

VIII. CONCLUSIÓN

Toda iniciativa de manufactura esbelta debe serbienvenida y apoyada en la organización, aunque su impactoglobal pudiera ser cuestionable y no se vea reflejado en unareducción grande del inventario global. La habilidad o no dela organización en promover estas iniciativas de mejora y elque ellas tengan o no una secuencia de trabajo adecuada sepueden considerar como un proceso hacia la madurezorganizacional por medio de la manufactura esbelta. Lasiniciativas frecuentes o esporádicas, pueden o no estarorientadas al cliente y las metas de la empresa; partiendo ono de un “mapa de valor del proceso”; algo valioso de esteproceso serían las lecciones aprendidas y el progreso haciael conocimiento, de tal manera que estas iniciativas cada vezsean más frecuentes dentro de la organización así como esimportante que los directivos se comprometan a darleseguimiento a las acciones y cumplan con la metodologíapropuesta.

IX. REFERENCIAS

[1] Gónzalez Correa Francisco, Manufactura Esbelta (LeanManufacturing). Principales herramientas, 2007.

[2] Sotil Ureta Robert, Urbina Cruz Luis, Villavicencio Cárdenas José,Agregando valor en una planta procesadora de lácteos, 2014.

[3] Méndez Neiza Omar Alonso y Palacio Jaramillo Habied Aquiles,Propuesta de mejoramiento de la productividad bajo las herramientasde Lean Manufacturing para la línea de bollería en Bimbo deColombia S.A. en la planta de Tenjo Cundinamarca, 2009.

[4] Pedraza Lina Marcela, Mejoramiento productivo aplicandoherramientas de manufactura esbelta, 2010.

[5] Sillero Pérez Juan, Mejorando las prácticas de Manufactura Esbeltaen el sector de Autopartes, 2013.

[6] Niño Luna Luis Fernando y Bednarek Mariusz, Metodología paraimplantar el sistema de manufactura esbelta en PyMES industrialesen México, 2010.

[7] Tolamatl Michcol Jacobo, Cano Olivos Patricia, Flores Farias Sadi yNava Morales José Juan, Análisis de facilitadores para Sostener laMejora Continua en una Empresa de Autopartes, 2012.

[8] González Sánchez Caridad, Garza Ríos Rosario, Trujillo QuintanaIsmelys, Determinación del tamaño del pedido en el almacén de unrestaurante, 2013.

[9] Robert i Gadea Antoni, Factores que facilitan el éxito y lacontinuidad de los equipos de mejora en las empresas industriales,modelos de implementación, aplicación y medición de los resultadoen una empresa piloto, 2005.

[10] A.P. Puvanasvaran, M.H.M.A. Megat, S.H. Tang, M.R. Muhamad,A.M.S. Hamouda, A review of problem solving capabilities in leanprocess management, 2008.

34

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 44: Memoria Seminario FIM UABC 2014

Figura 1. Instrumento de medición piloto.

Esta encuesta está dirigida a conocer las empresas que aplican manufactura esbelta en sus procesos en la ciudad de Mexicali; Lainformación recabada es parte del contenido temático de una investigación para obtener el grado de Maestría en Ciencias.

GRACIAS POR SU VALIOSA COLABORACIÓNDepartamento:

Giro empresarial:

Parque Industrial:

Antigüedad de la empresa: 0 – 6 Meses 6-12 Meses 12-24 Meses 2-5 años 5-8años

8 o más años

Número de empleados: 1-50empleados

50-200empleados

200-500empleados

500-1000 empleados 1000 o másempleados

Nivel Organizacional: Operativo Intermedio Gerencial

Favor de llenar los datos con una × en la opción elegida.1. La empresa conoce la filosofía de manufactura esbelta?

SI ____ NO___2. Realizan constantemente juntas para ver temas referentes a manufactura esbelta y mermas?

SI ____ NO___3. La organización apoya fácilmente cuando surge una idea de mejora?

SI ____ NO___4. Se tiene conocimiento de la cantidad de merma actual en la empresa?

SI ____ NO___5. Se conoce cuáles son las variables críticas para el éxito de reducción de mermas en su empresa?

SI ____ NO___6. S e tiene conocimiento de cuáles son las variables críticas de fracaso para la reducción de mermas en su empresa?

SI ____ NO___7. La empresa conoce el termino de madurez organizacional?

SI ____ NO___8. Actualmente tienen un plan de solución para problemas relacionados con los desperdicios o mermas en la organización?

SI ____ NO___9. Aceptaría la empresa un análisis de nivel de madurez organizacional?

SI ____ NO___10. Aceptaría una propuesta de mejora en su organización o proceso?

SI ____ NO___11. Cuáles de las siguientes herramientas y filosofías de manufactura esbelta que se conocen en la empresa?

5`S JIT KANBAN KAIZEN JIDOKA POKA YOKE SMED VSM12. Cuál de las siguientes herramientas y filosofías de manufactura esbelta implementan actualmente en la empresa?

5`S JIT KANBAN KAIZEN JIDOKA POKA YOKE SMED VSM

35

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 45: Memoria Seminario FIM UABC 2014

Enfoques de la Contabilidad LeanIng. Isvia Danitza Zazueta Hernández

Facultad de IngenieríaUniversidad Autónoma de Baja California

Mexicali, Baja California, Mé[email protected]

Dra. Silvia Vanessa Medina León, Dra. Margarita Gil SamaniegoRamos, Dr. Víctor Nuño Moreno, M.C. Juan Ceballos Corral

Facultad de Ingeniería, Universidad Autónoma de Baja CaliforniaMexicali, Baja California, México

[email protected], [email protected],[email protected], [email protected]

Resumen — Los términos Manufactura Esbelta y PensamientoEsbelto son comúnmente utilizados en la actualidad por lasempresas para hacer referencia a procesos o sistemas enfocados aidentificar los desperdicios y encontrar áreas de oportunidad enlas cuales trabajar para reducir costos logrando de esta maneraun mayor margen de utilidad en las ventas de los productos oservicios que se ofertan, pero el concepto de Contabilidad Esbeltase maneja como un ente separado y rara vez es mencionadodurante un mapeo de la cadena de valor o durante un análisis decadena de valor. Este artículo tiene el propósito de mostrar losconceptos generales de la Contabilidad Lean y su importancia enla relación de la misma en el mapa de la cadena de valor o en lagestión de la cadena de valor.

Palabras clave — Contabilidad Lean; mejora continua; Mapade la Cadena de Valor; manufactura esbelta.

I. INTRODUCCIÓN

El mapa de la cadena de valor es una herramienta utilizadapara representar gráficamente los flujos de los procesos a unaprofundidad que aporte elementos en la toma de decisionesestratégicas de una organización, tales decisiones por logeneral son para mejorar los costos de los productos, lostiempos de entrega y la calidad de los mismos, pero por logeneral no se involucra al departamento de contabilidaddurante su implementación en los proyectos, es decir, se trabajacon el personal operativo, se identifican los proyectos demejora, se cuantifican los beneficios pero al momento decalcular el costo por parte del área contable no se ve reflejadarealmente la mejora.

Existen razones positivas y negativas del porqué laContabilidad Lean es importante. Algunas de las positivas sonque provee información para una mejor toma de decisionesrelacionada a los ingresos y a la rentabilidad de los negocios.Así como también reduce tiempos, costos y eliminación deoperaciones que no agregan valor al sistema. Los aspectosnegativos aparecen cuando se quiere conectar un sistema decontabilidad tradicional con un sistema Lean, debido a que lacontabilidad tradicional está en función de un sistema deproducción en masa, opuesto a lo que busca la manufacturaesbelta.

La Contabilidad Lean provee medidas de rendimiento quereemplazan mediciones tradicionales, es decir, el método paramedir los aspectos financieros, operacionales y de capacidad sevuelven más estrictos y detallados. También proporcionamétodos con los cuales se puede calcular el impacto financierode las mejoras realizadas en los procesos productivos, además

de enfocar al negocio hacia lo que realmente crea valor para elcliente y por ende trabajar en la reducción de desperdicios. [1]

Figura 1. Sistema contable y sistema productivo [2]

Los primeros informes y estudios sobre este tema sepublicaron en la década de 1990 y a principios del Siglo XXI,principalmente por investigadores de Estados Unidos. Losartículos sobre Contabilidad Lean se pueden dividir en cuatrogrupos. La primera categoría contiene artículos y libros quedescriben la idea general y el concepto de la ContabilidadLean. La segunda categoría se centra en específico enherramientas y métodos utilizados en la Contabilidad Lean,como el costeo objetivo, métodos de actuación mediciones,etc. En el tercer grupo se presentan las lecciones aprendidas deuna aplicación de Contabilidad Lean real. La última de ellascontiene ejemplos de la aplicación de herramientas Lean ymétodos para mejoras en los procesos de Contabilidad. [3]

II. DEFINICIÓN DEL PROBLEMA

Algunas empresas consideran con el hecho de aplicarherramientas de mejora continua será suficiente para tenerahorros, los cuales se reflejarán en sus costos, pero ¿Qué pasasi el sistema contable no evoluciona a la par de los procesosproductivos? Actualmente existe una necesidad latente en lasempresas en cuanto al cálculo de ahorros reales a la hora deimplementar mejoras en los procesos. Existe una desconexiónentre el personal que realiza proyectos de mejora en el procesoproductivo y el departamento de costos, es como hablar dosidiomas distintos sobre el mismo tema. Debido a lo anterior,surge la necesidad de considerar la creación de un nuevoconcepto como lo es Contabilidad Lean, ya sea que uncontador se especialice en procesos productivos, o que uningeniero se especialice en costos.

En las décadas pasadas se ha incrementado el interés por ladifusión de las técnicas de mejora continua en lasorganizaciones. Esta creciente preocupación de losinvestigadores a través de varios campos puede ser entendida

36

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 46: Memoria Seminario FIM UABC 2014

por muchas razones. El uso de un enfoque macro, el conceptode eficiencia en la fabricación y los cambios en la contabilidadde los procesos son algunas de las razones por las cuales lasorganizacionales deben realizar cambios dramáticos enfocadosen la comunicación, la productividad, la competencia entre lasempresas, las relaciones internas y externas, y lacompetitividad internacional de los procesos de una empresa.[4]

III. APLICACIÓN DEL CONCEPTO DE CONTABILIDAD LEAN

Es la exportación de la filosofía Lean a lacontabilidad de una entidad empresarial. Recordemos que laesencia de la filosofía Lean es el conseguir cada vez mejoresresultados mediante la aplicación de herramientas y enfoquespara la eliminación de todo aquello que no es estrictamenteimprescindible para la aportación de valor añadido al cliente.

La contabilidad, es una de esas áreas a las que se lededica más tiempo y recursos de los que esperamos. Tras unestudio inicial en cualquier entidad se puede sorprender de losrecursos empleados en presentaciones de informes oextracción de datos sumamente específicos que no aportanprácticamente nada.

Por supuesto, la contabilidad y el control financiero sonimprescindibles para la buena marcha de la entidad, sinembargo, al igual que el departamento de almacén o el deproducción, tiene muchos “desperdicios” que se puedeneliminar mediante la aplicación de esta filosofía. [5]

A. Conceptos generales de Contabilidad Lean

Maskell & Jenson (2000), desarrollo de un modelo de 4pasos de Contabilidad Lean, adecuado para empresas demanufactura. Maskell & Baggaley (2006), definición generaly descripción de la Contabilidad Lean, concepto, presentaciónde herramientas de Contabilidad Lean adecuado para unaempresa esbeltas. Kennedy & Brewer (2006), comparación dela Contabilidad tradicional vs. Contabilidad Lean, y unapropuesta de cambios apropiados para las empresas esbeltas.Maskell & Kennedy (2007), descripción amplia del conceptode administración esbelta y Contabilidad Lean. Kennedy &Widener (2008), desarrollo de un marco teórico que ayuda enla comprensión de las opciones de control, las prácticas decontabilidad y estructura organizacional asociado con lamanufactura esbelta. [3]

B. Herramientas y métodos utilizadas en la ContabilidadLean

Fiume & Cunningham (2003), presentación de las prácticasde Contabilidad de gestión adecuadas para las empresasesbeltas. Baggaley (2007), desarrollo de un marco para laactuación y medición en compañías esbeltas. Hutzinger(2007), presentación de las técnicas de gestión de costosadecuados para las empresas esbeltas. Maskell et al. (2012),concentración en la transformación de un sistema tradicionalde contabilidad a uno que apoya y mejora la gestión esbelta;amplia descripción de herramientas como el costeo objetivo,el rendimiento de flujo de valor medición, etc. [3]

C. Lecciones aprendidas

Maynard (2008), presentación de observaciones de laaplicación de conceptos de Contabilidad Lean en lasempresas. Kennedy et al. (2010), en el ejemplo de 244empresas de Estados Unidos, se prueba un modelo deecuaciones estructurales que examina el rol que juega lacadena de valor de costos en el medio ambiente esbelto. [3]

D. Aplicaciones para Contabilidad Lean

Bragg (2009), presentación de mejoras en los procesos deContabilidad de acuerdo a la filosofía de mejora continua y eluso de sus herramientas y métodos. [3]

Como se puede observar después de la revisión literaria,analizando el trabajo de investigación del autor MarcinMichalak (2013), el concepto de Contabilidad Lean esrelativamente un tópico nuevo, el cual se ha vistodesarrollando por los investigadores debido a la necesidad deconectar un sistema de producción Lean con una ContabilidadLean para lograr una compenetración completa y fiablealineada a los mismos objetivos derivados de las estrategias dela organización.

IV. TOMA DE DECISIONES UTILIZANDO EL COSTEO

ESTÁNDAR VERSUS EL COSTEO LEAN

El costeo estándar es un excelente método paracalcular los costos de los productos de las compañías conmétodos de producción en masa. El costeo estándar se basaen supuestos sobre el proceso de producción. Éstossupuestos pueden ser válidos para métodos tradicionales,procesos que impliquen lotes y colas grandes en los que lascorridas de producción son en grandes volúmenes. Elcosteo estándar tiende a sobreproducir, crear excesos deinventario y reducir el flujo de producción, exactamentetodo lo opuesto a lo que busca la manufactura esbelta. Elcosteo estándar no es erróneo, simplemente no es elapropiado para el costeo Lean o la Contabilidad Lean. [1]

37

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 47: Memoria Seminario FIM UABC 2014

A. Ejemplo de toma de decisiones utilizando el costeoestandar versus el costeo Lean

A continuación se muestra cómo se lleva a cabo el costeode un proceso de manufactura de piezas forjadas de acero.Antes de iniciar con las propuesta de manufactura esbelta, laempresa produce en lotes de 2500 piezas a través de unaproducción de cuatro pasos, que establece un plazo deejecución seis semanas, 25 días de inventario, y 82% deentregas a tiempo. El costeo estándar para cada pieza es de$21.50. [1]

Tabla 1. Indicadores de un sistema tradicional de producción [1]

La compañía recibe una capacitación en el mapeo de lacadena de valor y en la creación y diseño de celdas. Se decidecrear una celda de manufactura y se trabaja en lotes pequeñoscon flujo de una sola pieza. El obstáculo más grande parapoder lograr la transición es el complejo cambio en la máquinaCNC. El equipo de trabajo decide utilizar una máquinaperforadora en lugar de la máquina CNC. El cambio entremodelos de la máquina perforadora es más corto que el de laCNC, y los lotes de producción se redujeron a 250 piezas. [1]

Tabla 2. Indicadores de un sistema esbelto de producción [1]

V. RESULTADOS

El resultado es impresionante. El plazo de ejecución sereduce a 2 días, el inventario decrece de 25 a 5 días, lasentregas a tiempo están cerca de ser perfectas. Pero si seobserva la información relacionada al costo se observa unadiferencia significativa. El costo del producto se incrementa.En base a ésta información, la compañía decide cancelar laimplementación de las mejoras de manufactura esbelta yregresar a la producción tradicional, únicamente porque lamanera de calcular los costos no evolucionó junto con elsistema de producción esbelto. [1]

Tabla 3. Comparativo de indicadores de un sistema tradicional deproducción versus un sistema esbelto de producción

VI. CONCLUSIONES

En la Contabilidad Lean, el rol del personal de Contabilidadpasa de ser meros registradores de datos, a ser auténticosconsultores capaces de producir informes detallados del costointroducido en cada etapa de la producción de nuestroproducto / servicio hasta su entrega al cliente final. Y, desdeesa posición, ayudar a mejorar todo aquello que supongacostos. [6]

Como se pudo observar en el ejemplo, se destaca que lasdecisiones tomadas bajo un sistema contable tradicional puedellevar a la toma de decisiones incorrectas, puesto que no setiene el panorama detallado de como representar los ahorrosderivados de los proyectos de manufactura esbeltaimplementados en el sistema de producción. Por lo tanto, sedebe considerar el emigrar de una Contabilidad tradicional auna Contabilidad Lean, para que dichas decisiones reflejenrealmente y con detalles precisos los beneficios que hasta elmomento se han omitido, como la utilización de la caja deindicadores (Box Score) por dar un ejemplo.

REFERENCIAS

[1] Brian Maskell, Bruce Baggaley, Practical Lean Accounting. New York,Productivity Press, 2004

[2] Wang Lin, IEEE, Lean Accounting based on Lean Production. 2009

[3] Marcin Michalak; Ewelina Zarzycka, Theoretical Journal of Accounting,www.ceeol.com, 2013, Pág. 139-156

[4] Haitham Ahmed, Hussein Abdelmoneim, The Macrotheme Review,Yanbu Industrial College, Kingdom of Saudi Arabia, 2012, Pág. 10-22

[5] IsoTools Excellence, Blog Corporativo. (2014, octubre) [Online].HYPERLINK http://www.isotools.org/2013/10/21/herramienta-Lean-accounting/

[6] Estrategias Lean en un mundo 2.0, Blog de José Andrés López de Fez.(2014, octubre) [Online]. HYPERLINK http://jalfez.es/Lean-accounting

38

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 48: Memoria Seminario FIM UABC 2014

Optimización de una red de distribución logística enuna empresa comercializadora de acero

Jessika Rodríguez SánchezFacultad de Ingeniería

Universidad Autónoma de BajaCalifornia Mexicali, Baja California,

[email protected]

Dr. José Luis Pérez EscobedoFacultad de Ingeniería

Universidad Autónoma de BajaCalifornia Mexicali, Baja California,

[email protected]

M.C. Juan Ceballos CorralFacultad de Ingeniería

Universidad Autónoma de BajaCalifornia Mexicali, Baja California,

[email protected]

Abstract—In this article the importance of logistics in todaymentioned and shown the process to be used to redesign alogistics distribution network. This work aims to provide aproposal to improve logistics distribution network. Where willfocus on finding an optimal solution to the vehicle routingproblem. To test this research will be carried out on a localcompany that sells construction steel around Mexicali. To do this,first by means of discrete simulation will be modeled and recordthe current situation that the company regards the distribution.Then the optimization method using genetic algorithms andapply that as the complexity and number of constraints involvedin the problem increases, it becomes more difficult to resolveusing the techniques previously used as dynamic programmingand operations research. The optimization criterion can beminimization of the distances, increasing the utilization factor ofa vehicle.

Keywords—Logistics; Vehicle Routing Problem (VPR)

I. INTRODUCCIÓN

Debido a la globalización que se está viviendo, a losconstantes cambios y al crecimiento veloz de la competenciaen donde se crea un producto o servicio nuevo y solo escuestión de días para que alguien más lo reproduzca con lasmismas características o incluso mejores.

Por consiguiente las empresas buscan adquirir nuevosclientes y conservar los que ya tienen, con el fin de aumentarlas ventas, las ganancias y lograr permanecer en el mercado portiempo prolongado. Para lo cual las empresas deben de buscardiferenciarse de su competencia y esto lo logran ya no soloofreciendo los precios más bajos al cliente o aportando lamejor calidad al producto, ahora también implica que elproducto o servicio esté disponible cuando el cliente lo necesiteen el lugar que lo requiera, ya que de lo contrario gracias a laenorme variedad de proveedores que existen y que vendenproductos o servicios similares, el cliente podría cambiar deopción con facilidad aunque tenga que pagar un poco más porla diferencia pero con tal de adquirir su artículo a tiempo.

Esto es crucial porque si en dado caso algún suministrosolicitado no es proporcionado a tiempo en la fecha que seestableció, aparte de perder la confianza del cliente, se puedellegar a detener la producción de la empresa solicitante, sepuede aplazar el término de alguna construcción o tendríamosproblemas en ejemplos más delicados como con latransportación de productos perecederos y órganos vitales paratrasplantes.

También problemas emergentes de impacto mundial comola necesidad de atender a comunidades afectadas por desastrescomo (terremotos, huracanes, etc.) y la necesidad de protegeral medio ambiente cuidando las emisiones de Co2 que generanlos vehículos.

Con lo anterior se resalta la importancia de trabajar paradesarrollar y ejercer una buena y eficiente distribuciónlogística. Se recomienda que las empresas establezcan undepartamento especializado en logística o que asigne y capacitepersonal para desarrollar ésta área y las actividades queconlleva, ya que anteriormente no se contaba con personasespecializadas para desempeñar dichas tareas, ya que lalogística era considerada como una actividad rutinaria,meramente operativa, generadora de costos, carente de valor ynecesaria para hacer llegar los productos desde los centros deproducción a los de uso o consumo. En la actualidadimplementar una logística eficiente ya no es opcional, dado aque se ha convertido no solo en un factor clave de la gestión,sino en un elemento diferenciador, que impone y contribuye asuperar las barreras de la competencia de mercado.

II. DESARROLLO

Un sistema integrado de logística de una empresa estáformado por tres áreas operacionales: gestión de materiales,gestión de transformación y gestión de la distribución física[1].

Se entiende como red logística la integración de cada unade las áreas físicas dentro de la empresa a través de las cuáles

39

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 49: Memoria Seminario FIM UABC 2014

se genera el flujo de materiales, que a su vez se integra con lared de información generada por pedidos a proveedores,pedidos de clientes, inventarios, plazos de entrega, estadísticasy la contabilización de este flujo de información [2].

La distribución es la acción de transportar un producto deun punto de origen a otro punto destino, entregando lacantidad requerida y cumpliendo con la fecha definida para laentrega, evitando deterioros del producto durante sutransporte. Cuando se proporciona un adecuado nivel deservicio con el fin de satisfacer las necesidades del cliente,puede llevar directamente a un incremento en las ventas, unmayor porcentaje de participación en el mercado y contribuiren la disminución de costos y por consiguiente, en un aumentode las utilidades [3].

Dentro de los problemas logísticos, el problema de ruteo devehículo por sus siglas en inglés (VRP, vehicle routingproblem) es uno de los más comunes en la optimización deoperaciones Logísticas y uno de los más estudiados; Plantea labúsqueda de la solución óptima con diferentes restriccionestales como: número de vehículos, capacidad de los vehículos,lugares destino donde se encuentran los clientes y la demandade los clientes, entre otras [4].

Este problema de ruteo de vehículos data del año de 1959 yfue introducido por Dantzing y Ramser, quienes describieronuna aplicación real de la entrega de gasolina a las estacionesde servicio y propusieron una formulación matemática. Cincoaños después Clarke y Wright propusieron el primer algoritmoque resultó efectivo para resolverlo y así fueron surgiendo másinvestigaciones en ésta área.

Este problema puede entenderse como la intersección dedos conocidos problemas de optimización combinatoria. Elprimero, el del agente viajero (TSP, traveling salesmanproblem) considerando la capacidad de cada automóvil comoinfinita y el de empaquetamiento en compartimentos (BPP,bin packing problem) [5].

Concretando: El problema de ruteo de vehículos (VRP)consiste en, dado un conjunto de clientes y depósitos dispersosgeográficamente y una flota de vehículos, se necesitadeterminar un conjunto de rutas de costo mínimo quecomiencen y terminen en los depósitos, para que los vehículosvisiten a los clientes máximo una vez.

El proceso previo para rediseñar la red de distribuciónlogística consta de las siguientes fases:

Fase I: Diagnóstico del sistema de distribución

En esta fase inicial del procedimiento se comienzaefectuando un análisis del sistema actual, con el objetivo deconocer las características del sistema objeto de estudio, elcual se tomará como base para el diseño de la red logística.

El procedimiento para esta primera fase consta de lossiguientes pasos:

1. Recopilar y documentar la información sobre elequipamiento con el que cuenta la organización quese va a estudiar, se debe conocer la cantidad deequipos, la descripción de los mismos, su número deidentificación, su capacidad dinámica, el consumo decombustible por kilómetro recorrido.

2. Obtener información de la organización actual delsistema de distribución.

3. Analizar los mapas del territorio en este caso de BajaCalifornia, para ubicar el origen y los destinos, paratrazar las rutas existentes sobre el mapa.

4. Investigar la vialidad y contar con información sobreel tiempo que demora en cada recorrido entre losdiferentes elementos que componen la ruta dedistribución.

5. Estudiar la demanda y desglosar por productos parapoder asignar valores fiables de demanda a losclientes, para conocer las necesidades reales dedistribución de mercancías.

Dentro de ésta primera fase para el análisis del procesointerno de la empresa se utilizará la simulación discreta.

La simulación discreta permite la imitación orepresentación de procesos y recursos logísticos, incluyendo eltransporte y distribución en modelos computacionalesconsiderando incertidumbre sobre los cuales se realizanexperimentos con el fin de evaluar el desempeño, diseños uoportunidades de mejora que permitan operaciones eficientesy eficaces [6].

Adicionalmente, la utilización de la simulación discretapermite reducir potencialmente los tiempos y costos deanálisis, diseño y mejora del transporte y distribución, ya queno se requiere experimentar con el proceso real, sino con elmodelo computacional cuando se garantice que este seaválido.

Al realizar el estudio de simulación buscamos analizar eldesempeño del sistema de transporte y distribución de laempresa considerando variables como: capacidad utilizada yociosa de los medios de transporte, tiempos promedios detransporte de cargas de materiales de construcción, análisis decolas en procesos donde se carga la mercancía al vehículo,entre otros, que permiten medir la eficiencia del procesologístico.

Fase II: Diseño de la red logística

En esta fase se plantean las mejoras al sistema dedistribución, sobre la base del diagnóstico se elabora la rutapropuesta y se analiza su factibilidad.

40

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 50: Memoria Seminario FIM UABC 2014

Con toda la información analizada en la fase I se procedea diseñar la ruta que será propuesta. El método que se utilizarápara realizarla será por medio de algoritmos genéticos.

Los algoritmos genéticos constituyen una de lastécnicas de computación evolutiva de uso más difundido.Diseñados a partir de una formulación simple, con unaoperativa basada en el uso de un operador de recombinación ymutaciones aleatorias de soluciones, estos algoritmos han sidoreportados como exitosamente aplicables a una amplia gamade problemas de optimización y búsqueda en los últimos 25años.

Los algoritmos genéticos basan su operativa en unaemulación de la evolución natural de los seres vivos,trabajando sobre una población de soluciones potencialesevoluciona de acuerdo a interacciones y transformacionesúnicas. Los individuos que constituyen la población seesfuerzan por sobrevivir: una selección programada en elproceso evolutivo, inclinada hacia los individuos más aptos,determina aquellos individuos que formarán parte de lasiguiente generación. El grado de adaptación de un individuose evalúa de acuerdo al problema a resolver, mediante ladefinición de una función de adecuación al problema, lafunción objetivo. Bajo ciertas condiciones, el mecanismodefinido por los operadores inspirados por la genética naturaly la evolución darwiniana lleva a la población a convergerhacia una solución aproximada al óptimo del problema, luegode un determinado número de generaciones.

Luego de ser diseñada la ruta por el método seleccionado,se procede a efectuar un análisis de la factibilidad del mismo,donde se deben destacar los elementos de la nueva ruta quedemuestran una mejora con respecto al diseño anterior,destacando la distancia y el tiempo de recorrido como variablesbásicas a analizar.

Por último se implementa la nueva red y se propone elmonitoreo y análisis del nuevo sistema con el objetivo deevaluar los resultados de la red logística implementada para lamejora continua del sistema de distribución.

Los algoritmos genéticos no trabajan directamentesobre las soluciones del problema en cuestión, sino que lohacen sobre una abstracción de los objetos solución,usualmente denominadas cromosomas por analogía con laevolución natural biológica.En términos de los algoritmos genéticos el genotipo tambiénestá constituido por cromosomas, utilizándose generalmenteun único cromosoma por individuo solución al problema. Porsu parte, el fenotipo representa un punto del espacio desoluciones del problema.

Todo cromosoma tiene un valor asociado de funciónobjetivo que evalúa aptitud del individuo para resolver elproblema en cuestión. La función objetivo tiene el mismo tipoque la función objetivo del problema, lo cual implica que elcálculo del valor de la función objetivo se realiza sobre elfenotipo correspondiente al cromosoma [8].

La función objetivo debe contemplar el criterio del problemade optimización (minimización o maximización de un objetivo)y las restricciones presentes en el problema de optimización.En caso de surgir soluciones no factibles del problema, lafunción objetivo deberá asignarle valores adecuados quegaranticen que tales individuos no se perpetúen durante elproceso evolutivo [9].

III. CONCLUSIÓN

Este problema en el cual se está trabajando es un problemade decisión que implica varias restricciones que se deben desatisfacer, son problemas de difícil solución.

La decisión sobre el diseño de rutas en la logística esimportante como área de oportunidad en la reducción de costosy optimización de los recursos, y en el mejoramiento del nivelde servicio.

Éste trabajo en curso pretende aportar simplicidad a lasolución de casos similares sin perder confiabilidad en losresultados.

REFERENCIAS

[1] Delgado Álvarez y Gómez Rodríguez, “La gestión logística y la gestiónde la innovación en las organizaciones”, Revista contribuciones a laeconomía, 2010.

[2] Bladimir Ramírez, “¿Para qué sirve la logística?”, Revista Inventum N°4Facultad de Ingeniería Uniminuto, 2008.

[3] Ballou R., “Logística: Administración de la cadena de suministro”.Pearson Educación, 2004.

[4] Rocha Linda, González Cristina. y Orjuela Javier, “Una revisión alestado del arte del problema de ruteo de vehículos: Evolución histórica ymétodos de solución”. En Ingeniería, Vol. 16, N° 2, 2011, pp. 35- 55.

[5] Julio Daza, Jairo Montoya y Francesco Narducci, “Resolución delproblema de enrutamiento de vehículos con limitaciones de capacidadutilizando un procedimiento metaheurístico de dos fases”. Revista EIANo. 12, 2009, Medellin Colombia pp. 23-38.

[6] Obaidat M. y Papadimitriou G., “Applied system simulation:methodologies and applications”. N° 1 . Massachusetts: Springer, 2003pp. 34.

[7] Rodrigo A. Gómez y Alexander A. Correa, “Análisis del transporte ydistribución de materiales de construcción utilizando simulación discretaen 3D”. Boletín de ciencias de la tierra, N° 30. 2011 Medellín,Colombia.

[8] Sergio Nesmachnow, “Algoritmos Genéticos Paralelos y su aplicación aldiseño de redes de comunicaciones confiables”. Universidad de larepublica de Montevideo, 2014, Uruguay.

[9] Alba E., Cotta C., “Tutorial on Evolutionary Computation”. 2003.Disponible en http://www.lcc.uma.es/~ccottap/semEC/ec.html.Consultado octubre 2014.

41

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 51: Memoria Seminario FIM UABC 2014

Optimizando la capacidad de los procesosproductivos mediante simulación

Ing. Ricardo Jasso RoblesFacultad de Ingeniería

Universidad Autónoma de Baja CaliforniaMexicali, Baja California, México

[email protected]

Dra. Silvia Vanessa Medina León, Dra. Margarita GilSamaniego Ramos, M.C. Juan Ceballos Corral

Facultad de Ingeniería, Universidad Autónoma de Baja CaliforniaMexicali, Baja California, México

[email protected],[email protected],

[email protected],

Resumen — La finalidad de este artículo es mostrar laaplicación de la simulación dentro de los procesos productivos ypresentar el impacto que se obtiene con su implementacióndentro del análisis de capacidad; los objetivos en los cuales seenfoca este escrito son: incremento en la utilización y capacidadde producción y mejora en el aprovechamiento del personal. Elcaso de estudio fue realizado dentro de una línea de producciónperteneciente al sector industrial ramo automotriz.

Palabras clave: simulación, análisis de capacidad, utilizaciónde equipos, aprovechamiento de personal.

I. INTRODUCCIÓN

La simulación es una poderosa herramienta de análisis quesirve para la imitación de procesos o sistemas complejosmediante modelos computacionales, matemáticos, estadísticosy probabilísticos los cuales una vez confirmada la validaciónde que representan al proceso real, se utilizan paraexperimentar cambios en las entradas de interés y observar elimpacto que implicarán en las características de salidadeseadas a ser analizadas (donde en algunas ocasiones seríaimposible o impráctico el llevarlo a cabo en la realidad) sinrequerir inversión, apoyando el proceso de toma de decisionessin necesidad de afectar el proceso real. [1]

En este caso de estudio se efectuó la aplicación desimulación en el inicio de una línea de producción denominadaDISI, donde el objetivo que se persiguió fue establecerescenarios para incrementar la capacidad del inicio de la línea yaprovechar el recurso humano.

II. DEFINICIÓN DEL PROBLEMA

En la línea de producción seleccionada y denominada DISIse cuenta actualmente con únicamente la capacidad para cubrirel requerimiento del cliente. Las primeras estaciones defabricación son:

Corte y formado de chip Ensamble de chip y PCB – por sus siglas en inglés“Printed Circuit Board” traducido al español como tarjetade circuito impreso. Soldadura

Este último proceso de soldadura es la restricción delsistema actual, para la cual se agregan tantos operadores comosean necesarios para maximizar la cantidad de salida de piezas

(en ocasiones se ocuparon hasta 5 operadores) sin importar elcosto de mano de obra, debido a que la cantidad se convierte enprioridad; considerando que es tan importante el costo demanufactura como la cantidad de producción se debeidentificar la cantidad de operadores que se justifican en cadaestación de trabajo, asignando de manera estratégica lacantidad de mano de obra de necesaria para la producciónrequerida.

III. JUSTIFICACIÓN DEL USO DE SIMULACIÓN

Actualmente como es común dentro de los procesosproductivos, se cuentan con los estándares de producción decada estación de trabajo de manera individual (piezas/hora).Cada estación cuenta con paros programados y noprogramados durante el turno de producción, para realizar porejemplo: surtido de material, cambio de herramental pordesgaste, reabastecimiento de materiales dentro de los equipos,entre otras.

Con base en el análisis del funcionamiento de las estacionesde trabajo y al desempeño histórico, se puede determinar elcomportamiento de los equipos y los paros programados en lasestaciones de trabajo de forma individual y pronosticar losparos no programados. Esto afecta de manera incierta lacantidad de producción neta en piezas/hora de cada estación;sin embargo la evaluación en conjunto y de manera progresivase vuelve un proceso complejo de analizar, debido a que lacantidad de producción de una estación afecta de maneradirecta a las estaciones subsecuentes.

Por tal motivo se decide utilizar simulación para modelar elproceso actual y que de forma efectiva y económica seidentifiquen las variantes de entrada y su interacción en elsistema, con base en la realización de experimentos o cambiosvirtuales sin la necesidad de afectar el proceso real. [2]

IV. OBJETIVOS DEL CASO DE ESTUDIO

El objetivo del caso de estudio fue: maximizar la salida y elaprovechamiento del personal directo, para los cuales lasmedidas de rendimiento del sistema a simular serán:

42

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 52: Memoria Seminario FIM UABC 2014

Piezas producidas del sistema. Porcentaje de utilización de operadores.

Se considera que la cantidad de equipos es suficiente paracumplir con los requerimientos del cliente sin la necesidad deuna inversión adicional de capital; identificando que la variableque influye directamente en la salida es la cantidad deoperadores que utilizan las máquinas de soldadura, por lo quelas alternativas de solución giran alrededor de este factor:

Incrementar la cantidad de operadores en las estaciones. Dividir / redistribuir las actividades de la operación para

aprovechar al personal operativo.

La manera como se va a evaluar el sistema en base a lasmedidas de rendimiento y el punto donde se considerará elsistema como aceptable son:

Piezas producidas del sistema, debe de ser mayor que650 piezas/hr, debido a que el requerimiento del clientedebe ser producido a un ritmo (takt time) de 640piezas/hr. O equivalente a 46,000 piezas a la semana.

Porcentaje de utilización de operadores, debe sermayor o igual a un 85%, debido a que es necesarioaprovechar el rendimiento del recurso humano.

V. CONSTRUCCIÓN DEL MODELO CONPECTUAL

Para la elaboración del modelo, se realizó un diagrama deoperaciones para identificar el flujo y secuencia de pasos aanalizar, y se delimitó a las primeras 4 operaciones, debido a laubicación de la restricción del sistema. [3]

El proceso consiste en que la primera estación denominadacorte y formado de chip utiliza un rollo de material que escolocado en una base donde debe de ser ajustada de manerainicial al colocar el rollo de chip, el cual contiene 450 piezas.Un operador realiza esta operación de manera manual y lamáquina al cerrar el ciclo realiza la descarga de maneraautomática colocando cada 100 chips ya formados en unascharolas de plástico, donde éstas a su vez se colocan en unaraca a la cual denominaremos raca de chip. Una vez colocadoel material en la raca de chip, la siguiente operación consiste enel ensamble manual de PCB y el chip ya cortado y formado,estos pre-ensambles son colocados en las charolas metálicasque utilizan las máquinas semiautomáticas de soldado puntopor punto, esta actividad de soldado es realizada por unoperador que es responsable de la carga y descarga de 5máquinas similares de soldadura, donde cada equipo estáidentificado con un color y únicamente utiliza 2 charolasespecíficas a fin de reducir la variación y establecer un controlen la operación de soldado. Después de la actividad de soldadose realiza una actividad de descarga para enviar el sub-ensamble al siguiente proceso.

Se efectuó un proceso de toma de tiempos para identificarla capacidad de las estaciones de manera individual. Para laidentificación y establecimiento de los paros programados y noprogramados, se tomó como base la historia de la línea deproducción, donde se identificaron las siguientes actividadesdescritas por estación:

Corte y formado de chip, existen paros programadosdebido al reabastecimiento de materia prima.

Ensamble de PCB y chip, no se identifican parosprogramados en esta estación, debido a que el procesoes manual.

Soldadoras, en este proceso de identifican 2 parosprogramados diferentes, debido a vida útil de loscomponentes y al reabastecimiento de materia prima.

En adición a los paros mostrados anteriormente, existenparos programados que se relacionan directamente a laadministración del personal, como son: comidas, descansosprogramados, juntas de seguridad, entre otras.

VI. CONSTRUCCIÓN DEL MODELO DE SIMULACIÓN

Los datos utilizados en el modelo conceptual fueronestablecidos en base al estudio de tiempos del proceso actual ycomo resultado de la utilización del programa de software“Stat-fit” para identificar la distribución de probabilidad a lacual se asemeja su comportamiento.

La herramienta utilizada para la ejecución del modelo desimulación es el software denominado ProModel, donde seprogramaron las condiciones y parámetros de los elementos dela simulación, como son: locaciones, recursos, entidades delproceso, variables de entidades, atributos característicos delproducto, ruta de proceso y calendario de operación.

La evaluación del sistema será evaluada de manerasemanal.

El sistema es del tipo no determinante debido a que una veziniciado el proceso se establecen las condiciones iniciales demanera que se repiten solamente al iniciar el proceso desimulación y durante cada día de manera subsecuente secontinúa con los saldos de los días pasados, con la finalidad deno vaciar los materiales.

Para validar que el modelo construido replique al sistemade producción actual, se comparó estadísticamente laproducción histórica semanal de los últimos 3 meses a un 95%de confianza con los resultados del programa y se concluyóque el modelo desarrollado de simulación estadísticamentecumple y refleja al proceso actual.

Los datos de porcentaje de utilización del recurso humano ycarga de los equipos de soldado en las condiciones iniciales semuestran en la Tabla 1y 2.

Tabla 1. Porcentaje de utilización del recurso humano en las condicionesiniciales.

43

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 53: Memoria Seminario FIM UABC 2014

Tabla 2. Porcentaje de carga de los 5 equipos de soldado punto por punto bajolas condiciones iniciales.

VII. EVALUACIÓN DE PROPUESTAS

Las propuestas planteadas para los objetivos buscados demaximizar la salida y el aprovechamiento del personal directoen base a los resultados mostrados en la Tabla 1 y 2 son:

Propuesta 1. Agregar un segundo operador de soldadopara aprovechar el tiempo disponible de las máquinassoldadoras punto por punto.

Propuesta 2. Incrementar la cantidad de charolasmetálicas para cada soldadora punto por punto a 3 enlugar de 2.

Propuesta 3. Aplicar la propuesta 1 y 2 de manerasimultánea.

Resultado de la propuesta 1, Con esta propuesta se logróalcanzar alrededor de 50,000 piezas/semana con un recurso de5 operadores, lo cual excede la cantidad de piezas planeadasproducidas para suplir los requerimientos del cliente de 46,000piezas/semana y en adición a las piezas producidas, lautilización del personal de soldadura es menor al 85% buscado.Ver tabla 3 y 4.

Tabla 3. Porcentaje de utilización del recurso humano bajo la propuesta 1.

Tabla 4. Porcentaje de carga de los 5 equipos de soldado punto por punto bajola propuesta 1.

Resultado de la propuesta 2, Con esta propuesta no seobservó ninguna diferencia en la cantidad de piezas/semana encomparación de las condiciones iniciales. El incremento en elporcentaje de utilización del personal que realiza el ensamblemanual es relativamente nulo.

Para incrementar la salida de material, y el porcentaje deutilización del personal se plantea una tercera propuesta,

utilizando la propuesta 1 y 2 de manera simultánea, agregandoun operador más en la parte de soldado y una charola metálicapara cada soldadura para contar con un total de 3 charolas porequipo.

Resultado de la propuesta 3, Con esta propuesta se logróalcanzar una salida similar a la propuesta 1, con un totalalrededor 50,000 piezas/semana con un recurso de 5operadores. El porcentaje de utilización del recurso humano semuestra en la Tabla 5.

Tabla 5. Porcentaje de utilización del recurso humano bajo la propuesta 3.

Para incrementar la salida de material, y elaprovechamiento del recurso humano, la combinación deambas propuestas ayudaron al aprovechamiento de los ciclosde las máquinas para obtener mayor producto con los mismosrecursos y además se recomienda el redistribuir las actividadesdel personal de ensamble de PCB y chip con las de soldado,de manera que se cuente con un equipo multi-funcional paraganar flexibilidad en las actividades operativas, no sobreutilizar al personal de ensamble.

Además, debido a que la capacidad de la estación de corte yformado de chip es mayor en relación a las estacionessubsecuentes, se incorporó un inventario controlado “buffer dechip cortados” y el operador de corte de chip pueda serasignado a otras operaciones para evitar el desperdicio de laespera.

VIII. CONCLUSIONES

La simulación es una herramienta poderosa que puede serutilizada en distintos campos de aplicación, en los últimos añosse ha incrementado el uso de la simulación en lasorganizaciones debido la gran ventaja que brinda de obtener losposibles resultados y pronosticar el impacto de laexperimentación dentro de un sistema sin la necesidad deinvertir en la ejecución real y sin correr riesgos por llevarlos acabo. En este caso de estudio, sirvió para obtener mayorcapacidad productiva con los mismos equipos instalados.Además, se mejoró la distribución de actividades mediante unrebalanceo estratégico del personal operativo.

REFERENCIAS

[1] Shannon, Robert E. Systems Simulation: the art and science. PrenticeHall, Primera Edición, New Jersey. pp 387. 1975

[2] Saxena, Patriksha. Modeling and Simulation. Alpha Science, PrimeraEdición, Oxford UK. pp 184. 2011

[3] Banks, Jerry. Handbook of Simulation, Pinciples, Methodology,Advances, Applications, and Practice, John Wiley & Sons, Inc. PrimeraEdición, Estados Unidos de America. Pp 895. 1998

44

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 54: Memoria Seminario FIM UABC 2014

Brando Fabian Bringas Burgos,Facultad de Ingeniería

Universidad Autónoma de BajaCalifornia, Mexicali B.C., México

[email protected]

Carlos Raul Navarro Gonzalez,Facultad de Ingeniería

Universidad Autónoma de BajaCalifornia, Mexicali B.C., México

[email protected]

Ismael Mendoza Muñoz,Facultad de Ingeniería

Universidad Autónoma de BajaCalifornia, Mexicali B.C., México

[email protected]

Abstract—Water care it’s a topic that everyday gets morerelevance in the world stage due to the importance it has in everyscope of our lives such in sanitation, industrial, social, economicamong others. Meanwhile, agriculture it’s considered one of theprimary economic activities and the most essential for humansbecause it provides us with material goods as food. It’s importantto disseminate the benefits of adopting a pressurized irrigationsystem, seeking to adapt the design to the needs of each farmer.Therefore, this document acknowledges the alternatives onirrigation systems, their distribution in our country and ananalisis evaluation of local crops water requirements.Furthermore it presents the criteria for the election of a soundirrigation system and the advantages and disadvantages that goalong with each one of them. This document means to be the baseof a further investigation about economic sustainability in theValle of Mexicali area, with the purpose to demonstrate achievedboth socio economic and ecological benefits of adapting apressurized irrigation system specifically for cotton crop.

Keywords—Irrigation; ; Design; Crops; Sustainability

I. INTRODUCCIÓN

Irrigación es la aplicación controlada de agua artificialmentecon el propósito de abastecer las necesidades de humedadrequeridas por un cultivo para su producción y el óptimodesarrollo en el campo o granja [1]. Por lo tanto, la irrigaciónprovee las necesidades y requerimientos de las plantas para undesarrollo y producción constante en función de ladisponibilidad de agua en la granja o parcela.

La agricultura irrigada enfrenta varias dificultades para elfuturo. Una de las principales preocupaciones es la bajaeficiencia con la cual las fuentes de agua han sido utilizadasen la irrigación. Un estimado relativamente seguro es que el40% o más del agua utilizada para irrigación es desperdiciadaa nivel de la parcela ya sea a través de percolación profunda oescorrentía superficial. Estas pérdidas puede que no seanpérdidas del punto de vista regional, ya que esta agua será unrecurso utilizable en otro lugar. Sin embargo, estas pérdidasmuchas veces representan oportunidades perdidas para el aguaya que retrasa la llegada del agua con desvíos en el ciclo delagua y porque casi universalmente se produce agua de calidadmás pobre[2]. (Cuando la escorrentía fluye a lo largo de latierra, puede recoger contaminantes del suelo, como petróleo,pesticidas o fertilizantes)[3].

Los sistemas de irrigación usualmente están diseñados paramaximizar la eficiencia de los recursos y minimizar los

requerimientos de mano de obra y capital. Las prácticas degestión más efectivas dependen del tipo de sistema de riego ysu diseño. Por ejemplo, la gestión puede ser influenciada por eluso de la automatización, el control de o la captura y reúso dela escorrentía, el tipo de suelo, las variaciones topográficas y laexistencia de mediciones del flujo y estructuras de control delagua. Las cuestiones comunes para todos los sistemas de riegoes cuando irrigar, cuánta agua aplicar y si la eficiencia puedeser mejorada. Una gran cantidad de factores deben de serconsiderados en la selección de un sistema de riego. Estovariara de locación a locación, cultivo a cultivo, año a año yagricultor a agricultor. En general estas consideracionesincluirán la compatibilidad del sistema con otras operacionesen la parcela, factibilidad económica, propiedades topográficasy del suelo, características del cultivo y restriccionessociales[4].

Se necesita un suministro de agua para el crecimiento de unaplanta. Cuando la lluvia no es suficiente, las plantas debenrecibir agua adicional mediante la irrigación. Varios métodospueden ser usados para suministrar la irrigación a las plantas.Cada método tiene sus ventajas y desventajas, esto debe sertomado en cuenta cuando se elige el método que se adaptamejor a las circunstancias locales. Un método de irrigaciónmuy simple es traer agua desde la fuente de suministro, porejemplo un pozo, a cada planta con una cubeta. Este métodoconsume mucho tiempo y lleva mucho trabajo pesado, sinembargo, puede ser útil para regar extensiones muy pequeñasde tierra, como un jardín vegetal, que además este cerca de lafuente de agua.

Se necesitan métodos más sofisticados de aplicación del aguacuando áreas más grandes necesitan ser regadas. Hay 3métodos comúnmente utilizados: riego superficial, riego poraspersión y riego por goteo.

El riego superficial es la aplicación de agua utilizando el flujode gravedad hacia la superficie del campo. Se puede inundartodo el campo (inundación) alimentar el agua a pequeñoscanales (surcos) o delimitar el paso del agua utilizando bordos(melgas). La práctica de la irrigación superficial tiene miles deaños, Colectivamente representa quizás hasta el 95% de lasactividades comunes de irrigación en la actualidad [5].

En el riego por goteo, el agua es aplicada a cada planta porseparado en pequeñas, frecuentes y precisas cantidades através de emisores (goteros). Es el sistema más avanzado deirrigación con la eficiencia de aplicación más alta. El agua se

Sistemas de riego presurizado: una alternativa parala sustentabilidad agrícola en el Valle de Mexicali

45

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 55: Memoria Seminario FIM UABC 2014

entrega continuamente, se mueve hacia el suelo verticalmentepor la gravedad y hacia los lados por la acción capilar. El áreade la planta es parcialmente humedecida. Cuando el flujo delemisor excede la ingesta de agua por el suelo, el agua seestanca en la superficie, esto ocasiona que la humedad sepropague lateralmente [6].

El sistema de riego por aspersión es un método de aplicaciónde agua similar a la lluvia natural. El agua es distribuida através de un sistema de tuberías usualmente por bombeo.Después es rociada al aire a través de aspersores pararomperse en pequeñas gotas de agua que caerán al suelo. Elsistema de bombeo, aspersores y condiciones de operacióndeben ser diseñadas para permitir una aplicación de aguauniforme [7].

Para escoger un método de irrigación, el agricultor debe saberlas ventajas y desventajas de los diferentes métodos. Él o elladeben saber cuál método se adapta mejor a las condicioneslocales. Desafortunadamente, en muchos casos no hay unasolución óptima: todos los métodos tienen sus ventajas ydesventajas. La prueba de varios métodos bajo las condicioneslocales actuales, provee la mejor base para una correctaelección de método de irrigación. La adaptabilidad de losdiferentes métodos de irrigación como lo son riego superficial,por aspersión o goteo, dependen principalmente de lossiguientes factores: condiciones naturales, tipo de cultivo, tipode tecnología, experiencia previa con irrigación, mano de obradisponible, costo beneficio.

Tipo de suelo: Los suelos arenosos tienen una menorcapacidad de almacenamiento de agua y un alto índice defiltración. Por lo tanto requieren pequeñas y frecuentesaplicaciones de irrigación, particularmente donde el sueloarenoso es también superficial. Bajo estas circunstancias, laaspersión o goteo se adaptan mejor que el riego superficial. Ensuelo franco o arcilloso cualquiera de los tres métodos deirrigación pueden ser utilizados, sin embargo el riegosuperficial es el más comúnmente encontrado. Suelosarcillosos con bajas tasas de infiltración son ideales para elriego superficial.

Pendiente: Aspersión o goteo son preferidos sobre el riegosuperficial en superficies más inclinadas o con desniveles yaque no requieren poco o nada de nivelación de tierras.

Disponibilidad de agua: La eficiencia en la aplicación de aguaes generalmente más alta en goteo y aspersión, por lo queestos métodos son preferidos cuando la disponibilidad de aguaes corta. Sin embargo, debemos recordar que la eficiencia estáen función tanto del regador como del método utilizado.

Clima: Vientos fuertes pueden desviar el rocío de losaspersores. Bajo condiciones de vientos extremos, el goteo yel riego superficial son preferidos. En áreas de riegosuplementario, el goteo y la aspersión pueden ser másadecuados que el riego superficial debido a su flexibilidad yadaptabilidad en la variación de las demandas de riego de laparcela.

Calidad del agua: El riego superficial es preferido si el aguapara regar contiene muchos sedimentos. Estos sedimentospueden tapar los goteros o aspersores de los otros sistemas.

Tipo de cultivo: El riego superficial puede ser utilizado paracualquier tipo de cultivo. Los riegos de aspersión y goteo,debido a su alto nivel de inversión, son mayormente usadospara cultivos de alto valor comercial, como lo son vegetales yárboles frutales. Rara vez se utilizan para los cultivos básicosde menor valor. El riego por goteo es adecuado para regarplantas o arboles individuales como vegetales y caña deazúcar. No es recomendable para cultivos que crecen muycerca (por ejemplo, el arroz).

Tipo de tecnología: El tipo de tecnología afecta la elección deun método de irrigación. En general, el goteo y la aspersiónson métodos técnicamente más complicados. La compra deequipo requiere de un alto capital de inversión por hectárea.Para mantener el equipo se requiere un cierto nivel de “know-how” disponible. Además, un suministro regular decombustible y refacciones deben ser mantenidos que junto conla compra del equipo, puede requerir moneda extranjera.

Experiencia previa con irrigación: La elección de un métodode riego también depende de las tradiciones de irrigación en laregión o país. Introducir un método que antes era desconocidopuede conducir a complicaciones inesperadas. No es seguroque los campesinos aceptaran el nuevo método. Lamanutención del equipo puede ser problemática y los costospueden ser comparados con los beneficios.

Disponibilidad de mano de obra: La irrigación superficialtiene requerimientos de mano de obra mucho mayores que elgoteo y la aspersión. La irrigación superficial requiere unanivelación precisa del terreno, mantenimiento regular y un altonivel de organización de los campesinos para operar elsistema. Los sistemas de riego y aspersión requieren muy poconivelamiento de la tierra, la operación del sistema y elmantenimiento son menos intensivos para los obreros.

Costos y beneficios: Antes de seleccionar un método de riego,se debe hacer un estimado de los costos y beneficios de lasopciones disponibles. En términos monetarios, no solo es laconstrucción e instalación, también se deben tomar en cuentala operación y el mantenimiento (por hectárea). Estos costosluego deben ser comparados con los beneficios esperados. Esobvio que un agricultor solo estará interesado en implementarun método que será atractivo económicamente [8].

II. METODOLOGÍA

Evaluar las zonas agrícolas existentes y la distribución delos sistemas de riego en México

Determinar las variables críticas para diseño de un sistemade riego

Analizar la interacción entre las variables criticas Determinar las necesidades de agua de los principales

cultivos del Valle de Mexicali

III. RESULTADOS

En el estado de Baja California, existen 10 zonas productorasagrícolas, siendo las más importantes el Valle de Mexicali y elValle de San Quintín. Entre el algodón, el trigo y lasprincipales 10 hortalizas que se siembran se obtienen el 80%del valor de la producción agrícola de riego en el estado [9].El algodón ha estado entre los cultivos de mayor producción

46

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 56: Memoria Seminario FIM UABC 2014

en Mexicali y su Valle, en los últimos 5 años se cultivaron enpromedio 107,404.65 toneladas, siendo superado solo por laalfalfa (395,376.12 ton), el trigo de grano (532047 ton) y elzacate rye grass (156,174.79) [10].

La distribución de los métodos de riego utilizados en nuestropaís para aplicar el agua a las parcelas, el 90% son de riegopor gravedad y solo el restante 10% es de riego presurizado;de un total de superficie bajo riego del orden de los 6.5millones de ha, 3.5 millones de ha distribuidas en 85 distritosde riego y otras 3.0 millones de ha en 39,492 unidades deriego [11].

Una alternativa viable para administrar los recursos naturalesy mejorar la producción por cantidad de agua, es lograr quelos agricultores cambien su tradicional método de gravedadpara un eficiente sistema de riego presurizado.Lamentablemente, el costo de un sistema de riego presurizadoconvencional disuade a agricultores en adquirir estos sistemas,siendo ellos quienes dominan el sector agrícola en países dedesarrollo tal y como lo es México. Aunque, existenorganizaciones como la Financiera Rural que cuentan coniniciativas para dar apoyo en la tecnificación del riego, conmontos que llegan hasta 20,000 pesos por hectárea regada congoteo [12].

La evo transpiración de define como la perdida de humedad deuna superficie por evaporación directa junto con la perdida deagua por transpiración de la vegetación. Se expresa enmilímetros por unidad de tiempo, nos permite anticipar quetanto interactúa el clima del área con el cultivo paradeterminar las demandas de agua. Para el cálculo de la evotranspiración se utilizan los valores de radiación, temperaturade aire, humedad atmosférica y velocidad del viento [13].

Estaciones climatológicas son las encargadas de la mediciónde estas características. El SIMARC (Sistema de manejo einformación del Agua de Riego de Baja California), utiliza losdatos proporcionados por CIMIS (California IrrigationManagement Information System) quien actualmente cuentacon una red integrada por más de 120 estacionesclimatológicas localizadas en sitios agrícolas y urbanos através de California [14]. Los valores de evo transpiración dereferencia en California se han dividido en 18 Zonas, la zonaque colinda con el territorio del Valle de Mexicali es la zona18 que representa el Valle Imperial. Para efectos de diseño,solo nos interesa saber la máxima capacidad requerida por elsistema en cuestión de manejo de agua, es decir, el máximorequerimiento de agua de la planta con respecto al clima local.En los datos de la tabla de evo transpiración de referenciaproporcionada por CIMIS [15] observamos que el mes dondese requiere más agua para las plantas de la zona 18 es el mesde Julio con un valor de referencia 9.61 pulgadas/mes.

Utilizando la tabla de coeficientes (Kc) para algunos de losprincipales cultivos cosechados en Baja Californiaproporcionada por SIMARC [16] es posible determinar lamáxima capacidad que requerirá un sistema basándonos en elmáximo requerimiento de agua de cada planta, como semuestra en la tabla 1.

TABLA 1. MÁXIMAS NECESIDADES DE AGUA EN MM/DÍA PARALOS PRINCIPALES CULTIVOS DEL VALLE DE MEXICALI

Cultivo Máximo coeficiente (Kc) Milímetros al día

Algodón 0.95 7.73

Maíz (grano) 1.05 8.54

Maíz (forraje) 1.00 8.14

Trigo, cebada 1.10 8.95

Cártamo 1.05 8.54

Sorgo 1.05 8.54

Melón 0.95 7.73

Remolacha azucarera 1.15 9.36

Sandia 1.00 8.14

Girasol 1.10 8.95

Alfalfa 1.15 9.36

Papa 1.10 8.95

Tomate 1.10 8.95

Esparrago 1.00 8.14

Brócoli 1.00 8.14

Col 1.00 8.14

Zanahoria 0.95 7.73

Apio 0.95 7.73

Pepino 0.85 6.92

Lechuga 0.80 6.51

Cebolla 1.00 8.14

Cebollín 1.00 8.14

Chile, pimiento 1.00 8.14

Rábanos 0.85 6.92

Espinacas 0.95 7.73

Calabaza 0.90 7.32

Fresas 0.70 5.70

Pasto (forrajes) 0.95 7.73

Almendro 1.05 8.54

Kiwi 1.05 8.54

Manzano 1.05 8.54

Vid (viñedos) 0.80 6.51

Frutales de hueso 1.05 8.54

Nogales 1.05 8.54

Aguacate 0.70 5.70

Cítricos 1.00 8.14

Palma Datilera 0.95 7.73

Coníferas 1.15 9.36

Olivos 0.80 6.51

47

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 57: Memoria Seminario FIM UABC 2014

Estos valores no toman en cuenta las precipitaciones del mes,sin embargo esta zona no presenta muchas precipitaciones porlo que exceso de capacidad no sería significativo, y la lluviaserviría como un soporte a la capacidad del sistema.

Los suelos del Valle de Mexicali son de pendiente casi plana,lo que significa que son de drenaje lento y debido a la altaevaporación causada por el clima de la región, afloran lassales provocando baja productividad.

Se puede decir que el Valle de Mexicali cuenta con buenossuelos para la agricultura, porque dominan los suelos arenososy francos, presentándose en menor porcentaje los arcillososque no son recomendables. Todos estos suelos son deficientesen Nitrógeno y Fósforo por lo que se requiere fertilización conestos dos nutrientes para su uso agrícola [17].

La tabla 2 asigna ponderación a los diferentes tipos de suelo ysu salinidad como herramienta en la elección del método deriego.

TABLA 2. PONDERACIÓN PARA LA ELECCIÓN DE UN MÉTODO DERIEGO BASADO EN TIPO DE SUELO Y NIVEL DE SALINIDAD.

Gravedad Aspersión Goteo

Arcilloso

Poco salada 0-6 g/l XXXX XX -

Salada 6-12 g/l XXX XX X

Muy salada 12 omas

- - XX

Franco

Poco salada 0-6 g/l XXX XXXX XXXX

Salada 6-12 g/l XXX XX XXX

Muy salada 12 omas

- - XXX

Arenoso

Poco salada 0-6 g/l X XXX XXXX

Salada 6-12 g/l - XX XXX

Muy salada 12 omas

- - XXX

IV. CONCLUSIONES

Tomando en cuenta que el Valle de Mexicali es una zona defuerte producción agrícola, la tecnificación de sus sistemaspresenta grandes áreas de oportunidad para la gestiónsustentable del agua.

Los tipos de suelo y el nivel de evo transpiración para cultivos

del Valle de Mexicali son factores críticos en el diseño de unsistema de riego. Sin embargo se requieren datos adicionalesde entrada como lo es las características físicas y químicas del

agua, la pendiente y extensión del terreno, disponibilidad deenergía eléctrica, entre otros.

En la continuación de esta investigación, se llevara a cabo elanálisis de las condiciones naturales para la parcela 63 Z-1P1/17 del ejido Nuevo León, la cual tiene una extensión de 6hectáreas y es regada por el método de gravedad. Esta parcelaservirá como modelo para elaborar el diseño de un sistema deriego presurizado automatizado, para posteriormente obtenerun análisis costo beneficio que nos permitirá comprobar lasustentabilidad tanto ecológica como económica de estossistemas, para la zona del Valle de Mexicali.

REFERENCIAS

[1] James, L.G (1988), Principles of Farm Irrigation System Design 1stEdition, Irrigation Requirementes pp. 36, Nueva York: John Wiley andSons Inc.

[2] Food and Agriculture Organization (FAO), The practice of Irrigation,The perspective and objectives of irrigation, Accesado Octubre 2014http://www.fao.org/docrep/t0231e/t0231e03.htm#1.3 advantages anddisadvantages of surface irrigation.

[3] Ciclohidrologico.com, Escorrentía superficial, Accesado octubre 2014http://www.ciclohidrologico.com/escorrenta_superficial

[4] Walker, W.R., Skogerboe G.V. (1987): Surface irrigation: Theory andpractice. Prentice Hall, Englewood Cliffs.

[5] Food and Agriculture Organization (FAO), Irrigation WaterManagement: Irrigation methods Chapter 1: Introduction, AccesadoOctubre 2014 http://www.fao.org/docrep/s8684e/s8684e02.htm M.Young, The Technical Writer’s Handbook. Mill Valley, CA: UniversityScience, 1989.

[6] Food and Agriculture Organization (FAO), Chapter 5. SprinklerIrrigation, Accesado Octubre 2014http://www.fao.org/docrep/s8684e/s8684e06.htm

[7] Food and Agriculture Organization (FAO), Chapter 14: Drip Irrigation,Design criteria and considerations., Accesado Octubre 2014ftp://ftp.fao.org/docrep/fao/010/a1336e/a1336e14a.pdf

[8] Food and Agriculture Organization (FAO), Chapter 14: Drip Irrigation,Design criteria and considerations., Accesado Octubre 2014ftp://ftp.fao.org/docrep/fao/010/a1336e/a1336e14a.pdf

[9] Secretaria de Fomento Agropecuario, sefoa.gob.mx, Actividadeseconómicas, Accesado Octubre 2014,http://www.sefoa.gob.mx/actividadeseconomicas.html

[10] Oficina Estatal de Informacion para el Desarrollo Rural Sustentable,Series Históricas Agrícolas, Accesado Octubre 2014http://www.oeidrus-bc.gob.mx/oeidrus_bca/

[11] M.C. Pedro Lazaro Chavez, Dr. Heber Saucedo Rojas, M.C. FelipeZatarain Mendoza, Folleto de Riego por Gravedad, Instituto Mexicanode Tecnologia del Agua Agosto 2010, Accesado Octubre 2014http://www.cofupro.org.mx/cofupro/images/contenidoweb/indice/publicaciones-nayarit/FOLLETOS%20Y%MANUALES/FOLLETOS%20IMTA%202009/folleto%202%20RiegoGravedad.pdf

[12] Financierarural.gob.mx, Tecnificación del riego, Accesado octubre 2014http://www.financierarural.gob.mx/ApoyosProductoresIntermediarios/Programas/sagarpa/tecnificacion.html

[13] Food and Agriculture Organization (FAO), Chapter 2 Penman-Monteithequation, Accesado Octubre 2014,http://www.fao.org/docrep/x0490e/x0490e06.htm

[14] Sistemas de manejo del agua de Riego en Baja California, Que esSIMARC, Accesado Octubre 2014,http://www.simarbc.gob.mx/simarbc.htm

48

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 58: Memoria Seminario FIM UABC 2014

[15] California Irrigation Management Information System (CIMIS),Reference Evotranspiration Zones Map, Accesado Octubre 2014http://www.cimis.water.ca.gov/App_Themes/images/etozonemap.jpg

[16] Sistema de Manejo del Agua de Riego en Baja California, Coeficientedel cultivo, Accesado Octubre 2014http://www.simarbc.gob.mx/descargas/Coeficiente%20del%20cultivo%20(Kc).pdf

[17] mexicali.gob.mx, Plan de Ordenamiento Ecológico, Suelos. AccesadoOctubre 2014http://www.mexicali.gob.mx/transparencia/administracion/ordenamientoecologico/plandeordenamientoecologico.pdf

49

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 59: Memoria Seminario FIM UABC 2014

1er y 2do. Seminario de Investigación de la Facultad de Ingeniería,

Campus Mexicali

Área de Computación

Page 60: Memoria Seminario FIM UABC 2014

Herramienta Gráfica para el Aprendizaje de laProgramación

Alma Delia Valenzuela Márquez, Cecilia Margarita Curlango Rosas

Programa de Maestría y Doctorado en Ciencias e IngenieríaUniversidad Autónoma de Baja California.

Facultad de Ingeniería.Mexicali, Baja California México

alma.delia.valenzuela.marquez, [email protected]

Resumen—La programación es una tarea que actualmente esrealizada por diversas disciplinas y profesiones. Por tanto lademanda de programadores y de conocimientos de programaciónes cada vez mayor y en consecuencia la oferta de cursos paraenseñanza de la ésta ha crecido rápidamente. Sin embargo, lasherramientas que actualmente son utilizadas para la enseñanza dela programación deben ser mejoradas para que los estudianteslogren un aprendizaje significativo no sólo de los conceptosteóricos de la programación sino también de su relación con lapráctica. En el presente documento se establecen las bases parauna propuesta de desarrollar una herramienta que permita apoyara los estudiantes de programación para comprender con mayorfacilidad los conceptos de la programación orientada a objetosmediante el uso del lenguaje Java de una forma gráfica y atractiva.

I. INTRODUCCIÓN

La programación es una tarea que actualmente es realizadapor diversas disciplinas y profesiones. Por ejemplo, losfotógrafos utilizan la programación al configurar las cámaras,los contadores al manipular datos en hojas de cálculomediante macro instrucciones, los músicos al manipular elsonido en sintetizadores, los mecánicos al configurarparámetros de referencia en sistemas de diagnósticoautomotriz, entre muchos otros como indican Felleisen et. al.[1]. Por tal, la demanda de programadores y de conocimientosde programación es cada vez mayor y en consecuencia laoferta de cursos para enseñanza de ésta ha crecidorápidamente según Pears et. al. [2]. Siendo esta un área muysolicitada, en este documento se establecen las bases para unapropuesta de desarrollar una herramienta que permita apoyara los estudiantes de programación para comprender mejor losconceptos de la programación orientada a objetos con el usodel lenguaje Java de una forma gráfica y atractiva.

II. DESCRIPCIÓN DEL PROBLEMA

El interés de estudiar programación cada vez es mayor ylos cursos de introducción a la programación se hanincrementado rápidamente. Como indican Pears et. al., dentrode los planes curriculares que las universidades y bachilleratosofertan se encuentra el estudio de la programación como unamateria básica y desde hace ya varias décadas se ha tenido elinterés de encontrar los métodos de enseñanza-aprendizajeadecuados que permitan a los estudiantes comprender ymanejar los conceptos de la programación en diferentes

situaciones y contextos. Una de las tendencias más recientespara este proceso es el énfasis en el paradigma orientado aobjetos y su relación con los métodos pedagógicos actuales[2]. Lee et al. [3] mencionan que en el 2001 la IEEEComputer Society/ACM publicaron el Modelo Curricular deComputación que contiene las recomendaciones para loscursos de programación en ciencias computacionales entre loscuales se sugieren los conceptos que corresponden alparadigma de la programación orientada a objetos y King [4]expone que el lenguaje Java es el mejor lenguaje para iniciar aestudiar este paradigma pues es uno de los mayormenteutilizados en la industria y permite el desarrollo paraaplicaciones en Web así como programas sencillos decomputación.

Actualmente en México, el sistema educativo ha adoptadoel Enfoque Educativo por Competencias para los sistemasmedio y superior como metodología pedagógica. Comoexponen Cabrero et. al. [5] este enfoque considera a laeducación “como una compleja combinación deconocimientos, actitudes, destrezas y valores, que semanifiestan en el contexto de la ejecución de una tarea,reconociendo la existencia de diferentes niveles decompetencia en el desempeño mostrado frente a una demandaespecífica de acción-interacción proveniente del entorno:novato-principiante, experimentado y especialista”. Esteenfoque educativo ha permitido que la enseñanza cambie de laforma tradicional a una centrada en el estudiante, en dondeéste forma parte activa de su aprendizaje pues vaconstruyendo su conocimiento en base a lo ya aprendidomediante la solución de problemas, lo que le permiteestructurar e integrar los conceptos dentro de diversoscontextos [6].

Sin embargo, aprender a programar no es una tareasencilla. Muchos han sido los estudios sobre las dificultadesde aprender a programar. Lahtinen et. al. [7] dicen quemuchos estudiantes tienen problemas de aprendizaje y quedeben entender correctamente los conceptos abstractos de lamateria pero que no cuentan con suficientes recursos de apoyoy sufren por la necesidad de instrucción personal. Así mismo,King [4] menciona que estudiar Java como primer lenguaje deprogramación requiere que el estudiante aprendadirectamente sobre la encapsulación de clases, objetos ymétodos los conceptos usuales de tipos de datos, variables,

50

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 61: Memoria Seminario FIM UABC 2014

valores que toman las variables y sus referencias junto con elentendimiento de la sintaxis para realizar todas estas tareas, loque puede ser frustrante para los estudiantes.Con el fin de enfrentar este tipo de dificultades se hanpropuesto e implementado diversas estrategias y herramientaspara apoyar a los novatos-principiantes en su aprendizaje.Pears et. al. [2] y Georgantaki y Retalis [8] exponen en sustrabajos una gran variedad de herramientas que se handesarrollado con este fin. Unas son las de tipo visual queutilizan elementos gráficos para representar los procesosefectuados por los objetos. Entre los más destacados de estetipo es BlueJ1, el cual presenta una estructura gráfica endiagramas de Lenguaje Unificado de Modelado (UML-Unified Modeling Language) que permite la visualización dela interacción entre los componentes del programa (clases,objetos, métodos, atributos) con el propósito de que losestudiantes se enfoquen en las actividades y tareas deprogramación y logren su aprendizaje como indican Kölling yRosenberg [9]. Sin embargo, como BlueJ presenta unaestructura estática del diagrama de clase, no hay unavisualización dinámica de la ejecución de los programasdesarrollados en él, y se encontró que los alumnos al trabajaren la herramienta no distinguen entre una clase y un objeto yse les dificulta observar la transición de elementos de unmétodo a otro, además les es muy difícil relacionar losdiagramas visualizados con la codificación que corresponde aldiagrama, indican Ben-Ari et. al. [10].Otro tipo de herramientas utilizadas para la educación son lasutilizadas de forma profesional, como Eclipse2, que presentanambientes de desarrollo integrados (IDE-IntegratedDevelopment Environment) con posibilidades de edición,compilación, ejecución de programas en diversos lenguajescontando con herramientas adicionales para facilitar lacodificación.

Sin embargo, la complejidad que presentan estos tipos deambientes pueden abrumar a los novatos-principiantes lo queles puede requerir mucho tiempo para aprender a utilizarlas yalejarse de la actividad propia de la programación comoseñalan Pears et. al. [2].

III. HIPÓTESIS

Por tanto para integrar los beneficios de ambos tipos deherramientas en una sola, se plantea la hipótesis, ¿Unaherramienta gráfica con características de un IDE apoyará yfacilitará a los novatos-principiantes en su aprendizaje dellenguaje Java?

IV. OBJETIVO

Para comprobar la hipótesis planteada anteriormente, sepropone una investigación cuyo objetivo principal será:desarrollar una herramienta útil y fácil de usar, para elaprendizaje de la programación, tal que de forma gráfica

1 http://www.bluej.org2 http://www.eclipse.org

facilite el aprendizaje del lenguaje de programación Java paranovatos-principiantes.

Objetivos Particulares

Para lograr el objetivo principal se han identificado lossiguientes objetivos particulares:

1. Identificar las herramientas y lenguajes queactualmente se utilizan para la enseñanza de laprogramación en los primeros cursos deuniversidades y bachilleratos tecnológicos.

2. Investigar qué otro tipo de herramientas estándisponibles para el aprendizaje de la programación eidentificar sus características.

3. Diseñar y desarrollar una herramienta gráfica para elaprendizaje de la programación que sea fácil deutilizar y atractiva para los novatos-principiantes enprogramación.

4. Evaluar la herramienta desarrollada con novatos-principiantes tanto de universidad como debachillerato para conocer si es fácil de usar y útil y sifacilita su aprendizaje de la programación orientada aobjetos en Java.

V. METODOLOGÍA

La metodología que se seguirá está representada en laFigura 1, la cual estará basada en la metodología centrada enel usuario (D. Norman [11]). Esta metodología guiará eldiseño de la herramienta gráfica en apoyo a los novatos-principiantes en el aprendizaje de la programación. Eldiagrama de la Figura 1 muestra el proceso a seguir en estainvestigación: (a) Comprender el dominio completo medianteuna revisión de la literatura acerca de la problemática de losestudiantes, (b) Realizar un caso de estudio que constará deuna observación de clase y entrevistas con estudiantes deuniversidad y de bachillerato para conocer las herramientascon las que cuentan y la complejidad que éstas les presentanpara el aprendizaje de la programación, (c) Elaborar un diseñode la herramienta, (d) Retroalimentar el diseño realizandopruebas de usabilidad con alumnos con el fin de encontraráreas de oportunidad para la mejora del diseño (e)Implementar el diseño (f) Evaluar la herramienta con alumnosen una clase.

Figura 1. Metodología para la realización de una herramienta gráfica paranovatos-principiantes en programación.

51

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 62: Memoria Seminario FIM UABC 2014

VI. CONCLUSIÓN

Dada la proliferación de dispositivos programables en usoen la vida cotidiana, estudiar programación es y seguirásiendo un tema de interés, para lo cual es importante contarcon las herramientas adecuadas para su desarrollo. Estapropuesta de desarrollar una herramienta gráfica aportará unnuevo recurso de aprendizaje para los novatos-principiantesque les permita desarrollar sus programas de una forma fácil yatractiva, y que conforme avancen en su aprendizaje puedantransitar a una herramienta profesional.

REFERENCIAS[1] M. Felleisen, R. B. Findler, M. Flatt, and S. Krishnamurthi, “Theteachscheme! project: Computing and programming for every student,”Computer Science Education, vol. 14, no. 1, pp. 55–77, 2004.[2] A. Pears, S. Seidman, L. Malmi, L. Mannila, E. Adams, J. Bennedsen, M.Devlin, and J. Paterson, “A survey of literature on the teaching ofintroductory programming,” ACM SIGCSE Bulletin, vol. 39, no. 4, pp. 204–223, 2007.[3] M.-C. Lee, D. Y. Ye, and T. I. Wang, “Java learning object ontology,”Advanced Learning Technologies, 2005. ICALT 2005. Fifth IEEEInternationalConference on, pp. 538–542, 2005.[4] K. King, “The case for java as a first language,” Proceedings of the 35th

Annual ACM Southeast Conference, pp. 124–131, 1997. [5] B. G. Cabrero, J.L. Enríquez, E. L. Serrano, and M. Rueda, “Modelo de evaluación decompetencias docentes para la educación media y superior,” RevistaIberoamericana de Evaluación Educativa, vol. 1, no. 3, pp. 124–136, 2008.[6] S. Hadjerrouit, “A constructivist framework for integrating the javaparadigm into the undergraduate curriculum,” ACM SIGCSE Bulletin, vol.30, no. 3, pp. 105–107, 1998.[7] E. Lahtinen, K. Ala-Mutka, and H.-M. J¨arvinen, “A study of thedifficulties of novice programmers,” ACM SIGCSE Bulletin, vol. 37, no. 3,pp. 14–18, 2005.[8] S. Georgantaki and S. Retalis, “Using educational tools for teaching objectoriented design and programming,” Journal of Information TechnologyImpact, vol. 7, no. 2, pp. 111–130, 2007.[9] M. K¨olling and J. Rosenberg, “Guidelines for teaching object orientationwith java,” ACM SIGCSE Bulletin, vol. 33, no. 3, pp. 33–36, 2001.[10] M. Ben-Ari, N. Ragonis, and R. B.-B. Levy, “A vision of visualization inteaching object-oriented programming,” Proceedings of the Second ProgramVisualization Workshop. University of Aarhus, HornstrupCentret, Denmark,pp. 83–89, 2002.[11] D. A. Norman, The Design of Everyday Things, reprint ed. Basic Books,Sep. 2002.

52

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 63: Memoria Seminario FIM UABC 2014

Asistente para el Aprendizaje de la ProgramaciónIntroductoria en Lenguaje C

Alma Delia Valenzuela Márquez, Cecilia Margarita Curlango Rosas

Programa de Maestría y Doctorado en Ciencias e IngenieríaUniversidad Autónoma de Baja California.

Facultad de Ingeniería.Mexicali, Baja California México

alma.delia.valenzuela.marquez, [email protected]

Resumen—Existen diversos problemas identificados en losestudiantes principiantes en su aprendizaje de programación. Lafalta de orientación en la construcción adecuada de un programay el reconocimiento del funcionamiento real de las instruccionesde los lenguajes de programación son algunos de ellos. En esteartículo se presenta un asistente para el aprendizaje de laprogramación con una interfaz que permite la construcción de laestructura de un programa a través de preguntas clave que guíaneste proceso y el prototipo inicial de la interfaz de usuario delasistente.

Palabras Clave—asistente de programación, herramienta deprogramación, aprendizaje, programación introductoria,lenguaje C.

I. INTRODUCCIÓN

Durante mucho tiempo se ha estudiado la problemática queenfrentan los estudiantes de programación en sus etapasiniciales. El buen entendimiento de conceptos abstractos yestructuras básicas (inicialización de variables, condiciones yciclos) [1], la falta de orientación en reconocer e identificar lostérminos que se deben utilizar para realizar los programas y lacomprensión de la estructura que debe seguirse para que unprograma funcione adecuadamente [2] son sólo algunos deellos.

En apoyo a los estudiantes en su aprendizaje se hanpropuesto diversas herramientas que utilizan la visualizacióncomo una estrategia, buscando que las representacionesgráficas puedan mejorar el entendimiento de cómo funcionanlos programas [3]. Existen muchos sistemas de visualización,algunos enfocados en mostrar el comportamiento de losprogramas y las relaciones entre los componentes, y otros enmostrar las estructuras internas de los datos y su evolucióndurante el programa [4]. Todos ellos básicamente enfocados apresentar el funcionamiento de los procesos más que en laorientación que se requiere para la elaboración del programa.

En este artículo se presenta una herramienta que asiste alos estudiantes principiantes a construir programas a través deuna serie de cuestionamientos que guían este proceso desde lacreación de variables hasta formar la estructura completa delas acciones que el principiante desea realizar. En la sección IIse presentan algunas herramientas que utilizan técnicas devisualización para construcción de programas. En la secciónIII se presenta la metodología que se siguió para la elaboracióndel prototipo inicial del asistente y la que se seguirá para laconstrucción final del asistente. En la sección IV se presentanlas características del asistente de programación y los diseños

prototipo de la interfaz del asistente. Las conclusiones sepresentan al final del documento.

II. HERRAMIENTAS DE VISUALIZACIÓN

Existen diversas estrategias de visualización que se hanpropuesto y que han sido usadas y evaluadas para asistir a losestudiantes en su aprendizaje, algunas se presentan medianteinterfaces gráficas, otras como juegos o robots [5].Herramientas de programación visual, como Scratch1 y Alice2,se han usado para enseñar programación a estudiantes encursos introductorios, los cuales utilizan bloques gráficos querepresentan bloques de código para la construcción de susprogramas mediante arrastrar y soltar tales gráficos [6]. Alicees una herramienta basada en micromundos en 3D en la quelos objetos y sus comportamientos son visualizados a través deuna interfaz de usuario gráfica integrada [7]. Scratch es unaherramienta accesible a través de la web que permite a losusuarios (principalmente entre las edades de 8 a 16 años)aprender programación de computadoras mientras trabajan enel manejo de proyectos personales como historias animadas ojuegos [8]. Otras alternativas de herramientas para elaprendizaje de la programación han sido la creación de sitiosweb como code3 y blockly4 que animan a las personas aaprender código de programación mediante lecciones gratuitasutilizando la estructura de arrastrar y soltar bloques paraconstruir un programa.

Sin embargo, diversas investigaciones han demostrado quela simple visualización no es suficiente para respaldar el éxitodel aprendizaje de los procesos dinámicos de los algoritmos.En un estudio realizado por Pears et al. como resultado de sumeta-análisis encontraron que cuando un estudiante seinvolucra con una herramienta, con algún tipo de actividad,como respondiendo a preguntas, haciendo predicciones oexperimentos, éste aprende mejor [10].

III. METODOLOGÍA

En este trabajo se propone desarrollar una herramienta deprogramación visual con características de un asistente queguíe al programador principiante durante su trayecto deprogramador inicial a programador experto. La metodología

1 http://scratch.mit.edu/2 http://www.alice.org3 http://code.org/4 https://code.google.com/p/blockly/

53

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 64: Memoria Seminario FIM UABC 2014

que guía a este trabajo es el Diseño Contextual Rápido, la cualreúne diversas estrategias (entrevistas, creación de prototiposde papel, evaluación de prototipos, escenarios de uso) deldiseño contextual para apoyar el desarrollo de proyectosinvolucrados en el Diseño Centrado en el Usuario [10]. Paraello es importante que el asistente sea capaz de comunicarsecon el principiante, siendo esencial que el vocabulario queemplee el asistente sea comprensible para el principiante.

Por lo tanto, para guiar el diseño inicial de los mensajes delasistente se realizó un estudio sobre los términos identificadospor Stefik y Siebert en [11], traducidos al Español paradeterminar cuáles de ellos son los más adecuados a laactividad a la que se hace referencia.

A partir de los resultados del estudio anterior, seconstruyeron interfaces de usuario prototipo que se utilizaránpara asistir al principiante al programar. Estos prototipos seránevaluados por un grupo de estudiantes principiantes deprogramación. Una vez que se realice la evaluación, laretroalimentación obtenida de este estudio se utilizará paramodificar los diseños de las interfaces. Finalmente la utilidady facilidad de uso de los prototipos finales se medirá con otrogrupo de estudiantes principiantes dentro de un salón de clase.

IV. ASISTENTE DE PROGRAMACIÓN

Un asistente es una de las herramientas que lasaplicaciones de software tienen actualmente, facilita ladefinición del marco complejo de un programa, proporcionauna inicialización apropiada de los procesos del software porla presentación al usuario de una secuencia de múltiplesdiálogos, y presenta una cantidad mínima de tareas en cadadiálogo [12]. La herramienta que se propone en este trabajo,conjuga las características de un asistente y elementos visualespara guiar paso a paso a un estudiante en la construcción de unprograma en lenguaje C.

Las interfaces que componen al asistente de programaciónson:

Asistente Gráfico para la Edición de Programas(AGEP): Una interfaz formada por una serie de ventanasque guían paso a paso al estudiante a iniciar con laconstrucción de un programa tanto con la estructura comocon las especificaciones básicas, como la declaración devariables de entrada y salida de datos, que son necesariaspara que un programa funcione adecuadamente.

Visualizador y Editor Gráfico (VEG): Una interfaz quepermite la visualización de bloques gráficos de código quepermiten editar el programa generado con el AGEP o lacreación completa de un programa sin la utilización delAGEP.

Visualizador y Editor de Texto (VET): Una interfazque muestra el código en desarrollo y que permite laedición del programa por medio de texto.

En la fig 1 se muestra un diagrama a bloques que expresa larelación que tienen las interfaces que componen al asistente.La interfaz AGEP ayuda a especificar los elementos que debecontener el programa y al generar el código, éste se presentaen la interfaz VET. La interfaz VEG ayuda a incorporar lasinstrucciones que se necesitan en el VET. Si un programa fue

creado por AGEP, el VEG puede ayudar a modificar el códigogenerado por éste. Una vez con el código generado en VET, sepuede compilar y ejecutar el programa.

Figura 1. Diagrama a bloques que representa la relación de las interfacesAGEP, VEG y VET.

A. DISEÑO DE LA INTERFAZ AGEP

Para el diseño del asistente se consideraron las siguientescaracterísticas como un esquema básico para suimplementación:1. El asistente ayuda en la selección de la estructura adecuada

para el programa a construir, incluye las instruccionesnecesarias para un programa a través de una guía paso apaso y genera el código del programa en lenguaje C.

2. El asistente permite hacer modificaciones a los datos encualquiera de sus pasos antes de generar el código delprograma.

3. El asistente genera un archivo con extensión .c, el cualpuede ser visto en el VET.

4. El asistente no puede modificar un archivo .c que ya estécreado.

Así mismo, se consideró que el estudiante debe cumplir conlas siguientes características para que el asistente puedaauxiliarle:1. El alumno debe tener de 2 meses a 1 año como mínimo de

experiencia en la solución de problemas por medio dealgoritmos.

2. El alumno debe tener el planteamiento de la solución delproblema mediante un algoritmo o diagrama de flujo antesde utilizar el asistente.

Para el diseño de los mensajes con los cuales el asistente seva a comunicar con el estudiante, se realizó un estudio paraidentificar los términos considerados más intuitivos por losestudiantes principiantes. De este estudio se obtuvieron lostérminos para definir los tipos de datos (entero, decimal ytexto) y las acciones más utilizadas en un programa (solicitar ymostrar información).

B. DESCRIPCIÓN DE LA INTERFAZ AGEP

La interfaz AGEP, en su prototipo inicial, comprendediversas ventanas con los pasos a seguir para resolver diversostipos de problemas. El procedimiento inicial del asistente es elsiguiente:

1. Primero se presenta una ventana que indica al usuariolos puntos en los cuáles puede ayudar el asistente:Seleccionar una estructura, agregar instrucciones ygenerar código en lenguaje C de un programa (fig 2).

2. La siguiente ventana muestra un menú de opcionesdonde se podrá elegir entre cuatro tipos de estructuras:

54

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 65: Memoria Seminario FIM UABC 2014

Entrada/Salida Entrada/Operaciones/Salida Condicionales Ciclos

De estas cuatro opciones, sólo las primeras dos seimplementaron en el prototipo inicial (figs 3a y 3b).Dependiendo del tipo de estructura que se haya elegido,el conjunto de ventanas siguientes mostrarán una guíacon todos los pasos que se deben seguir para construirun programa con la estructura seleccionada. Además,la guía tendrá un indicador que denota el paso en el quese encuentra el estudiante en determinado momento(fig 4).

3. Si se considera que se eligió la estructura Entrada/Operación/Salida, la ventana siguiente es ladeclaración de variables (fig 5). En esta ventana semuestra la guía que indica los pasos a seguir paraconstruir el programa, indicando que se encuentra en elpaso de declaración de variables, y una tabla en la quepuede agregar todas las variables que desea agregar alprograma. Por cada variable puede elegir: (a) el tipo dedato de un menú desplegable con tres opciones: entero,decimal y texto; (b) escribir el nombre de la variable; y(c) asignar un valor inicial. Al cambiar de renglón, elasistente automáticamente muestra en la últimacolumna la instrucción en lenguaje C para declarar unavariable con los datos elegidos. Así también aparece unícono de eliminación a la izquierda del reglónutilizado. Esta tabla puede guardar la información detodas las variables que se deseen y permite realizarcualquier modificación a los datos de las variables.

4. La ventana que continúa es la de Solicitar Datos (fig6). En ella se muestra una tabla en la que el estudianteescribe el mensaje que desea enviar con la solicitud dealgún dato al programa y puede elegir de una listadesplegable con los nombres de las variables que hayadeclarado, la variable en donde quiera que se guarde lainformación solicitada. Al cambiar de renglón, elasistente automáticamente muestra en la últimacolumna las instrucciones en lenguaje C para mostrarel mensaje a pantalla y capturar información desdeteclado. Un ícono de eliminación también aparece enel extremo izquierdo del renglón.

5. La siguiente ventana es la de Operaciones (fig 7). Enesta ventana se presenta una tabla en donde se puedeelegir en la primer columna, de la lista desplegable unavariable para guardar el resultado de la operación. Enlas columnas segunda y cuarta se puede elegir, de unalista desplegable la variable que contenga los datos acalcular o escribir directamente un valor numérico. Enla tercera columna se puede elegir alguna de las cuatrooperaciones básicas (suma, resta, multiplicación ydivisión). Al cambiar de renglón, el asistenteautomáticamente muestra en la última columna lainstrucción en lenguaje C para realizar la operación yen el extremo izquierdo de la columna aparece unícono de eliminación.

6. La última ventana es la de Mostrar Datos (fig 8). Enesta ventana se presenta una tabla en la que se puedeescribir en la primera columna un mensaje que se desea

mostrar y en la segunda columna se puede elegir, deuna lista desplegable una variable para mostrar suvalor. Al cambiar de renglón, el asistenteautomáticamente muestra en la última columna lainstrucción en lenguaje C para mostrar un mensaje conuna variable. En el extremo izquierdo del renglónutilizado aparece un ícono de eliminación.

7. El último paso es generar el código del programa en unarchivo .c, el se podrá ver en el VET. Cabe mencionarque la generación del este archivo puede hacerse encualquiera de las ventanas, pero según en la ventana enque se genere el archivo, el código en él será solo conlos datos que hasta ese momento se hayan agregado alasistente.

Figura 2. Ventana inicial del asistente.

Figura 3. (a) Ventana que muestra la estructura para el tipo Entrada/Salida. (b)Ventana que muestra la estructura para el tipo Entrada/Operación/Salida.

Figura 4. (a) Guía de los pasos a seguir en la estructura Entrada/Salida. (b)Guía de los pasos a seguir en la estructura Entrada/Operación/Salida.

Figura 5. Ventana que muestra una tabla para definir los datos a declarar en unprograma.

55

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 66: Memoria Seminario FIM UABC 2014

Figura 6. Ventana que muestra una tabla para definir los mensajes necesariospara solicitar los datos que requiere un programa.

Figura 7. Ventana que muestra una tabla para definir las operaciones arealizar.

Figura 8. Ventana que muestra una tabla para definir los mensajes y lasvariables a mostrar.

V. CONCLUSIÓN

En este artículo se presentó una herramienta para asistir alos estudiantes principiantes en programación. Para laconstrucción de la interfaz de usuario del asistente seconsideraron las traducciones al español de los términosidentificados en [11] que resultaron ser los más intuitivos paralos estudiantes principiantes con el fin de utilizarlos para losmensajes que el asistente utiliza para comunicarse con elestudiante. También se presentaron las ventanas quecomponen al prototipo inicial del asistente y el procedimientoque éste realiza al ser utilizado.

Esta herramienta se propone con el fin de orientar a losestudiantes desde sus etapas iniciales, pero también como unaherramienta que se va adaptando a las necesidades de losestudiantes conforme van avanzando en su aprendizaje,permitiéndoles comprender la estructura de un programa asícomo, a través de preguntas específicas, identificar lasinstrucciones que deben incorporarse en un programa para quefuncione adecuadamente.

REFERENCIAS

[1] Lahtinen, Essi y Ala-Mutka, Kirsti y Järvinen, Hannu-Matti. "A study ofthe difficulties of novice programmers." ACM SIGCSE Bulletin, 2005:14 -18.

[2] Mow, I.T.Chan. «Issues and Difficulties in Teaching Novice ComputerProgramming.» Innovative Techniques in Instruction Technology, E-learning, E-assessment, and Education, 2008: 199 - 204.

[3] Naps, Thomas L y Rößling, Guido y Almstrum, Vicki y Dann, Wanda yFleischer, Rudolf y Hundhausen, Chris y Korhonen, Ari y Malmi, Lauri yMcNally, Myles y Rodger, Susan y others. "Exploring the role ofvisualization and engagement in computer science education." ACMSIGCSE Bulletin, 2002: 131 -152.

[4] Gomes, Anabela y Mendes, António José. "An Environment to ImproveProgramming Education." Proceedings of the 2007 InternationalConference on Computer Systems and Technologies, 2007: 88:1 - 88:6.

[5] Costa, Carlos J. y Aparicio, Manuela. "Evaluating Success of aProgramming Learning Tool." Proceedings of the InternationalConference on Information Systems and Design of Communication,2014: 73 - 78.

[6] Hu, Minjie y Winikoff, Michael y Cranefield, Stephen. "A Process forNovice Programming Using Goals and Plans." Proceedings of theFifteenth Australasian Computing Education Conference (ACE2013),Adelaide, Australia, 2013.

[7] Goulet, Daniel y Slater, Donald. "Alice and the introductoryprogramming course: An invitation to dialogue." Infotmation SystemEducational Journal, 2009.

[8] Maloney, John y Resnick, Mitchel y Rusk, Natalie y Silverman, Brian yEastmond, Evelyn. "The scratch programming language andenvironment." ACM Transactions on Computing Education (TOCE),2010: 16.

[9] Pears, Arnold y Seidman, Stephen y Malmi, Lauri y Mannila, Linda yAdams, Elizabeth y Bennedsen, Jens y Devlin, Marie y Paterson, James."A survey of literature on the teaching of introductory programming."ACM SIGCSE Bulletin, 2007: 204 - 223.

[10] Holtzbaltt, Janet, Jessamyn Burns Wendell, and Shelley Wood. “RapidContextual Design. A How-to Guide to Key Techniques for User-Centered Design.” USA: Elsevier, 2005.

[11] Stefik, Andreas y Siebert, Susanna. "An Empirical Investigation intoProgramming Language Syntax." Trans. Comput. Educ., 2013: 19:1--19:40.

[12] Washizaki, H. y Adachi, T. y Fukazawa, Y. "Generating Wizards forInitializing Software Components." Computer and InformationTechnology, 2007. CIT 2007. 7th IEEE International Conference on,2007: 873-878.

56

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 67: Memoria Seminario FIM UABC 2014

1er y 2do. Seminario de Investigación de la Facultad de Ingeniería,

Campus Mexicali

Área de Mecánica

Page 68: Memoria Seminario FIM UABC 2014

Ana Cristina García IbarraUniversidad Autónoma de Baja California,

Facultad de Ingeniería, Campus Mexicali, MéxicoE-mail: [email protected]

*Israel Sauceda MezaE-mail: [email protected],

**Carlos Alfonso Miranda HerreraE-mail: [email protected]

*Universidad Autónoma de Baja California** Comisión Federal de Electricidad

Resumen- Durante la construcción de un pozo, losprocesos de revestimiento y cementación son de vitalimportancia para el mismo, dado que una deficienteselección y fallas en los cálculos traerían drásticasconsecuencias, tales como incremento de los costos,riesgo de pérdida del pozo, contaminación ambientaly a la seguridad de los trabajadores. Básicamentepara conocer una tubería se toman en cuenta dosfactores principales: el conocimiento del material(capacidad de resistencia) y el conocimiento de lascondiciones de esfuerzo (cargas) a los que van a estarsujetos las tuberías. En el Campo Geotérmico deCerro Prieto, existe un problema de colapso de pozosque se presenta durante la inducción y calentamientodel mismo, sin embargo, no se sabe con certeza enqué etapa ocurre el daño, este daño puede ocurrir enla tubería durante el proceso de fabricación, en lainstalación de la tubería o en la etapa de inducción ycalentamiento. Cerro Prieto, cuenta a la fecha con 166pozos productores en operación, y para mantener esaproducción se perforan aproximadamente 9 pozos alaño, con un costo aproximado de 5 millones dedólares cada uno. Cuando la tubería falla, durante elarranque, se tiene que volver a intervenir para sureparación, con un costo adicional. Sin embargo apesar de que se sabe que la tubería sufre deproblemas de dilatación térmica, se desconoce elmecanismo de su deformación, ya que la cimentaciónde los pozos nunca es uniforme. Cuando se harecuperado material de estos pozos, no se encuentracorroído ni erosionado, es por esta razón que seespera que el fallo sea mecánico. De aquí surge laimportancia de hacer este análisis.

Keywords: Cerro Prieto, tuberías derevestimiento, colapso de pozos, esfuerzos térmicos.

I. INTRODUCCIÓN

El Campo Geotérmico de Cerro Prieto,desarrollado y operado por la Comisión Federal deElectricidad (CFE), inicio operaciones en 1973 yen la actualidad cuenta con 720 MW de capacidadinstalada. El yacimiento es de origen sedimentario,

tipo líquido dominante con fluidos decaracterísticas Clorurado-sódicas y pH básico a lascondiciones de separación. Este campo se localizaa 30 km al sureste de la ciudad de Mexicali en BajaCalifornia, México, y el área de alteraciónhidrotermal se extiende a 32 km2.

El Campo Geotérmico de Cerro Prieto se aloja alo largo de un sistema de fallas pertenecientes alsistema activo de San Andrés: La Imperial, CerroPrieto, Cucapáh y Michoacán. [1]Consta de dos yacimientos de los cuales sealimentan los pozos de extracción de fluidogeotérmico. Las tuberías utilizadas en el campoGeotérmico de Cerro Prieto son: tubería API K-55,API J-55, API L-80, API-80 y 3% Cr. [2]

Las tuberías de revestimiento son tuberíasespeciales que se introducen en el hoyo perforado yque luego son cementadas para lograr la proteccióndel hoyo y permitir posteriormente el flujo defluidos desde el yacimiento hasta la superficie.También son conocidas como: revestidores,tubulares, casing. La selección apropiada de lastuberías de revestimiento es uno de los aspectosmás importantes en la programación, planificacióny operaciones de perforación de pozos. [3]

II. METODOLOGÍA

Existen principalmente seis tipos de tuberías derevestimiento instaladas en pozos:

Tubería de conducción, tubería superficial derevestimiento, tubería intermedia de revestimiento,tubería de revestimiento de producción oexplotación, liner como se muestra en la fig. 1.

Análisis de tuberías API K-55 de revestimiento,sometida a esfuerzos térmicos por el método de

elemento finito

57

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 69: Memoria Seminario FIM UABC 2014

Fig. 1 Tubería de revestimiento

a) Revestidor Conductor:La tubería es utilizada para apoyar formaciones

no consolidadas, y proteger arenas de aguas frescasde ser contaminadas, y reviste cualquier depósitopoco profundo de gas. La tubería es usualmentecementada a la superficie en tierra y el lechomarino costa afuera. [4]

b) Revestidor de Superficie:Tiene como objetivo fundamental proteger las

formaciones superficiales de las condiciones deperforación más profundas. Generalmente secementa hasta la superficie, entre sus funcionesmás importantes están: evitar la contaminación deyacimientos de agua dulce, proporcionar ungradiente de fractura suficiente para permitir laperforación del próximo hoyo, y soportar el pesodel resto de las tuberías que serán colocadas en elpozo. Por esta razón se cementan hasta lasuperficie.

c) Revestidor Intermedio:Es la tubería que aísla zonas inestables del

agujero (fig. 2), zonas con pérdidas de circulaciónde baja presión, y zonas de producción, se utilizaen la zona de transición normal a presión anormal.La cima del cemento de esta tubería debe aislarcualquier zona de hidrocarburo. Algunos pozosrequieren de múltiples sartas intermedias. [5]

d) Revestidor de Producción:Es la tubería de revestimiento a través de la cual se

completa, produce y controla el pozo durante todasu vida productiva y en la cual se pueden llevar a

Fig. 2 Tubería de revestimiento intermedia

cabo muchas reparaciones. Este revestidor secoloca hasta cubrir la zona productiva yproporciona un refuerzo para la tubería deproducción (“tubing”) durante las operaciones deproducción del pozo. Por lo general, no se extiendehasta la superficie y es colgada en la sarta derevestimiento anterior a ella. La profundidad deasentamiento es la profundidad total del pozo. Lasprincipales funciones son: aislar las formaciones oyacimientos para producir selectivamente, evitar lamigración de fluido entre zonas, y servir deaislamiento al equipo de control (cabezal) que seinstalará para manejar la producción del pozo (fig.3). [5]

Fig. 3. Tuberías de revestimiento de producción

Existen tuberías de revestimiento que por sucondición y objetivo de colocación puedendefinirse como: tubería corta o liners.

e) Tubería corta (liners):Es una tubería que no se extiende a la cabeza del

pozo. En cambio se sostiene por otra tubería, se usapara reducir costos y mejorar la hidráulica duranteperforaciones profundas, puede ser usada tanto enla tubería intermedia como en la explotación, y escementada típicamente a lo largo de toda su

58

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 70: Memoria Seminario FIM UABC 2014

longitud. Hablando de los tipos de fallas mecánicasque hay, la resistencia al colapso es la condiciónmecánica de una tubería (aplastada) originada porla aplicación de una carga, superior a su capacidadde resistencia a la deformación. Es una fuerzamecánica capaz de deformar un tubo por el efectoresultante de las presiones externas. Los colapsosen tuberías de revestimiento y tuberías deproducción suelen ser problemas serios, quepueden derivar en la pérdida de un pozo y por lotanto ocasionar incremento en los costos deoperaciones. [6] Se tienen diferentes tipos decolapsos: colapso de cedencia, plástico, elástico yde transición (fig. 4).

Es común atribuir el fenómeno del colapso a unasupuesta calidad deficiente de las tuberías. Sinembargo, estudios señalan un conjunto de factorescausales, tales como: desgaste de la tubería derevestimiento, desgaste por pandeo helicoidal,incremento de presión exterior, por temperatura,etc. Las propiedades más importantes de lastuberías de revestimiento, son los valores promediode colapso, tensión y presión.

Fig. 4 Tipos de colapsos

En la mayoría de los casos los aspectos técnicos ylas consideraciones que se tienen en cuenta nodifieren demasiado de aquellas usadas para eldiseño de un casing o tubing. Datos comogradientes de poro y de fractura, gradientes detemperatura y litología, son requeridos para eldiseño convencional de una sarta y necesarios parasaber que propiedades mecánicas debe tener latubería de revestimiento.

La perforación de pozos persigue dos objetivosprincipales: el primero perforar un hoyo hastaencontrar el yacimiento de vapor, el segundoinstalar una tubería desde el yacimiento hasta lasuperficie. Esta tubería, llamada de revestimientose refiere en alcanzar la profundidad total demanera segura, con la cantidad de sartas de

revestimiento económicamente efectivaspermitiendo la perforación y término de un pozo,para esto es necesario delinear el agujero perforadocon tubería de acero. Una vez que está en su lugar,es cementada, soportando la tubería derevestimiento y sellando el espacio anular. [7]

III. CONCLUSIÓN

La tubería de revestimiento constituye uno delos aspectos más importantes dentro de laoperación de perforación tanto desde el punto devista operativo como económico. Operativamente,la preparación y la corrida de la tubería derevestimiento siempre serán pasos que requierengran atención para realizarlos con éxito, a estepunto se debe asumir que el diseño correspondienteya ha sido realizado tomando en consideración lascondiciones existentes y que existieran durante lavida del pozo. [7] En general, las tuberías derevestimiento se pueden clasificar en conductora,superficial, intermedia y de explotación. Utilizandoel método de elemento finito, se pretende conocercon exactitud durante que etapa, ya sea en elproceso de fabricación, instalación o en la etapa deinducción y calentamiento, ocurre el daño en latubería de revestimiento API K-55. Para obtener unanálisis de esfuerzos.

REFERENCIAS

[1] Carlos Miranda, Israel Sauceda; Corrosión entuberías deacero al carbono expuesto a fluidogeotérmico, Tesis doctoral 2008.

[2] Revista Mexicana de Geoenergía ISSN 0186-5898Volumen 22, No.2 julio-diciembre 2009.

[3] Castro R. Yoban, Mondragón G. Tania: Guía dediseño para tuberías de revestimiento, marzo 2013.

[4] Schulumberger: Diseño de tuberías de revestimiento,febrero 2010.

[5] Velásquez T. Armando, De los Santos M. Francisco:análisis de la perforación no convencional contubería de revestimiento y control anticorrosivo(2014).

[6] Bravo V. Christian, García Itzel, Leal O. Alejandro,Mendoza V. Jorge, Santiago A. Edgar, Uribe H.José: Capacidad de resistencia de tuberías petroleras,en 2013.

[7] Alfonsina Bassante Muñoz: evaluación yoptimización de tuberías de revestimientos parapozos a perforar en los campos Shushufindi y Oso,marzo 2013.

59

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 71: Memoria Seminario FIM UABC 2014

Evaluación estructural de uniones adhesivaspermanentes en materiales compuestos matriz

polimérica en aplicaciones aeroespacialesIng. Esteban Salazar Montes

Facultad de Ingeniería Campus MexicaliUniversidad Autónoma de Baja California

[email protected]

Director de tesis: Dr. Miguel Ángel Martínez RomeroCodirector de tesis: Dr. Juan de Dios Ocampo Díaz H.

Facultad de Ingeniería Campus MexicaliUniversidad Autónoma de Baja California

Resumen-La finalidad de los materiales compuestos esalcanzar propiedades que no se encuentran naturalmente conotros materiales, y esto se adquiere mediante la conjunción dedos materiales principales, lo que son la matriz y el refuerzo.

En la actualidad, la aplicación de los materiales compuestosavanzados de matriz polimérica está presente en mayorproporción en partes estructurales en diversos sistemascotidianos, principalmente en los vehículos de transporte, es poreso que es de suma importancia la comprensión de sucomportamiento mecánico. Estos materiales presentannumerosas ventajas frente a los materiales convencionales comola relación resistencia-peso, su baja conductividad térmica, entreotros factores.

Las uniones adhesivas mejoran las capacidades de ensamblepermanente en comparación con uniones atornilladas,remachadas, entre otras modalidades de sistemas de unión, y conla ventaja de reducir cantidades de partes en ensambles por lacapacidad de hacer figuras complejas de manera monolítica, asícomo realizar ensambles y uniones adhesivas; ya que las unionesmecánicas que implican procesos secundarios como elmecanizado de orificios para la inserción de tornilleríacomprometen la integridad de la estructura con posibles delaminaciones. En muchas otras ocasiones se opta por unionesmecánicas permanentes a base de adhesivos estructurales.

Palabras claves – materiales compuestos; uniones adhesivas;comportamiento mecánico; matriz polimérica

I. INTRODUCCIÓN

Aun teniendo pruebas estandarizadas para materialescompuestos y su comportamiento mecánico en las diversasdirecciones de aplicación de carga, no existen datos fijosacerca de la resistencia mecánica de los materiales compuestosen sistemas de unión como lo hay en los metales y sus unionesmecánicas en sus diversas variaciones como lo son lossistemas de tornillería, remachados, uniones soldadas, entreotros [1].

La inexistencia de dichos datos concretos de resistencia atracción, compresión, flexión, pandeo, cortante, y torsión,además de esfuerzos combinados, hace que estos materiales yprocesos de fabricación sean poco utilizados a pesar de lasventajas que estos sistemas de unión presenten sobre losconvencionales [1].

Ante la posibilidad de desarrollar aeronaves cada vez másligeras, el mercado de componentes y subsistemas requiere elamplio conocimiento del comportamiento mecánico de estosmateriales y la capacidad de poderlos fabricar.

II. MATERIALES COMPUESTOS

Un material compuesto presenta dos elementosprincipales: fibra y matriz. La combinación adecuada de estoscomponentes origina unos materiales con mejores propiedadesque las partes que los componen por separado. Además defibra y matriz, existen otros tipos de componentes comocargas y aditivos que dotan a los materiales compuestos decaracterísticas peculiares para cada tipo de fabricación yaplicación [2].

Los materiales compuestos de matriz polimérica hanadquirido una importancia cada vez mayor, como alternativapara el diseño de equipamiento y estructuras en aplicacionesestructurales, en sectores tan exigentes como el Aero espacial,terrestre y naval. En la Tabla 1 se puede observar elcomponente de cada materia.

III. METODOLOGÍA EMPLEADA

Bajo este esquema de trabajo se pretende entender losmodos de falla asociados con la unión permanente adhesiva demateriales compuestos en ensayos de cortante por tensiónprincipalmente, entre otras pruebas que han de ser aplicadasen probetas (Figura1). Comenzando por el análisis de losestándares de ASTM que sean pertinentes para estas pruebascomo los son las ASTM D3039, D903, D5868. Se tomaran enconsideración las variables a medir y las magnitudes que haránválidas las pruebas. Además, bajo la tutela de profesoresinvestigadores expertos en el tema, se realizara una selecciónde materiales que puedan llevar a ensayos exitosos mediante lacompatibilidad entre ellos y sus procesos a realizar. Estasprimeramente se han de simular en software de diseñomecánico 3D (Solid Works, ANSYS), para el estricto apego alas normas estándares en las cuales se tendrá base para laaplicación de las pruebas.

60

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 72: Memoria Seminario FIM UABC 2014

TABLA 1 MATERIAS PRIMAS QUE COMPONEN UN MATERIAL COMPUESTO

[2]

FibrasFibras Cerámicas (Carburo de silicio,

alúmina)

Fibras metálicas

Fibras Inorgánicas (Carbono, Vidrio, Boro)

Fibras Orgánicas (Ara mida, Polietileno)

Matrices

Matrices Inorgánicas (Cemento, Geopolímeros, Yeso)

Matrices Termoestables (Epoxi, Vinil éster,Poliéster, Fenólica, Esteres cianato,

Bismaleimidas, Poliamidas, Poliheterómida)

Matrices termoplásticas (ABS,Polipropileno, Acetato, PBT, Poli

heterómida, PET, Nilón, Poliamida, PEEK,PEKK, PAI, PAS)

NúcleosNidos de Abejas (Aluminio, Nomex,

Polipropileno)

Espumas (Poliuretano, Poli estireno, PVC)

Sándwich Tejido 3D, Madera de Balsa

Adhesivos Epoxi, Poliuretano, Acrílicos

Recubrimientos Cerámicos, Fenólicos, Epoxi + Arena,Intumescentes, Mats

Fig. 1.- Modelo de un cupón de prueba con la dirección de carga señalada[3].

Una vez obtenido el modelo en 3D, se procederá a realizarel análisis mediante el método de elementos finitos,ingresando las fuerzas y cargas que incurren en los cupones deprueba y en las direcciones que estas llevan (Fig. 1). Tambiénse aplicara un mallado de tal magnitud que pueda arrojar datoscon errores relativos porcentuales mínimos. Se interpretaranlos datos proporcionados por software CAE para producirgráficas esfuerzo-deformación, para una futura comparacióncon las pruebas reales, y de esta manera, basado en que losconceptos estudiados hayan sido explicitados en fundamentoteórico, las variables deberán tener una expresión operacional,es decir, después de haber tenido los datos teóricos en base ahojas de datos, libros, y demás, para su comparación posterior.

Se realizarán diversos cupones de prueba conforme a losestándares de las normas ASTM D3039, D903, D5868. Suorientación y dimensiones, y serán probados con una máquinauniversal Galdabini Quasar 100 de tensión hasta llegar a lafalla catastrófica, que a su vez estará capturando los datos ensoftware Microsoft Excel, Graphworks, y se hará unacorrelación con los datos obtenidos.

Los criterios de exclusión de las muestras se llevarán acabo según las normas ASTM D3039, D903, D5868.

IV. BIBLIOGRAFÍA

[1] Alan Baker, Composite Materials for Aircraft Structures. AIAAEducation Series, second Edition, 2004

[2] Materiales compuestos (Tomos I y II), Editorial Revente, S. A.,2007

[3] Michael Chun-Yung, Airframe Structural Design. Practical DesignInformation and Data on Aircraft Structures. Conmilit Press Ltd.,Second Edition, 1989

[4] FAA, Advanced Composite Materials, Chapter 07. FAA Press[5] Michael C. Y. Niu. Composite Airframe Structures. Comnlit Press.

Third Edition. 2010.

61

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 73: Memoria Seminario FIM UABC 2014

Karla Velázquez; Álvaro GonzálezFacultad de Ingeniería

Universidad Autónoma de Baja CaliforniaMexicali, México

[email protected]; [email protected]

Gabriela EstradaFacultad de IngenieríaCetys UniversidadMexicali, México

[email protected]

Abstract— Research was developed in aerospace industry forsteel heat exchangers that have their function in the airconditioning system of the plane by analyzing a gas tungsten arcwelding process (GTAW). Was identified the most significantvariables of welding process that directly or indirectly influencequality defects. Welding process for heat exchangers hadsignificant quality defects which delayed manufacturing process,as well as increase downtimes in the production area. For thisanalysis was used Taguchi’s methodology of Design ofExperiments, given the characteristics of the process. Based onresults were identified the most significant variables thatinfluence on quality defects, wich were type of rod, cooling time,cleaning unit previous brazing zone, amperage, type of electrode,cleaning rod and welding sequence.

Keywords— specimens, gas tungsten arc welding, steel heatexchangers

I. INTRODUCCIÓN

El estudió se desarrolló en la industria aeroespaciallocalizada en México. Esta corporación tiene plantas de diseñoy manufactura en Estados Unidos, Canadá, Brasil, China,México, entre otros países. Una de las fases de análisis de estainvestigación se enfocó en la elaboración de probetas dematerial de acero SS347 para pruebas experimentales. Lasprobetas se trabajaron utilizando placas de acero las cuales seunieron a través de soldadura por arco de gas tungsteno(GTAW por sus siglas en inglés). El propósito de esta fase deinvestigación fue caracterizar el material soldado deintercambiadores de calor los cuales tienen su función principalen el aire acondicionado del avión, con la elaboración deprobetas con características similares a dichos componentesaeroespaciales.

Los autores Ramírez, A et al.[1] utilizaron probetas paraanalizar características mecánicas llegando a la conclusión quelos valores de la tenacidad medidos en las probetas enfriadas enaire fueron mucho mayores que los medidos en las probetasenfriadas con agua e incluso mayores que en los medidos en elmaterial base. El uso de probetas en la industria con unobjetivo experimental tiene un sin numero de beneficios, entreellos, aislar el proceso en estudio, poder realizar pruebasdestructivas al material sin afectar el componente en estudio y

caracterizar el comportamiento real del proceso. Estainvestigación muestra la caracterización de intercambiadoresde calor en el uso de probetas experimentales.

II. ESTADO DEL ARTE

Hace aproximadamente 2500 años, un herrero griego denombre Glaukos, que vivía en la ciudad de Khios, inventó laforma de soldar el hierro. Con el procedimiento de este herrero,se calentaban las piezas de hierro en un horno o forja hasta quese ablandaba el metal. La práctica de la soldadura por forjadocontinuó casi sin sufrir cambio alguno hasta hace alrededor de80 años, cuando la invención de los modernos procedimientosde soldadura dieron paso a medios de eficiencia creciente paraunir placas o perfiles metálicos, piezas fundidas, piezasforjadas o piezas forjadas a piezas fundidas. [2]

En ingeniería el término soldadura consiste en el procesode unir dos o más componentes individuales para formar uncomponente integral estructural. A lo largo de los años losmétodos y técnicas de soldadura se han desarrollado en granextensión. Uno de los procesos de soldadura más comunes es lasoldadura por arco con gas tungsteno GTAW (gas tungsten arcwelding, por sus siglas en inglés). En esta soldadura se requierecalor por fusión y que es generado por un arco entre unelectrodo de tungsteno no consumible y el metal base. Esteproceso puede ser utilizado con o sin metal de aporte. En la fig.1 se ilustra la operación de la soldadura por arco de gas inertede tungsteno. [3]

Fig. 1. Operación de soldadura GTAW

Análisis de Probetas Experimentales con SoldaduraGTAW: Caso de Estudio Industria Aeroespacial

62

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 74: Memoria Seminario FIM UABC 2014

III. OBJETIVO

Caracterizar el comportamiento de intercambiadores decalor a través de probetas experimentales utilizando soldaduraGTAW.

IV. METODOLOGÍA

La soldadura de gas con arco de tungsteno se utilizaampliamente para la soldadura de acero inoxidable, aluminio,magnesio, cobre, y materiales reactivos tales como titanio ytántalo. El proceso también puede ser utilizado para unir acerosal carbono y de aleación. El proceso de soldadura GTAW esaplicable cuando es necesaria la mayor calidad de soldaduranecesaria. Puede ser utilizado para soldar casi todos los tiposde metales. El soplete de soldadura tiene el electrodo detungsteno que conduce la corriente al arco, y que proporcionaun medio para proteger el arco y el metal fundido. Los sopletesde soldadura nominal es inferior a 200 A son normalmente gasenfriado (es decir, el gas protector fluye alrededor del cableconductor, proporcionando el enfriamiento necesario). Loselectrodos no consumibles utilizados en la soldadura GTAWestán compuestos de tungsteno o aleaciones de tungsteno. Elelectrodo más común es un ThO 2% de 2-W aleación (EWTh-2). Este material tiene excelentes características defuncionamiento y buena estabilidad. La forma de la punta delelectrodo puede afectar a la forma de la soldadura resultante.Electrodos con ángulos incluidos 60 a 120 ° son estables y danbuenos cordones soldadura de penetración de profundidad aanchura de las proporciones. Argón, el gas más utilizado parasoldadura GTAW, exhibe una baja conductividad térmica, loque produce una columna estrecha, arco contenido, lo quepermite mayores variaciones en la longitud de arco con unainfluencia mínima sobre la potencia de arco o forma del cordónde soldadura. [4]

Materiales y equipoPara la elaboración de las probetas experimentales con

soldadura GTAW se requirió de material de acero SS347 endos espesores, uno de 0.040” y el otro de 0.032”. El material yel tipo de espesor que se utilizó para las pruebas con cuponesse eligieron en base a la similitud de condiciones utilizadas enel proceso de intercambiadores de calor, así como también lautilización de soldadura GTAW. Para realizar los cordones desoldadura en las probetas se utilizó una máquina para soldar“Dynasty 700-Miller”, la cual utiliza corriente continua, y en lacual se pueden soldar materiales de acero y aluminio con unrango de espesor de 1 pulgada como máximo y 0.020 pulgadascomo mínimo para ambos metales. La fig. 2 muestra lacaracterización isométrica de una probeta experimental.

ProcedimientoEl procedimiento que se siguió para la elaboración de las

probetas experimentales fue el siguiente:

a) Cortar las placas en ambos espesores utilizandocortadora a una dimensión de 2” x 4”.

b) Colocar aleación de braze con spray en placas. Esteproceso tuvo una duración de 24 horas en un horno alvacío. Las placas se sometieron a un proceso delavado previo a esta actividad.

c) Reservar las placas cortadas y con soldadura braze enun contenedor cerrado para evitar contaminación.

d) Unir placas a tope con espesor disímil para lafabricación de la probeta experimental.

La fig. 3 muestra la caracterización de la vista frontal de laprobeta experimental soldada a tope con GTAW.

Fig. 3. Caracterización de la vista frontal de probetaexperimental

Parámetros de soldaduraSe identificaron los parámetros a controlar de soldadura

GTAW en las probetas experimentales de tal forma quepudieran ser adecuadas y útiles para el diseño de experimentosposterior a su elaboración. Los parámetros que seconsideraron para las probetas experimentales relacionados aeste tipo de soldadura fueron:Tipo de varilla: se utilizaron dos tipos de varilla o material deaporte, los cuales tienen diferente composición que incluyenaleaciones de níquel (Ni), cromo (Cr), molibdeno (Mo) yhierro (Fe).Tiempo de enfriamiento: actualmente no se considera bajoninguna especificación, sin embargo, ya que la unidad constade aproximadamente veinte cordones de soldadura alrededor,se recomienda un tiempo mínimo de enfriamiento para evitardeformaciones internas.

Fig. 2. Caracterización de vista isométrica de probeta experimental

63

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 75: Memoria Seminario FIM UABC 2014

Limpieza de unidad en zona previa-brazing: existendiversos componentes en el intercambiador de calor donde seaplica soldadura brazing previo a la soldadura GTAW.Brazing ocasionalmente tiene a derramarse en el componentelo cual puede provocar un defecto a futuro. Se evaluaron dostipos de removedores.Amperaje: el amperaje con el que se trabaja la unidad esdeterminado por el soldador, sin embargo la instrucción detrabajo contempla un rango de valores de amperaje en dondeel soldador puede trabajar de manera adecuada.Tipo de electrodo: la función principal del un electrodo es decrear un arco eléctrico entre el material base y el material deaporte que permite la fundición de estos elementos. Para laexperimentación se utilizaron dos tipos de electrodos, de0.09375" y 0.0625" diámetro.Limpieza de varilla: esta actividad es obligatoria en elproceso con el objetivo de remover cualquier residuo decontaminante. Para la experimentación se probaron dos tiposde toallas especiales de limpieza.Secuencia de soldadura: la secuencia de soldadura se refiereal orden en la que el soldador realizar los cordones desoldadura alrededor del intercambiador de calor. Para lasprobetas experimentales esta variable fue imposibleconsiderarla dado que la probeta lleva un solo cordón desoldadura por lo que no se pudo evaluar una secuencia.Humedad relativa: este factor es considerado como un factorde ruido, dado que aunque es posible medirla no se controlaactualmente en el proceso.Temperatura: al igual que la humedad relativa, latemperatura ambiente es considerada un factor de ruidotambién. La Tabla 1 muestra las variables significativas queafectan la calidad de la soldadura.De ahí se obtienen las variables significativas a evaluar enprobetas experimentales. Por otro lado se muestra la tabla conla descripción de las variables, así como su unidad de mediday su designación que será de utilidad para el desarrollo dediseño de experimentos.

Pruebas de inspección aplicables a probetas experimentalesLa inspección o verificación de los componentes o

productos con las especificaciones requeridas está muyrelacionado con el control de calidad. En general, es un hechoaceptado que nunca hay dos cosas que pueden ser exactamentelo mismo. También ocurre con las piezas fabricadas. Por lotanto, ciertas variaciones o desviaciones en las dimensiones yotras especificaciones de producto son aceptadas. Sinembargo, sólo unos pocos artículos producidos o partes puedeser rechazada si las desviaciones van más allá de losestándares de calidad especificados. La filosofía de lainspección es sólo preventiva y no correctiva. En general, haytres áreas básicas de la inspección es decir que reciben lainspección, la inspección en proceso e inspección final. [5]

En la mayoría de los procesos productivos existen fallas enla calidad y errores, estos errores por lo general se analizan yse disponen bajo un estricto plan de control que ayudará aasegurarse de reducirlos. En el proceso de soldadura existendistintos tipos de rechazos o defectos de soldadura como loson: grietas, poros, falta de penetración, fuga, contaminación ysoldadura incompleta.

Una vez terminadas las probetas experimentales se realizóuna inspección visual utilizando una lupa que magnifica de 50a 150X la cual contribuyó a tener un análisis minucioso paraencontrar posibles defectos en soldadura. Algunos de losdefectos encontrados en las probetas experimentales despuésdel análisis con lupa fueron grietas, poros, falta de penetracióny traslape en la soldadura. La fig. 4 muestra la caracterizaciónde los defectos encontrados.

TABLA 1. VARIABLES SIGNIFICATIVAS EN SOLDADURA GTAW PARA PROBETAS EXPERIMENTALES

Número Variable Unidad demedida

Designación

1 Tipo de varilla Proveedor V

2 Tiempo de enfriamiento Minutos T

3 Limpieza de unidad en zona previa-brazing Estopa U

4 Amperaje Amperaje A

5 Tipo de electrodo Diámetro E

6 Limpieza de varilla Proveedor L

64

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 76: Memoria Seminario FIM UABC 2014

La falta de penetración en la soldadura sucede por condicionesen la raíz de la unión en la cual el metal soldado no rebasa elespesor de la unión. Las áreas sin penetrar y sin fusionar esuna discontinuidad descrita como penetración incompleta enla unión. La porosidad es un tipo de orificio dentro del cordónde soldadura por el gas atrapado durante la solidificación. Unacausa común de la porosidad es la contaminación durante lasoldadura. En el caso del defecto de grietas sucede por elencogimiento que ocurre dentro de todas las soldaduras y enuna unión o cualquier porción de ella, como en la zonaafectada por el calor no puede acomodarse debido alencogimiento por el estrés producido por la deformaciónplástica, entonces se desarrollará estrés muy fuerte, el cualpuede causar grietas. [6]

V. RESULTADOS

Con la elaboración de las probetas experimentales se logróla caracterización de las condiciones de intercambiadores decalor que nos servirán posteriormente para el desarrollo de undiseño de experimentos factorial 2k que nos permita concluircuales son las variables significativas que afectan directa oindirectamente en la calidad de la soldadura, considerandotodas las posibles variables y sus respectivas combinaciones.

VI. CONCLUSIONES

Las conclusiones se basan en el descubrimiento de cualesson las variables significativas para el proceso de soldadura

GTAW en intercambiadores de calor que influyen directa oindirectamente en defectos de calidad. Las variablescontroladas más significativas son: tipo de varilla, tiempo deenfriamiento, limpieza de unidad zona previo-brazing,amperaje, tipo de electrodo, limpieza de varilla y secuencia desoldadura.

AGRADECIMIENTOS

Los autores agradecen al Consejo Nacional de Ciencia yTecnología (CONACYT) por el apoyo económico otorgado aKarla Velázquez Victorica para sus estudios de Doctorado, asícomo también a la compañía aeroespacial donde se condujo lainvestigación y al equipo de trabajo que de una maneraprofesional dieron soporte y monitoreo a la investigación.

REFERENCIAS

[1] Ramírez, A., Cerpa, S., Mejías, G., León, J., Quintero, A.,“Soldadura de un acero inoxidable Duplex 2205 por el proceso desoldadura GTAW”, Universidad Central de Venezuela, Escuela deIngeniería Metalúrgica y Ciencia de los Materiales, online:www.polimeros.labb.usb.ve/RLMM/home.html

[2] Horwitz, Henry (1997). Soldadura aplicaciones y práctica. (pg. 2).Alfaomega

[3] Mandal, N.R. (2009). Welding Techniques, Distortion Control andLine Heating. (pp: 4,45). Alpha Science International.

[4] Campbell, F.C. Unión: Conceptos básicos. Materiales Park, OH,EE.UU.: ASM Internacional, 2011. p 44-49.

[5] Singh, Rajender. Introducción al Proceso de fabricación Básicas yTecnología Taller.Daryaganj, Delhi, IND: New Age International,2006. p 466.

[6] J.J. González, “Guía de entrenamiento”, Fundamentos básicos ensoldadura de fusión, sin publicar.

Fig. 4. Caracterización de defectos de soldadura GTAW en probetas experimentales

65

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 77: Memoria Seminario FIM UABC 2014

Revisión del Proceso de Cambio de las Prótesis deMano

J. Rodríguez GarcíaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

I. Sauceda MezaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Resumen—La ausencia total de la mano ocasiona la pérdidadel tacto y agarre, aunque imperfectos se cuenta con prótesis queayudan a mitigar esta ausencia, con los avances de la tecnologíase han mejorado los materiales, la estética, apariencia y el pesoque antiguamente esto ocasionaba el abandono de dichosdispositivos. Actualmente el grado de lesión es la limitante paralos médicos para determinar cuál es el mejor dispositivo a usarcontemplando el costo, mecanismo, apariencia y peso. En elpresente trabajo se expone una revisión bibliográfica sobre laevolución y el desarrollo de las prótesis de mano, se muestran lasprincipales características en diseño, materiales y tecnologías

Palabras claves— prótesis de mano, antropomórficas, Gradosde libertad, mano, mecanismo, minimalista y materiales

I. INTRODUCCIÓN

La mano es la extremidad efectora del miembro superiorque constituye su soporte logístico y le permite adoptar laposición más favorable para una acción determinada [1].

La mano humana es considerada principalmente por susdos funciones básicas; la prensión y tacto [2], que son lamayoría de las tareas conscientes del hombre, las cualesrequieren la manipulación de objetos [3], adicionalmente lamano añade expresión a las palabras [4].

Cuando por causas ambientales o externas hay ausenciatotal o parcial de un miembro, actualmente se cuenta condispositivos llamados prótesis o exoesqueletos. Una prótesisse define como: el dispositivo que suple la ausencia total oparcial de un órgano o segmento corporal, considerando elcontexto del paciente, son un remplazo imperfecto y no logra asuplir del todo su funcionalidad en el caso de la extremidadsuperior [5].

El objetivo de este documento es mostrar el desarrollohistórico y actual de las prótesis de mano, haciendo énfasis enla evolución de las prótesis, tipos y futuro en sus avances dediseño y materiales.

II. ANTECENDES HISTÓRICOS DE UNA PRÓTESIS

Los primeros registros que se conocen sobre una prótesis demano datan desde hace 4000 años, esta se encontró en unamomia egipcia. Hace 600 años se fabricó la mano de Alt-Ruppin hecha de hierro, esta mano tenía la característica de

poder flexionar los cuatro dedos pasivamente y se podían fijarmediante un trinquete, quedando el pulgar fijo. No es sinohasta el siglo XVI, que el diseño del mecanismo de lasprótesis de miembro superior se ve mejoradoconsiderablemente, gracias al médico militar francés AmbroiseParé, quien desarrolló el primer brazo artificial móvil al nivelde codo, llamado Le petit Loraine [6]. En 1912, Dorrance, enlos Estados Unidos, desarrolló una unidad terminal llamadaHook que puede abrirse y cerrarse activamente mediantemovimientos de la cintura escapular combinado con un tirantede goma [7]. El origen de las prótesis activadas por losmúsculos del muñón se da en Alemania gracias a Sauerbruch,el cual logra idear como conectar la musculatura flexora delantebrazo con el mecanismo de la mano artificial, mediantevarillas de marfil que hacía pasar a través de túneles cutáneos,haciendo posible que la prótesis se moviera de forma activadebido a la contracción muscular [6]. Es hasta 1946 cuando secrean sistemas de propulsión asistida, dando origen a lasprótesis neumáticas y eléctricas.

Las prótesis con mando mioeléctrico comienzan a surgir enel año de 1960 en Rusia. Esta opción protésica funciona conpequeños potenciales extraídos durante la contracción de lasmasas musculares del muñón, siendo estos conducidos yamplificados para obtener el movimiento de la misma. En susinicios, este tipo de prótesis solo era colocada para amputadosde antebrazo, logrando una fuerza prensora de dos kilos.

En los años 1960 a 1980, el uso de las prótesis mecánicas ycosméticas era mayor que el de las mioeléctricas. Las prótesiscosméticas no tenían movimiento, se utilizaban simplementepara satisfacer la parte estética, mientras que las mecánicas seiban perfeccionando y el modelo a seguir fue el Hook,desarrollado por Dorrance. Hasta 1978 Shigeo Hirose diseñoel primer dedo en el Instituto de Tecnológico de Tokyo, conun grado de libertad (DOF por sus siglas en ingles degree offreedom) y 10 falanges.

Para el año 2000 seguían predominando las prótesiscosméticas y mecánicas, en estas últimas los diseños teníanpocos grados de libertad y seguían teniendo formas de pinza

66

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 78: Memoria Seminario FIM UABC 2014

como mano, los principales diseños son: Stanford/JPL,Utah/MIT Hand, Belgrade/USC y RTR1, estos diseños sebasan en manos minimalistas de tres a cuatro dedos, conlimitaciones de 3 a 5 articulaciones, permitiendo la flexión delos dedos, con hasta 4 DOF y un dedo que simulaba ser elpulgar.

Del 2001 a la fecha se perfeccionan los diseños, semejoran los materiales (más ligeros y resistentes) ,mecanismos (mayores grados de libertad), sensores,actuadores con el avance de la tecnología para lograr prótesisde manos más parecidas a las del ser humano(antropomórficas) en este punto las prótesis deben de estarformados por sistemas de actuación y transmisión, deadquisición y procesamiento de señales y sistema de control,entre otros; entre ellas debe tener características particularespara que en su conjunto puedan satisfacer los requerimientosdel ser humano[3]. Se empieza a desarrollar la tecnologíamioeléctrica como ejemplo se encuentra RTR2, Robot HandRCH-1, HIT/DLR, iCub, MYOBOCK, Vanderbilt, OCU-II,Michelangelo y OPENHAND, donde las cinco últimas son losmáximos representantes hasta la fecha.

III. TIPOS DE PRÓTESIS DE MANO

Conforme la robótica empezó a abrirse camino, junto con lamecánica y electrónica en el desarrollo de las manos robóticasse empezaron a definir dos vertientes en cuanto al diseñodependiendo el tipo de aplicación al cual dicha mano seriausada. Las dos principales son:

1. Mano antropomórfica2. Manipulador eficiente (minimalista)

Con base en la elección de la prótesis más adecuada, sedebe ver el grado o nivel de la lesión al cual se le ha infringidoal amputado, tipo de displasia, la funcionalidad pérdida de lamisma y el factor económico que es indispensable en elmomento de adquirir la prótesis. Se clasifican según el tipo deactuador, diseño y mecanismo, representado en la Tabla I.

IV. FUTURO DE LAS PRÓTESIS DE MANO

La tendencia en las prótesis de mano es cumplir con losrequerimientos propuestos para las diferentes necesidades estoincluye el mecanismo, la forma o apariencia, controlador y elpeso.

Mecanismo: Dependiendo de las necesidades, estas puedenvariar desde estructuras simples o complejas, como ejemplose encuentran: Hook desarrollado por Dorrance con diseñominimalista con apertura por medio de energía corporal, nulomovimiento de articulaciones; entre las más complejas se

encuentran las manos Michelangelo y OPENHAND (Fig. 1)con apariencia antropomórfica, las cuales incluyen mayoresgrados de libertad, movilidad y acción, con estrecha relaciónfunción y peso; con motores, actuadores, sensores, poleas yengranes de materiales livianos.

Fig. 1. Mano OpenHand.

Cualquiera que sea la estructura, el mecanismo debecumplir con la división en tres componentes:

1. Una estructura que cumpla con la función del pulgar,que cumple con movimiento de oposición. El dedopulgar juega un rol único en la mano, esencial para laformación del movimiento de pinza digital y eldesarrollo de fuerza de agarre a lo largo de otrosdedos.

2. Dedos auxiliares, además del pulgar se debe contarcon al menos dos a tres dedos para la sujeción paralogra mayor limpieza del agarre y el sólido apoyo delos objetos.

3. Movimientos: Debe de contar con cuatromovimientos básicos: abducción, aducción, extensióny flexión de los dedos, para lograr mayores controlespara los diferentes tipos de movimientos de prensapor gravedad y acción

Apariencia: Este dependerá de las necesidades requeridasentre ellas se encuentran: tendencia antropomórfica yManipulador eficiente (minimalista).

1. Mano Antropomórfica: se produce cuando el objetivoa desarrollar es hacer que luzca como mano humanay su función sea similar a la humana tanto como seaposible. Una ventaja de usar un diseñoantropomórfico como manipulador es más intuitivapara controlar. En los inicios en la investigación enmano robótica, éstos eran en su mayoría con esteenfoque [10].

2. Manipulador eficiente (minimalista), utilizada enmecanismo simples, donde debe servir unadeterminada función de destreza en forma de pinzapara cumplir con los requerimientos mínimosfuncionales [10], [11].

67

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 79: Memoria Seminario FIM UABC 2014

Peso: El éxito en el uso de las prótesis es que puedan sercómodas y ligeras, las primeras prótesis antropomórficasmodernas pesaban más de 1.1 kg., esto impedía la constanciaen cuanto al uso, cuando aparecen las prótesis con pesomenores o igual 500 gr. su uso se hizo más constantes, aunquela prótesis de Dorrance con manipulador eficiente es de lasmayores usadas.

TABLA I. TIPOS DE PRÓTESIS DE MANO SEGÚN EL TIPO DE ACTUADOR YAPARIENCIA

Tipo Apariencia Características

Est

étic

a

Ant

ropo

mór

fica

Pasiva de apariencia cosmética,no tiene prensión activa, sonlivianas (se emplean polímeroscomo PVC rígido, látex flexibleo silicona) y requieren pocasuspensión ya que no disponende piezas móviles, requieren demenor mantenimiento [5]

Mec

ánic

a

Ant

ropo

mór

fica

ym

inim

alis

ta

Movidas por medio de laenergía corporal, usan con lafunción de cierre o apertura avoluntad, controlados pormedio de un arnés que seencuentra sujeto alrededor delos hombros, parte del pecho yel brazo. Solo pueden serutilizados para el agarre de losobjetos relativamente grandes yredondos debido a la pocaprecisión del mecanismo. [2][5], [11]

Elé

ctri

cas

o M

ioel

éctr

icos

Ant

ropo

mór

fica

Proveen mejor fuerza deprensión que las mecánicas, ypuede disminuirse o eliminarseel sistema de arneses. Losdispositivos mioeléctricos seactivan mediante electrodosubicados dentro de la prótesis,que responden a señaleselectromiografías de gruposmusculares remanentes delmuñón. Como desventajasinherentes al mantenimientomás complejo, la bajaresistencia al medio húmedo yel peso. [5], [8],

Neu

mát

ica

Ant

ropo

mór

fica

ym

inim

alis

ta

Accionadas por medio de ácidocarbónico comprimido, queproporciona una gran cantidadde energía. Aunque, presentacomo desventaja lascomplicaciones de sus aparatosy accesorios, además del riesgoen el uso del ácido carbónico.[2]

Hib

rida

Ant

ropo

mór

fica

ym

inim

alis

ta

Combinan la acción del cuerpocon el accionamiento porelectricidad. Este concepto esampliamente utilizado en lasprótesis transhumerales(amputaciones del codo), dondepor lo general el codo esaccionado por el cuerpo y eldispositivo terminal (gancho omano) es de accionamientomioeléctrico [2], [5], [9]

V. NUEVOS MATERIALES EN LA FABRICACION DE LAS

FUTURAS PRÓTESIS DE MANO

Para la fabricación de prótesis debe de cumplir con larelación estructura, propiedades y procesamiento de losmateriales, donde sus propiedades físicas y mecánicas,dependerán la estructura y el procesamiento que ayuden a laselección del mejor material que resista fatiga, desgaste,impacto, sean de bajo costo y fáciles de manufacturar, por lotanto se tiene esto materiales que actualmente se utilizan parala fabricación de prótesis, además del Aluminio y susaleaciones, se propone en la Tabla II materiales utilizados enel desarrollo de prótesis de mano [2], [12].

TABLA II. MATERIALES EMPLEADOS EN LA FABRICACIÓN DE PRÓTESISDE MANO

Materiales con memoriade forma

Aleaciones SMAs (Shape MemoryAlloys): Niti, (nitinol) CuAlTi,NiTiCuPolímeros SMPs (Shape MemoryPolymers): HYTREL, SMP,VeriflexCerámicos SMCs (Shape MemoryCeramics)Aleaciones Ferromagnéticas FSMAs(Ferromagnetic Shape MemoryAlloys)

Materiales electro ymagneterológicos

Materiales piezoeléctricosMateriales electro y magnetorestrictivos

Materiales foto y cromoactivos

ElectroluminiscentesFluorescentesFoto cromáticosTermo cromáticosElectro cromáticos

La tendencia para el futuro es la investigación y desarrolloen nuevos materiales que mejore la resistencia, elasticidad,fatiga, desgaste, maquinabilidad, costo, etc. de nuevosmateriales que permiten superar las desventajas en peso y lasya existentes en las prótesis no solo para mano sino para lastodas las que existen.

VI. CONCLUSIÓN

Las prótesis de mano se han fabricado desde hace muchotiempo, se ha visto un desarrollo importante en el avance eneste ramo de la ortopedia gracias al desarrollo tecnológico enla biomecánica se ha entendido, calculado y modelado lasfunciones no solo de la mano, pie, vertebras, entre otrasaplicaciones, el reto en este ramo se encuentra en el área delcontrol (señal cerebro-miembro prostético) que ocurra demanera más natural, en el diseño y fabricación es necesarioque los materiales se sigan investigando para tener másopciones en cuanto al uso y que esto sean de bajo costo y fácilmaquinabilidad con alto desempeño y apariencia más natural.

68

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 80: Memoria Seminario FIM UABC 2014

REFERENCIAS

[1] Kapandji, A. I. (2006). Fisiología Articular (6 ed., Vol. 1). Madrid,España: Panamericana-Maloine.

[2] Loaiza, J.L., & Arzola, N. (2011). Evolution and Trends in thedevelopment of Hand Prosthesis. Universodad Nacional de Colombia,Bogotá, 191-200.

[3] Díaz Montes, J. C., & Dorador González, J. M. (22 al 24 de Septiembrede 2010). El Futuro en las Prótesis de Mano. Memorias del XVICongreso Internacional Anual de la Somin. Nuevo Léon.

[4] Brito, J., Quinde, M., Cusco, D., & Calle, J. (2013, Enero-Junio).Estudio del Estado del Arte de las Prótesis de Mano. INGENIUS Revistade Ciencia y Tecnología, 57-62.

[5] Paris, E., Sánchez, I., Beltramino, D., & Copto, A. (2013). Pediatría.Buenos Aires: Panamerica.

[6] (s.f.). Recuperado el 21 de Septiembre de 2014, de Revista Unam:http://www.revista.unam.mx/vol.6/num1/art01/art01-1a.htm

[7] Dorador, J. M.:"Robóticayprótesis inteligentes", Revista DigitalUniversitaria, 18 de enero 2004 • Volumen 6 Número 1 • ISSN:1067-6079.

[8] Díaz, J. C., Dorador, J. M., Mecanismos de transmisión y actuadoresutilizados en prótesis de mano. Memorias del congreso XV anual se laSOMIM. UNAM, México D.F., pp. 335-343, 2009

[9] Puglisi, L. y Moreno, H., Prótesis Robóticas. Revista del Departamentode Automática e Informática Industrial, pp. 1-2, 2006

[10] A. Bicchi. Hands for dexterous manipulation and robust grasping: adifficult road toward simplicity. Robotics and Automation, IEEETransactions on, 16(6):652 662, 2000.

[11] Prosthetics and orthotics. Donald G. Shurrm John W. Michael. 2° ed..Prentice Hall

[12] Barandiaran Mancheño, J., & Muñoz García, J. (2011). Materiales conMemoria de forma metálica y plásticos estudio y aplicación. CongresoNacional de Ingeniería Mecánica (pp. 1-10). España: AsociaciónEspañola de Ingeniería Mecánica

69

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 81: Memoria Seminario FIM UABC 2014

Diseño y fabricación de un dispositivo demoldeo para prótesis transtibial de materiales

compuestosRodrigo Montero Amézquita, Víctor Nuño Moreno

Universidad Autónoma de Baja CaliforniaFacultad de Ingeniería Campus Mexicali

[email protected]

J. Armando Cantú Cárdenas, Rigoberto ZamoraAlarcón y A. González Ángeles

Universidad Autónoma de Baja CaliforniaFacultad de Ingeniería Campus Mexicali

Resumen- En este trabajo se presenta el diseño yfabricación de una unidad de moldeo para trabajar conmateriales compuestos para la fabricación de prótesistranstibiales, se tomarán los conocimientos y antecedentes detécnicas de moldeo para canalizarlo en la fabricación demateriales compuestos utilizando el diseño ergonómico de lapoblación con las variables de edad, peso, estatura, actividadespecífica para generar moldes en software CAD y llevarlo almaquinado para realizar pruebas.

Palabras Clave- moldeo, materiales compuestos, prótesistranstibial.

I. INTRODUCCIÓN

Los moldes son la tecnología que ha resultado de unlargo proceso industrial con el fin de reducir costos, segúnBryce, 1997 [1]; la segunda guerra mundial trajo consigouna demanda por productos producidos en masa y de bajocosto, con este desarrollo se inventaron nuevos polímeros ymateriales para colar en moldes mejorando sus aplicaciones.También define el moldeo por inyección como un procesodonde se calienta el material de tal forma que pueda serintroducido por presión a un molde cerrado, en dicho puntodonde se enfría hasta solidificar y formar una pieza. Comose puede observar en la fig. 1 donde se ejemplifica lafabricación de tapones.

Fig. 1. Moldeo por Inyección

Con dicho desarrollo los científicos experimentaron conresinas naturales derivadas de plantas y animales,utilizándolos como aglutinantes o adhesivos. En 1985 RogerBacon creo fibras de alto rendimiento de carbono mediantela carbonización de filamentos de rayón provenientes de lacelulosa.

Como lo definen Fulay et al [2]: los compuestos seforman cuando dos o más materiales o fases se utilizanjuntas para obtener una combinación de propiedades que nose pueden lograr de otra manera. Los compuestos se puedenseleccionar para alcanzar combinaciones no usuales derigidez, peso, desempeño a altas temperaturas, resistencia ala corrosión, dureza o conductividad. Tanto la facilidad parafabricar en masa mediante técnicas de moldeo como lavariedad de materiales compuestos que se han desarrolladoen la actualidad se han utilizado para un sinfín deaplicaciones, principalmente en la industria aeroespacial,automotriz y médica.

Existen distintos métodos de fabricación de materialescompuestos pero debido a que se vienen utilizando desdehace menos de 50 años existen aplicaciones y métodos defabricación pendientes por mejorar.

Es importante mencionar que la orientación y longitudde las fibras está directamente asociado con el modo deaplicación de cargas que esta tendrá, por ejemplo unmaterial compuesto reforzado con fibras alineadas se usapara trabajar con cargas paralelas al eje de sus fibras, acontinuación se ilustra en la fig. 2; como está compuesta lafibra de carbono.

Fig. 2 Fibra de Carbono

70

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 82: Memoria Seminario FIM UABC 2014

Es gracias a la tecnología de Manufactura Asistida porComputadora (CNC) que se tiene una facilidad para darleforma a piezas mediante el desbaste de material, fue en los50’s cuando se desarrollaron las primeras máquinas CNC,donde se desarrolló el código G para llevar a cabo laprogramación de las maquinas. Gracias a esto hoy en día sefabrican moldes con precisión de micras de pulgada,facilitando y evitando que la fricción sea un factor en contrapara el moldeo por inyección.

Los sistemas CAD/CAM (Diseño Asistido porComputadora / Manufactura Asistida por Computadora) sonlos software que han hecho fácil la implementación de estossistemas a nivel industrial. Hoy en día es tan simple comodibujar una geometría en algún software de diseño (fig. 3),exportarlo a un software de manufactura y generar uncódigo para maquinado, teniendo una gran ventaja de corrersimulaciones de esfuerzos, dimensiones, tensión,temperatura, etc. en las piezas a fabricar, ahorrando materialy tiempo.

Fig. 3. Sistemas CAD/CAM [3]

La utilización de prótesis está relacionada con el númerode discapacitados alrededor del mundo y estás se han idomostrando desde las prótesis de madera en el siglo XVIhasta las prótesis de varios grados de libertad que se tienenactualmente. Las prótesis son elementos que suplantarían oproveerían una parte del cuerpo que falta por diversosmotivos. De los tipos de prótesis tenemos que pueden serdesde miembros artificiales, prótesis auditiva, ocular,maxilofacial, sexual o dental, entre otras.

El diseño y fabricación de prótesis para seres humanosha sido una necesidad de todos los tiempos y siempre unrequerimiento social dado que las personas de escasosrecursos, se les suministran prótesis tardíamente. Segúndatos de INEGI [4]; tan sólo en 2013 más de 75,000amputaciones de pie por diabetes se registraron en Méxicosegún artículos del sector Salud, contando con 16.5 millonesde enfermos.

II. DESARROLLO

Para este trabajo la propuesta es utilizar losconocimientos y aportaciones se han hecho respectotécnicas de moldeo y canalizarla para fabricar moldes pararealizar prótesis de materiales compuestos.

La aplicación de fibra de carbono para fabricar prótesisya ha sido implementada por la empresa islandesa Ossur,como se observa en la fig.4, de manera que en lasolimpiadas paraolímpicas de 2012 fueron los encargados defabricar miembros artificiales para varios atletas cuyaespecialidad es montar bicicleta, correr larga distancia,alpinismo, futbol, entre otros. Según New York Times(2012) [5]; Oscar Pistorius pudo participar para su país(Sudáfrica) en relevos de 400 metros donde compitió conatletas sin discapacidades.

Fig. 4. Prótesis utilizada por Pistorius en Londres 2012 [5]

Dentro de las ventajas de aplicar los materialescompuestos en las prótesis, en este caso refiriéndonos aprótesis de miembros inferiores y centrándonos en el uso dela fibra de carbono, menciona Groover, 2007 [6]; dichomaterial tiene propiedades mecánicas similares a las delacero pero es tan ligero como el plástico, observe Tabla 1.Su única desventaja es el proceso tan elaborado queinvolucra para una aplicación tan específica como la que sepretende.

TABLA 1 COMPARATIVA DE FIBRA DE CARBONO, ALUMINIO Y

ACERO

Propiedad Fibra deCarbono

Aluminio(6061)

Acero(1018)

Módulo deElasticidad

(GPa)220 69 205

Densidad(g/cm3) 0.00175 2.7 7.87

Otra de las ventajas de la fabricación de fibra de carbonoes que no es necesario tener maquinaria robusta, tan sólo esnecesario tener una plantilla con forma que va a obtener lapieza a moldear y una bomba de vacío para introducir laresina al molde de manera uniforme.

71

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 83: Memoria Seminario FIM UABC 2014

III. MATERIAL Y MÉTODOS

Utilizando las Técnicas de moldeo y sus antecedentesindustriales se diseñara una unidad de moldeo paramateriales compuestos con el fin de obtener una prótesistranstibial (fig. 5).

Fig. 4 Explicación Innovación / mejora

Análisis de componentes principales:

Información y antecedentes de prótesistranstibiales.

Estudio del diseño y fabricación de moldes. Métodos de fabricación materiales compuestos. Fabricación y pruebas de equipo de moldeo.

Se pretende fabricar un dispositivo de moldeoconsiderando todos los componentes del sistema, portamoldes flexibles, estructura de posicionamiento, sistema deinyección, sistema de vacío y curado, para desarrollo deprótesis transtibial de materiales compuestos. Como sepuede ver en la fig. 6 esa será la ruta a tomar para obtenerresultados y conclusiones del proyecto.

Fig. 5 Diagrama de flujo de Proyecto

REFERENCIAS

[1] Bryce, D. (1997) Plastic Injection Molding… materialselection and product design fundamentals.

[2] Askeland R., Fulay P., Wright W. (2011). Ciencia e ingenieríade materiales. México: CENGAGE Learning, 6ta edición.

[3] Edgecam (2013) Edgecam DNC Catalog. Recuperado dewww.edcam.com .

[4] S.A. (2010). Censo de Población y Vivienda, Estados UnidosMexicanos con discapacidad, 14/09/14, de INEGI.

[5] Stallman, J. (2012). Oscar Pistorius Track and Field, SouthAfrica. The New York Times.

[6] Groover M. (2007). Fundamentos de manufactura moderna.México: McGraw Hill, Tercera Edición.

72

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 84: Memoria Seminario FIM UABC 2014

1er y 2do. Seminario de Investigación de la Facultad de Ingeniería,

Campus Mexicali

Área de Civil

Page 85: Memoria Seminario FIM UABC 2014

Desplazamientos Residencia – Trabajo de losResidentes en Tijuana, Baja California

Julio Alberto Calderon RamirezUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Alejandro Mungaray MoctezumaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Resumen - El 91.5% de la PEA de la ciudad de Tijuana residey trabaja dentro de la misma localidad. Incluso, alrededor del30% de esta PEA reside y trabaja dentro de una misma secciónde ciudad. A partir de estos datos se ha creído pertinente crearun modelo de desplazamientos Residencia - Trabajo (RT) de loshabitantes de Tijuana, con el fin de evaluar la participación de lainfraestructura de transporte vial y determinar si su utilizaciónsatisface las necesidades de este tipo de traslados en la ciudad.

Palabras clave – Desplazamientos laborales, Tijuana B.C.,Centros Empleadores, movilidad obligada, conmmutting.

I. INTRODUCCIÓN

La proximidad de la ciudad de Tijuana con los Estados Unidos,le es atractiva a compañías extranjeras para establecer grandesparques industriales y de esta manera, emplear a miles depersonas mexicanas. De acuerdo a lo anterior y como lo señalaen Plan Municipal de Desarrollo 2011-2013, Tijuana se destacaen el sistema urbano mexicano incrementando su importanciacomo la tercera ciudad más importante del país por sudinámica productiva y poblacional, además de ser líder comocentro regional, lo que propicia un gran tejido industrial ygracias a la diversidad de su sector terciario, la consolida comouna metrópoli emergente (ver Imagen 1).

Imagen 1. Ubicación de Tijuana, Baja California

La población total de la ciudad de Tijuana ha aumentado másde un 300% entre 1980 y 2010. Este Fenómeno se traduce en lanecesidad de creación de empleos, los cuales se han idogenerando dentro de la propia ciudad de Tijuana, ya que el91,5% de la PEA de Tijuana tiene su sitio de trabajo dentro dela misma ciudad de residencia [1]. Lo anterior, significa que lapropia estructura de la ciudad ofrece viabilidad en suorganización interna, ya sea de forma planeada o no, para quegran parte de su población pueda vivir y trabajar dentro de ella.En este sentido, la morfología de la estructura urbana muestrael trazado de una red viaria fuertemente concentrada.

Sin embargo, como consecuencia del gran crecimientopoblacional de Tijuana, se genera a su vez un fuerte aumentodel tránsito urbano y por lo tanto un problema de acumulacióndel tráfico en las vialidades existentes dada la topografíacomplicada de la ciudad. En este sentido, uno de losproblemas principales que se presentan en esta ciudad es elcongestionamiento de algunas vialidades durantedeterminados periodos.

Es por ello que se pretende asociar los desplazamientoslaborales con la participación de la infraestructura detransporte vial, para determinar si su utilización satisface lasnecesidades de estos desplazamientos; ya que contar con unsistema de infraestructura vial eficiente y bien planeadoaseguran el desarrollo económico y aumenta la productividady competitividad de distintas regiones, por lo que son pilaresdel desarrollo nacional, importantes fuentes de actividadeconómica y de empleos, además, son un factor clave en laintegración, en tanto que enlazan regiones, núcleospoblacionales y centros de producción y de consumo.

II. ANTECEDENTES

Sin embargo, como se mencionó anteriormente el constanteaumento poblacional de Tijuana se traduce en la necesidad decreación de empleos, los cuales se han ido generando dentrode la propia ciudad de Tijuana. Por supuesto, considerando losbeneficios adquiridos por la proximidad geográfica con SanDiego. Con el tiempo, la propia circunstancia transfronterizaha permitido la creación de dinámicas productivas propias dela ciudad de Tijuana. Desde una perspectiva infraestructural,

Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
Memoria del 1er y 2do. Seminario de posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
73
Texto tecleado
ISBN 978-0-9908236-4-3
Page 86: Memoria Seminario FIM UABC 2014

este fenómeno es visible a través de los crecimientos urbanostentaculares que rompen con la inercia convencional decrecimiento concéntrico y concentrado y que siguen el trazadode las carreteras que llegan del este y sur [2].

La morfología de la estructura urbana de Tijuana muestra eltrazado de una red viaria fuertemente concentrada en losalrededores de la frontera y las garitas internacionales. Sinembargo, con el devenir de los años, la presencia de laindustria maquiladora y la dotación infraestructural queaumenta conforme va aumentando la población han terminadopor dispersar la estructura poco a poco hacia nivelesmetropolitanos [3].

III. REVISIÓN DE LITERATURA

Los procesos dinámicos de descentralización urbana hanterminado por crear distintas definiciones sobre la cantidad decentros y subcentros que existen dentro y fuera de los núcleos,al igual que han creado borrosidades en sus límites [4]. Loanterior, ha redefinido los procesos de estructuración urbanainterna de los propios núcleos, sus directrices de crecimiento ysu interconexión con otros, lo que ha incluso sobrepasado suspropios límites administrativos. Las infraestructuras detransporte y la tecnología tienen determinados impactos sobrelos procesos de crecimiento económico y urbano de lasciudades. Además, crean interfaces que van renovando lascaracterísticas de los espacios internos de la estructura urbana,al igual que sus funciones [5].

Es posible mencionar, que los niveles de accesibilidad ycontinuidad que brindan las infraestructuras de transporte alinterconectar un punto con otro, le otorga a los centros lacapacidad de influir sobre ciertos patrones de localización ycrear modificaciones dentro de las estructuras urbanas [6]. Laconcentración de actividades productivas se vinculafuertemente con fuerzas económicas de gran escala queinfluyen sobre las características de creación e ingresos de lasempresas. Del mismo modo, los intercambios que sucedendentro y entre las ciudades se intensifican a través de losdesplazamientos de las personas y las interacciones entre lasempresas, proveedores y consumidores. Por lo que, los centrosterminan por definir las características de los empleos y de lapoblación ubicada al interior de las ciudades centrales y en susáreas circundantes [4].

La innovación y la tecnología han terminado por incorporarsea los desplazamientos de las personas agilizando distintosprocesos [7] de este modo, los procesos históricos de lasciudades se han visto reencausados por fenómenos dedispersión y sus efectos a través de nuevos dinamismospoblacionales. Las nuevas centralidades o sub-centros surgensin restarle importancia al centro principal y muchas veces locomplementan con el objetivo de aprovechar la baseinfraestructural, social, económica y política que ya ha sidoconstruida para su funcionamiento. Las ciudades antiguas y

modernas, terminan por presentar fenómenos deestructuración más o menos similares debido a que lasdirectrices de crecimiento son definidas por fuerzas globales.En este sentido, los procesos de estructuración urbana reflejanla territorialidad de los patrones de movilidad de su población.Por una parte, las dinámicas poblacionales se adaptan a lascondiciones, capacidades y trazados de la propia estructuraurbana. Por otro lado, estas mismas dinámicas de movilidadson las que influyen sobre las directrices de crecimiento ydiseño de nuevas infraestructuras.

Según la hipótesis de la auto-selección residencial, estasostiene que las personas deciden donde vivir basándose en elprecio de la vivienda, en las expectativas de traslado, en lacercanía del sitio de residencia con otros sitios donde selocalice la familia y los amigos, así como, en la calidad de losservicios que ofrece cada barrio. Al no ser un procesorestringido, las preferencias residenciales y las característicasdel entorno construido se encuentran altamentecorrelacionadas, permitiendo que aquellos que tienenposibilidad de elegir sus residencias tengan mayor incidenciasobre las intervenciones gubernamentales Chatman (2009),comenta que:

a) Si existe relación entre un origen residencialdeterminado, los viajes de los residentes y sus destinosprimordialmente dirigidos hacia el entorno construido, terminapor percibirse una competencia por sitios residencialesaccesibles (desde el punto de vista del tránsito) que les permitaa los residentes tener mayor contacto con los tipos deequipamientos que desean (a distancias cortas inclusoaccesibles peatonalmente), como también, tener acceso rápidoal espacio urbanamente denso (centros empleadores, centroscomerciales o recreativos). Lo anterior, lleva a que laintervención gubernamental sea congruente con el tamaño delos grupos socioeconómicos que tienen determinado poderadquisitivo, de las restricciones que impongan sus preferenciasy de la cantidad de barrios construidos con esas características.

b) Si el residente asume como opción la utilización demodos alternativos de transporte puede encontrar másfácilmente un barrio de su preferencia (por supuesto, en unespacio urbano que cuente con diversas redes de transporte queentregan distintos tipos de accesibilidad al territorio),requiriendo un tipo de intervención gubernamental másasociado a la implementación de redes innovadoras detransporte que a la regulación de usos residenciales.

c) Si un grupo considerable de residentes no encuentraun sitio de su preferencia debido a que las regulaciones delsuelo restringen la oferta residencial, entonces la intervencióngubernamental debe verse reflejada en la atención de dichosusos.

Desde esta perspectiva de flujos, se percibe la incidencia dedesplazamientos obligados como los laborales-residenciales,de su territorialidad y las relaciones que presentan referentes atiempos, distancias y costes de traslados, que terminan por

Texto tecleado
74
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 87: Memoria Seminario FIM UABC 2014

ofrecer distintos patrones según el tamaño, la cantidad yvocación de la red de infraestructuras de transporte con quecuente cada espacio urbano. Por este motivo, el “commuting”es un fenómeno poblacional que permite la evaluación de lascaracterísticas monocéntricas o policéntricas de la propiaestructura urbana donde acontece; como también, permiteevaluar la propia efectividad de su red de transporte y de laspolíticas de asignación de sus usos del suelo [9].

Desde la perspectiva de la organización territorial de lasdinámicas humanas en función del poder económico de susactividades, las condiciones territoriales se encargan de sugerirlos espacios más convenientes para la ubicación de nuevosdesarrollos urbanos y la instalación de sectores productivos. Ladeterminación del grado de influencia económica sobre losprocesos de estructuración de los territorios y las dinámicasjerárquicas de la población ha dado lugar al surgimiento deteorías como las de Walter Christaller y August Lösch:

El primero, formuló la Teoría del “Central Place” dondeestablece la posibilidad de obtener una organización adecuadade los centros urbanos sobre el territorio a través de lalocalización hexagonal de centros menores alrededor de unaciudad central mayor. Esto supone una jerarquizaciónfuncional bien definida de cada centro urbano que participa enel modelo y la existencia de varios modelos similares dentro dela totalidad de la extensión territorial [10]. Esta teoría proponeuna distribución equitativa de las urbanizaciones yasentamientos subsidiarios, asumiendo, de igual forma, unageografía equitativa. Las rutas de los flujos económicos sedirigen de los núcleos pequeños a los grandes, pero no sonrepresentativas de los flujos humanos ni de fronteras existentes.Las redes regionales se conforman de acuerdo al nivel deintegración entre las redes subordinadas y sucomplementariedad determina las áreas de mercadohexagonales para cada conjunto de bienes centrales y el trazadoprimario y secundario de las líneas de transporte que cubren elsistema de ciudades [11].

Por su parte, August Lösch llevó a cabo un estudio delocalización económica que estudia las posibles relaciones deinterdependencia existentes entre diversos núcleos y susequilibrios [12]. Este menciona que existen áreas de mercadosimples que circundan como hexágonos simétricos a loscentros de consumo y producción, normalmentecorrespondientes a las grandes ciudades. Existe una red paracada grupo de mercaderías y el conjunto total conforma unsistema que resulta ser ideal para impulsar del desarrolloeconómico de las regiones [13]. Las aportaciones de la“Teoría de Lösch” profundizan en la determinación de lademanda de bienes que acontece en el interior de las áreas demercado y utiliza la figura sistémica hexagonal para distribuiruniformemente el poder adquisitivo. Analiza la relaciónevidente que existe entre la estructuración de las vías decomunicación interurbanas y la organización de actividadeshumanas con respecto del central place. Las condiciones delsistema sostienen que deben reducirse al mínimo los

movimientos del consumidor y que ninguna empresa puedeobtener exceso de beneficios [11].

IV. METODOLOGÍA

La metodología seguida para llevar a cabo esta investigaciónconsiste generalmente en:

- Localizar los espacios dentro de la ciudad, que funcionancomo centros empleadores (CE) laboral y atracción de flujos yobservar sus atributos de conectividad infraestructural con elresto de la red.

- Determinar en qué medida las zonas residenciales (ZR) estándefinidas por la localización laboral o viceversa. Con el fin dedeterminar si este tipo de organización poblacional llega a serun fenómeno que crea modificaciones sobre la estructura, yaque su recurrencia puede culminar en una cantidad indefinidade pequeñas subcentralidades repartidas por toda la ciudad yen procesos de reestructuración vial.

- Seccionar el caso de estudio en niveles de desagregaciónestadística obteniendo 11 secciones que han sido conformadaspor distintos grupos de AGEB.

- Analizar la base de datos resultante de la encuesta NIT T–SD, lo que permite referenciar sitios de trabajo de PEA quemuestran espacios de la ciudad resguardando altasconcentraciones de destinos laborales.

- Realizar una sobreposición de la red vial y las ubicaciones deZR y CE. Asociando estas rutas con las interacciones, seobtendrá el “Modelo de Utilización de la Red Vial para eldesplazamiento RT (URV)”. Aunado a lo anterior, seidentificarán las distintas modalidades del Sistema deTransporte Colectivo (STC) existentes en Tijuana y susrespectivas rutas.

- Aasociar el Modelo URV para determinar si el STC satisfaceo no, la demanda de desplazamientos R-T. Finalmente,dependiendo de los resultados obtenidos se desarrollaránpropuestas de mejoras en rutas y/o puntos críticos detectados.

Por ello, es necesario evaluar si la localización de áreasindustriales, centros de negocios y espacios comerciales,además de otras infraestructuras puntuales que inciden sobrelas dinámicas laborales participan en la definición territorialde los patrones de concentración de empleos en Tijuana.

V. RESULTADOS

En la Imagen 2, se observa la participación en empleos quetuvo cada AGEB respecto al total de empleos de la localidad.La media entregó 0.45% y comprendió los rangos 1 y 2 (rojo yamarillo). En determinados casos, fue posible observar quealgunos AGEB con altas concentraciones de PEA en el 2000han sido precursores para el surgimiento de concentracionesde PEA en otros AGEB colindantes, conformando zonas de

Texto tecleado
75
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 88: Memoria Seminario FIM UABC 2014

concentración laboral más grandes dentro de la ciudadconforme va pasando el tiempo.

Imagen 2. Distribución residencial de personas con empleos por AGEB.

Se obtuvo que el 92% de la PEA de Tijuana labora en lamisma ciudad y que las secciones que concentran mayorcantidad de PEA son las sección 2, 6 y 7 con el 16.2%, 11.9%y 13.1% respectivamente, predominando los desplazamientosinterseccionales en la sección 6 y 7 con el 6% y 9%respectivamente y a nivel intrasecion en la sección 2 con el11.4% (ver Imagen 3 y Tabla I).

Imagen 3. Seccionamiento de Tijuana B.C.

TABLA I. Desplazamientos laborales intraurbanos a distintas escalas.

Secciones %PEAsecciones

TotalIntra

Urbano

DistribuciónNivel Intraurbano

Intrasección Intersección

1 8.5 7.9 3.4 4.52 16.2 14.9 11.4 3.53 6.1 5.5 1 4.54 4.4 4.4 0.8 3.65 6 5.4 2.2 3.16 11.9 10 4 67 13.1 12.8 3.8 98 7.1 6.5 1.5 59 9.6 8.9 3.7 5.2

10 7.3 6.9 2.1 4.811 9.7 9 6 3

Total 100 92 40 52

A escala intraseccional se obtuvo que las dinámicas laboralesmás vinculadas son las actividades por cuenta propia, siendoesto un tanto contrario a lo que sucede a nivel interseccional,esto podría significar entonces que existe una relación directaentre las tipologías de los empleos y la territorialidad de losdesplazamientos desde el punto de vista de su origen y sudestino.

De lo anterior se observó que los CE que requieren deempleados y obreros no necesariamente coinciden contrabajadores con una ZR cercana. Ya que pudo apreciarse quela mayoría de PEA que más debe desplazarse hacia sustrabajos pertenece a estas tipologías y los que menos debendesplazarse son mayoritariamente trabajadores por cuentapropia (que incurren más en movimientos intraseccionales).Además, se observó que la mayoría de PEA por cuenta propiaque se desplaza a nivel interseccional lo hace hacia laconcentración terciaria más importante de la ciudad, ubicadaen las inmediaciones de la Garita Internacional Puerta México/ San Ysidro (ver Tabla II).

TABLA II. Desplazamientos laborales a nivel de sección.

Secciones

PEAsección /

PEATotal

TrabajoIntra-

Urbano

Distribución a nivel intraurbano(/PEA total)

Intrasección Intersección

1 100 91,9 40,2 (Intra col. 17,2) 51,72 100 87,7 66,9 (Intra col. 32,5) 20,83 100 90,3 16,1 (Intra col. 16,1) 74,24 100 100 17,8 (Intracol. 8,9) 82,25 100 87,1 35,5 (Intra col. 22,6) 51,66 100 85,8 35,8 (Intra col. 19,1) 50,07 100 97,0 36,6 (Intra col. 30,6) 60,48 100 90,4 20,5 (Intra col. 19,2) 69,99 100 89,1 37,6 (Intra col. 24,7) 51,5

10 100 93,3 28,0 (Intra col. 24,0) 65,311 100 92,8 62,2 (Intra col. 47,9) 30,6

Total 100 92,0 31,7 (Intra col. 26,7) 51,8

REFERENCES

[1] A. Mungaray, “Análisis de la movilidad laboral poblacional en la regiónMetropolitana – Transfronteriza Tijuana – San Diego y sus incidencia enlos procesos de estructuración urbana”, Tesis Doctoral. Universidad deCastilla la-Mancha, España, 2011

[2] E. Páez, “Procesos en la estructuración del espacio metropolitano. Haciala definición de un modelo de planeación y gestión para la zonametropolitana Tijuana-Rosarito-Tecate, B.C.”, Tesis de Maestría,Universidad Autónoma de Baja California, 2005.

[3] T. Alegría, “Efectos de la industria maquiladora en el empleo urbano”.Comercio Exterior, Vol. 45, No. 10, pp. 11, octubre 1995, BancoNacional de Comercio Exterior, México.

[4] A. Anas, R. Arnott and K. Small, “Urban spatial structure”, Universityof California – Campus Berkeley, 1997.

[5] A. Amilhat-Szary and M. Forny, “Après les frontiers, avec la frontière.Nouvelles dynamiques transfrontalières en Europe”, Bibliothèque desTerritoires, l`Aube Essai, 2006.

[6] J. Coronado, “Condicionantes territoriales en el proyecto de unavariante” en Guirao, B. (et. al.) “Planificación y Diseño de Variantes yTravesías”, Universidad de Castilla La-Mancha, 2006.

[7] M. Castells and P. Himanen, “El Estado del bienestar y la sociedad de lainformación”, Colección: La Sociedad Red, Alianza Editorial, 2002.

[8] D. Chatman, “Residential choice, the built environment, and nonworktravel: evidence using new data and methods”, Environment andPlanning A, Vol. 41, pp. 1072 -1089, 2009.

Texto tecleado
76
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 89: Memoria Seminario FIM UABC 2014

[9] P. Gordon, A. Kumar, and H. Richardson, “The Influence ofMetropolitan Spatial Structure on Commuting Time”, Journal of urbaneconomics”, Vol. 26, pp.138-151, 1989.

[10] E. Boventer, “La teoría de la organización espacial como fundamento dela planificación regional” en Secchi, B. (coord.) “Análisis de lasEstructuras Territoriales”, ed. Gustavo Gili, pp.100-118, 1968.M.Young, The Technical Writer’s Handbook. Mill Valley, CA: UniversityScience, 1989.

[11] W. Berry and W. Garrison, “Últimos desarrollos de la teoría del Central-Place” en Secchi, B. (coord.) “Análisis de las Estructuras Territoriales”,ed. Gustavo Gili, pp.144 -157, 1968.

[12] A. Bailly, “La organización urbana: Teorías y Modelos”, Madrid:Instituto de Estudios de Administración Local, 1978.

[13] A. Losch, “Teoría Económica Espacial”, ed. El Ateneo, 1957.

Texto tecleado
77
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 90: Memoria Seminario FIM UABC 2014

Impacto de la Red Vial de Baja California en laCalidad de Vida de sus localidades

The impact of Baja California´s Highwaysin the Quality of life of their environs

Leonel Gabriel García GómezUniversidad Autónoma Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Alejandro Mungaray MoctezumaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Resumen: La presente investigación argumenta como lainfraestructura vial ha impactado en la Calidad de Vida de BajaCalifornia. Prácticamente, se estiman Índices de MarginaciónUrbana (IMU) en situación ex – ante (2000) y ex – post (2010). Seobserva el comportamiento total de las Áreas GeoestadísticasBásicas (AGEB) de los 5 municipios en base a 3 niveles deaccesibilidad propuesta: el primer nivel considera aquellasAGEB conectadas directamente a la red federal de carreteras; elsegundo nivel abarca las AGEB conectadas a través de un ramalalimentador; y el tercer nivel aquellas AGEB que estánconectadas a través de la red vial secundaria. Por lo tanto, laaccesibilidad es el factor clave que permite la mejora de lascondiciones socioeconómicas de las AGEB a través del tiempo.

Palabras clave: Índice de Marginación Urbana, InfraestructuraVial, Evaluación Ex – Ante y Ex – Post, Localidades, AGEB.

I. INTRODUCCIÓN

La pertinencia y la justificación socioeconómica de cualquierobra de infraestructura es muy cuestionada en la actualidad, deahí esta investigación, que enmarca como la infraestructura vialgenera un impacto sobra la calidad de vida de los habitantesinmediatos a la misma. La infraestructura vial en cualquiercomunidad, estado o país representa un factor estratégico parael desarrollo económico y social de su población [1].Generalmente, las infraestructuras están acompañadas de unapolítica integral donde su objetivo recae en evidenciar demástipos de infraestructura: educativa, en el ámbito de atención ala salud y de vivienda (infraestructura o servicios básicos). Unode los aspectos más importantes que se plantea y que pretendejustificar este estudio es el de como el fenómeno de laaccesibilidad repercute en la reducción de los niveles demarginación urbana, en este caso de las localidades de BajaCalifornia.

II. ANTECEDENTES

A. Generalidad de Baja California

El estado de Baja California cuenta con 5 municipios: Tijuana,Rosarito, Tecate, Ensenada y Mexicali, este último la capital.Baja California tiene una superficie de 71,446 km2 quecorresponde al 3.6% de la superficie total del México y hacefrontera al norte con el estado de California y Arizona (EstadosUnidos), al sur con el estado de Baja California Sur, al este conel estado de Sonora y al oeste con el Océano Pacifico [2]. Lapoblación total del estado pasó de 2,487,367 habitantes en2000, a 3,155,070 en 2010 [3, 4].

B. Red vial de Baja California

La infraestructura vial en la entidad muestra avancesconsiderables al comunicar las cinco cabeceras municipalescon autopistas de cuatro carriles. Baja California cuenta conuna red carretera de 11,129 kilómetros; las carreteras de cuatrocarriles cubren 372 kilómetros, las de dos carriles, 2,402kilómetros, los caminos revestidos equivalen a 4,092kilómetros, 3,092 kilómetros son de brechas y 357 kilómetrosde terracerías [5].

La entidad federativa cuanta con cuatro carreteras federales (1,1D, 2, 2D, 3, 5), algunas de ellas presentan autopista de cuotadistinguida con una letra D. La primera es la carretera federalNo. 1, también conocida como Transpeninsular, su trazo seubica desde el inicio del país, justamente en la garitafronteriza de San Ysidro (Tijuana) y termina en los Cabos SanLucas (B.C.S.); esta carretera cuenta con un tramo de cuotaconocido como La Escénica que finaliza en la ciudad deEnsenada. La segunda carretera es la federal No. 2, queconecta Tijuana, Tecate y Mexicali en Baja California y cruzael país hasta Tamaulipas; esta carretera cuenta con un tramode cuota. La tercera carretera es la federal No. 3, vinculandoEnsenada, la Ruta del Vino y Tecate; y además, comunica aEnsenada con El “Chinero”. La cuarta carretera es la federalNo. 5, comprende entre Mexicali, San Felipe y Puertecitos.

Texto tecleado
78
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 91: Memoria Seminario FIM UABC 2014

C. AGEB en Baja California

Baja California cuanta con un total de 1410 AGEB, sumandolos 5 municipios, el municipio de Mexicali tiene 468, Tijuana543, Ensenada 285, Tecate 51 y Rosarito 63 [3] (ver Mapa 1).

Mapa 1. AGEB en zonas urbanas de Baja California

III. REVISIÓN LITERARIA

El primer cálculo de IMU que se efectuó en México fue en1990 para cada entidad federativa y municipio [6]. Su objetivofue reconocer las carencias de bienes y servicios y la forma encómo vive la población en determinados espacios territoriales.El IMU se utiliza en el diseño de políticas públicas yprogramas, específicamente para medir impactos que prevean ycompensen los efectos de los procesos de expansión urbana enla planificación de servicios públicos necesarios para unavivienda digna (infraestructura, pavimento, luz, agua,hospitales, escuelas, etc.) [6].

La evaluación de la infraestructura carretera o en este caso vialconsidera distintos estudios socioeconómicos, ambientales ytécnicos a partir de una metodología de análisis que permiteentender su pertinencia desde distintos enfoques, ya sea social,administrativo o legal; y desde distintas escalas (local, regional,nacional e internacional) [7]. Estos factores son incluidos enlos análisis de costo y beneficio y en los estudios de viabilidadcarretera desde una perspectiva ex-ante y ex-post, conescenarios antes, durante y después de la ejecución delproyecto.

La evaluación de proyectos ex – ante se efectúa con el objetivode disminuir el riesgo de la decisión final. Este tipo deevaluaciones permite visualizar los costos y beneficios demanera anticipada, así como estimar indicadores derentabilidad [8]. Aunque normalmente los proyectos de índolesocial han sido evaluados bajo criterios de ex-post, en laactualidad se evalúan con criterios ex-ante [9]. La evaluaciónex – post se efectúa con el fin de comprobar la efectividad de laevaluación ex – ante, con base en la experiencia, en valoresreales de las obras, en el reconocimiento inmediato de laaparición de errores y en la disposición efectiva de resultadossin importar de qué tipo sean.

Las situaciones de análisis que se plantean son sin proyecto ycon proyecto [8]. Esta evaluación ex – post busca optimizar laeficiencia operacional del proyecto y estimar lasmodificaciones que se han producido en la poblaciónbeneficiada, para ver el nivel de alcance de los objetivosplanteados al inicio del mismo. La diferencia entre uno y otrométodo de evaluación se basa en la ocurrencia del beneficio.En el caso del ex – ante son futuros y en el caso ex - post sonocurridos aun cuando el proyecto siga en curso [9].

La construcción de nueva infraestructura vial y demás tipos deinfraestructura es parte primordial de las políticas públicas decualquier nación. De ahí la necesidad de evaluar si lasinversiones a donde serán destinados los fondos públicosdisponibles, generaran una rentabilidad socioeconómica [10].

En los últimos años, una gran cantidad de países desarrolladoshan optado por prácticas de buen gobierno en materia deinversiones en infraestructura de transporte, con base enevaluaciones ex-ante, ex-post y la inclusión de planeseconómicos - financieros [11]. La principal conclusión es quelos efectos (actividades económicas, condiciones operativas dela carretera, etc.) y el desarrollo inducido por la infraestructuracarretera, trae beneficios sólidos al territorio.

Si la distribución de la población está influenciada por lascarreteras, de igual forma ocurre con las actividadeseconómicas [12]. Por su impacto en los costos del transporte, laaccesibilidad es un factor importante por la competitividad queotorgan a países y regiones, al facilitar la movilidad deciudadanos y bienes incluyendo los derivados del propioproceso de construcción de infraestructura [13].

Aunque las inversiones en infraestructura carretera noimpulsan por sí solas el desarrollo regional ni municipal, laaccesibilidad en un territorio es clave y las vías carreteras sonel medio generador de tal efecto en áreas periféricas o ruralesescasamente dotadas de infraestructura [12, 14].

El desarrollo de un territorio es razón suficiente para justificaruna obra carretera [15], pues las redes de carreteras desarrollanun sistema integral de caminos que se va adaptando a losefectos que resulta de las relaciones de espacio - temporalidad,elección de destinos, selección de nodos, accesibilidad deusuarios, adaptación de la velocidad, etc., en función de loscambios en la infraestructura que se presentan con el paso deltiempo [16, 17].

Texto tecleado
79
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 92: Memoria Seminario FIM UABC 2014

IV. METODOLOGÍA

A. Evaluacion de la Calidad de vida

Para evaluar los cambios en el nivel de calidad de vida, seutiliza el Índice de Marginación Urbana (IMU) como proxi delmismo, debido a los efectos que la implantación deinfraestructura vial, tiene sobre la misma. Para ello se utiliza elcontexto metodológico ex-ante y ex-post [9], donde laevaluación ex-ante aborda la situación antes y duranteconstrucción del proyecto o infraestructura y la evaluación ex-post abarca la situación después de la implantación delproyecto o infraestructura, en este caso vial.

B. Índice de Marginación Urbana

En proyectos donde se busca medir la mejora del nivel demarginación impactada, su evaluación a través del IMU resultamuy útil como medio inspector del cumplimento de objetivos,pues permite una jerarquización de las unidades de estudio paradespués estratificar el territorio, cumpliendo con una serie decaracterísticas que evidencian la homogeneidad oheterogeneidad entre las divisiones territoriales a través delcriterio de mínima varianza [18]. Para ello se utiliza comounidad de estudio las Áreas Geoestadísticas Básicas (AGEB),que consideran las áreas urbana y rural y es una de las tresprincipales divisiones territoriales basadas en el MarcoGeoestadístico Nacional (MGN) del Instituto Nacional deEstadística y Geografía (INEGI) [6].

Como parte de las evaluaciones ex-ante y ex-post, se estima elIMU para cada AGEB del estado de Baja California, en dosetapas de tiempo: en el año 2000 como ex – ante y en el año2010 como ex –post (ver Figura 1).

Figura 1. Secuencia metodológica básica

Las dimensiones e indicadores socioeconómicos elegidos paraestimar el IMU, permiten medir el avance en el nivel decalidad de vida que presenta la población en su respectivoAGEB, a través del acceso a los servicios básicos de educación(% Población sin escuela y/o con primaria incompleta), salud(% Población sin derecho a servicios de salud) y vivienda (%Viviendas particulares habitadas con piso de tierra, %Viviendas particulares habitadas que no disponen de energíaeléctrica, % Viviendas particulares habitadas que no disponende agua potable, y % Viviendas particulares habitadas que nodisponen de drenaje) [19].

Con la finalidad de determinar el IMU de las AGEB tomadasen cuenta en el estudio, se considera que el nivel marginaciónserá medio alto si el valor del indicador se encuentra entre lamedia y una desviación estándar; alta entre la media más dosdesviaciones estándar; y muy alta, si los valores se encuentranpor encima de más de dos desviaciones estándar. Por elcontrario, el AGEB presentará un nivel de marginación mediobajo si su valor está entre la media y menos una desviaciónestándar; bajo si se encuentra entre la media y menos dosdesviaciones estándar; y muy bajo si está entre la media ymenos tres desviaciones estándar (ver Figura 2).

Figura 2. Descripción de los niveles de IMU mediante distribución normal.

Para calcular el IMU por AGEB se utilizó un procedimientoque permite la sumatoria ponderada de cada uno de losindicadores en cuestión [19]:

6

IMi=∑ aj Zij (1)

j= 1

IMi= Índice de Marginación Urbana por AGEBJ = indica cada uno de los indicadores de marginación (j = 1,..6).

aj = ponderación asignada al cada indicador j de marginación (extraído dematriz de componentes principales en SPSS)Zij= valor estandarizado de cada indicador j de marginación, cuyo valorporcentual se resta del promedio y la diferencia es dividida por la desviaciónestándar de cada indicador socioeconómico.

Una vez obtenida la sumatoria de cada uno de los indicadoressocioeconómicos en sus respectivas AGEB, se determina elnivel de marginación a partir de la distribución normal.

C. Niveles de accesibilidad

La localización de los 5 municipios de Baja California (casode estudio) ha permitido establecer tres escenarios deaccesibilidad respecto al tramo carretero, que son: a)directamente asociados a su trazado, b) comunicados a travésde un ramal alimentador, y c) indirectamente comunicados através de la red secundaria.

Texto tecleado
80
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 93: Memoria Seminario FIM UABC 2014

V. POSIBLES CONCLUSIONES

La calidad de vida de las localidades de Baja California esimpactada considerablemente más no exclusiva por el trazadovial, principalmente debido a los niveles de accesibilidad,conectividad territorial, e impulso infraestructural yeconómico (productivo).Los beneficios durante la modernización histórica-técnica delalgún tramo vial están asociadas a las condiciones deaccesibilidad con que cuenten las localidades, a los procesosde redistribución urbana (visibles con el surgimiento denuevas AGEB) y al fortalecimiento de los sectoreseconómicos. Lo anterior parece ser incluso más determinanteque la distancia geográfica existente entre las localidades y eleje carretero. Sin embargo, es importante señalar que parafines de esta investigación, la metodología de obtención deniveles del IMU consideró exclusivamente los efectos queprovocaban la modernización a través del tiempo que hantenido los tramo viales en las variables relacionadas con unamejor calidad de vida, como educación, salud y vivienda,siendo la accesibilidad la causa principal del mejorcomportamiento del IMU. Ello permite concluir que en el casode las localidades que empeoraron sus niveles de marginaciónentre un año y otro, son las que su vez tienen menoraccesibilidad.Para la agenda futura de investigación habrá que evaluar quéotro tipo de inversiones públicas o privadas se realizaron alamparo de la modernización del tramo carretero y si tuvieronefectos multiplicadores sobre los beneficios de la accesibilidadobtenida.

REFERENCIAS

[1] J. Vassallo y R. Izquierdo, “Infraestructura pública y participaciónprivada: conceptos y experiencias en América y España”, Ed.Panamericana, Bogotá, Colombia, 2010.

[2] SE, Panorama Minero del Estado de Baja California, México, 2013.

[3] INEGI, XIII Censo de Población y Vivienda. Aguascalientes, México,2010.

[4] INEGI, XII Censo General de Población y Vivienda. Aguascalientes,México, 2000.

[5] GOBBC, Infraestructura carretera, México, 2011.

http://www.bajacalifornia.gob.mx/portal/nuestro_estado/infraestructura/carreteras.jsp

[6] CONAPO, Índice de marginación urbana 2010. México, DistritoFederal, 2012.

[7] SCT, Dictamen de factibilidad técnica, económica y ambiental de laCarretera Mexicali-San Felipe. Mexicali, México, 2011.

[8] MDS, Propuesta metodológica de evaluación ex-post de proyectos devialidad interurbana. Santiago, Chile, 2013.

[9] SCT, Consideraciones sociodemográficas complementarias a laevaluación económica de proyectos de infraestructura carretera.Mexicali, México, 2008.

[10] M. Romero, “Evaluación económica de inversiones en infraestructuras”Revista Valenciana de Economía y Hacienda, Año III, No.3, 2001, pp.47-66.

[11] G. Bel, “La racionalización de las infraestructuras de transporte enEspaña” Cuadernos Económicos de ICE. No.80, 2009, pp. 211-228.

[12] S. Nogués, y H. Salas, “El impacto de las carreteras en el desarrollourbano”, Colegio de Ingeniero de Caminos, Canales y Puertos,Biblioteca Digital, España, 2007, 30 pp.

[13] J. Papí et al., “The socio-economic benefits of roads in Europe”,Brussels, Belgium, International Road Federation, 2007, 30 pp.

[14] J. Tarr y G. Dupuy, “Technology and the Rise of the Networketd City inEurope and America”. Philadelphia, Temple University Press, 1988.

[15] SFP, Programa Especial de Mejora de la Gestión de la AdministraciónPública Federal 2008-2012, México, Distrito Federal, 2011.

[16] S. Obregón, “Impacto sociales y económicos de las infraestructuras detransporte viario: estudio comparativo de dos ejes, el Eix Transversal deCatalunya y la carretera MEX120 en México”. Tesis Doctoral,Barcelona, España, Universidad Politécnica de Cataluña, 2008.

[17] G. Dupuy, “El urbanismo de las redes: teorías y métodos”. España,Oikos-tau, 1988.

[18] C. Bistrain, “Revisión de los Índices de marginación elaborados por elCONAPO” Estudios Demográficos y Urbanos, 2010, pp. 175-217.

[19] CONAPO, Índice absoluto de marginación 1990 – 2000. México,Distrito Federal, 2004.

Texto tecleado
81
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 94: Memoria Seminario FIM UABC 2014

Determinación del factor de amplificación enviviendas de mamposteria

Ulises Mena HernándezInstituto de Investigaciones Eléctricas

Gerencia de Ingeniería CivilCuernavaca, Mé[email protected]

Resumen—Esta investigación analiza la situación de viviendasde mampostería con un área de 92.0 m2, del desarrollohabitacional Sevilla Residencial, ubicado en la zona urbana deMexicali, Baja California, al noroeste de México. Como la regiónse encuentra inmersa en una zona tectónicamente activa, sepropone conocer el factor de amplificación (FA), en función de larelación entre el período fundamental de la estructura TE y elperíodo fundamental del suelo T0, que es un indicador de laproximidad o lejanía entre las frecuencias de vibrar del suelo y laestructura, aunado a la presencia del fenómeno de resonancia, elcual se manifiesta cuando existe un FA igual a 1, que en caso demanifestarse incrementaría el nivel de daño en la estructura, conla posibilidad de llevar la estructura al colapso. Del total deviviendas revisadas, el FA obtenido es del orden de 0.3 a 0.5, loque implica que las viviendas que se instrumentaron, no estánpróximas a ser afectadas por el fenómeno de amplificación, encondiciones normales de cargas. Sin embargo, cuando semanifieste un nuevo sismo, la tendencia de TE y T0 es deincrementarse en su amplificación, y en caso de no atender algúndaño previo en la estructura, TE y T0 pudieran coincidir,generando daños estructurales mayores.

Palabras clave—amplificación, período, daño, resonancia

I. INTRODUCCIÓN

La ciudad de Mexicali se encuentra asentada sobre unaregión altamente sísmica, asociado a las condiciones tectónicasde la región, definida por el límite entre las Placas Pacifico yNorteamérica, dicho límite caracteriza un sistema de falla detraslación que se extiende desde San Francisco, California,hasta el Golfo de California, conocido por San Andrés – Golfode California [1]. Localmente el sistema de fallamiento estádado por la falla Imperial, Cerro Prieto, Brawley, SuperstitionHills, Sierra de Juárez y Laguna Salada [2]. La geología de laCiudad de Mexicali está dada por intercalaciones de materialsedimentario y volcánico, formado en un ambiente continentalmarino [3].

Dada la condición tectónica de la región, el 4 de abril del2010 a las 15:40 horas., tiempo local, ocurrió un sismo demagnitud 7.2, Fig. 1, con epicentro 18 kilómetros al sureste deMexicali [4], provocando daños severos en la infraestructura decanales de riego, carreteras, puentes, escuelas, hospitales, loanterior debido a factores de piso débil, efecto de columnacorta, falla en muros de carga por cortante [5].

Con base a lo anterior, en este estudio propusimos revisar elcomportamiento dinámico estructural en viviendas construidasa base de mampostería, eligiendo como caso de estudio elFraccionamiento Sevilla Residencial, ubicado al este de laciudad, dado que varias de sus viviendas manifestaban grietasen sus muros, las cuales aparecieron después del sismo. Elanálisis del comportamiento de la estructura se realizó enfunción de su período fundamental de vibrar TE y del suelo dedesplante T0. Estos parámetros fueron determinados medianteinstrumentación, conformada por siguiente equipo:acelerómetro, sismómetro y esclerómetro.

En referencia a una inspección preliminar al desarrollohabitacional, se observó que las viviendas afectadas habíansido principalmente las de dos niveles. Estas viviendasarquitectónicamente son de dos tipos, particularmente en laplanta alta, Fig. 2. Así mismo, la manifestación del sismo diopie a que las viviendas de este sitio se pudieran clasificarconforme al daño mostrado: dañada, aparentemente no dañaday rehabilitada por los propietarios después de la manifestacióndel fenómeno. El monitoreo se realizó a cinco viviendas, tresviviendas dañadas, una vivienda rehabilitada y una viviendaaparentemente no dañada. En este artículo solo presentamos elanálisis realizado a la vivienda rehabilitada y dañada.

La estructura de las viviendas es a base de mampostería noconfinada, compuesta de bloque de 12 centímetros de espesor,reforzada con acero corrugado en el sentido vertical yhorizontal, cimentación a base de losa de concreto armado,sistemas de entrepiso y azotea aligerados a base de vigueta dealma abierta y casetón de poliestireno, la superficie deconstrucción es aproximadamente 96.0 metros cuadrados.

Alejandro Mungaray MoctezumaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Mario González DuránUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

82

Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 95: Memoria Seminario FIM UABC 2014

Fig. 1. Sismo del 04 de abril del 2010[6]

a). Planta baja b). Planta alta, configuración 1 c). Planta alta, configuración2

Fig. 2. Características arquitectónicas de viviendas monitoreadas a), b), y c)

Con base en la situación sísmica de la región, en el área deingeniería estructural, en particular, en el análisis sísmico, serequiere tener una idea general del comportamiento dinámicode las estructuras ante una manifestación de un sismo, unparámetro que ayuda en este sentido es el factor deamplificación (FA), el cual es un cociente, donde se asocia el

período fundamental de la estructura TE y el períodofundamental del suelo T0, FA= TE/T0, donde estos períodos seobtienen por instrumentación, y la aplicación de la técnica decocientes espectrales [7], teniendo como referencia la vibraciónambiental, la cual se registra mediante un acelerómetro. Elperíodo fundamental tanto de la estructura y del suelo, son unapropiedad dinámica en ambos sistemas. Además de que T0 estáasociado al tipo de suelo y dureza; en el caso de TE, este

83

Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 96: Memoria Seminario FIM UABC 2014

parámetros está vinculado a la rigidez de los materiales (K), en(1), asociada directamente con el módulo de elasticidad (E),momento de inercia J y longitudes de elementos estructurales L[8],

K=EJ/L (1)

En la medida que transcurre el tiempo se espera que K sedegrade, debido a las fuerzas externas a las que se expone elsistema. Dado lo anterior, determinar TE, tiene como propósito

valorar la perdida de rigidez, además de que en los análisissísmicos, es un parámetro base para la determinación de lasfuerzas sísmicas que actúan en la estructura [9] .

El objeto de determinar FA, es valorar la proximidad delcociente a la unidad, dado que entre más cercano a la unidad, laamplificación de los espectros de aceleración tanto del suelo yla estructura se incrementa, de forma tal, que los dos sistemasentran en resonancia, es decir, sus períodos fundamentalescoinciden, propiciando una tendencia de llevar a la estructura alcolapso [9], Fig. 3.

Fig. 3. Amplificación de la respuesta de los sistemas, con diferente período fundamental de vibrar[9].

II. METODOLOGÍA

La estimación de los períodos fundamentales de vibrar TE yT0 está en función de los registros de vibración ambiental,espectros de Fourier y las funciones de transferencia, y latécnica de Cocientes espectrales H/V [7]. En este análisis seseleccionaron 2 viviendas de uno y dos niveles, los registros devibración ambiental se obtuvieron en los centros y esquinas enla losa de azotea de la vivienda.

Para el trazo de las funciones de transferencia dadas por larazón entre el espectro de amplitudes de Fourier horizontaleslateral (L) o transversal (T) y la vertical (V), el procedimientoconsta de las siguientes etapas,

a. Los registros de vibración ambiental obtenidos con unacelerómetro marca Kinemetrics© K2 Altus, compuesto poruna grabadora y sensor triaxial, Fig. 4, el cual se colocadirectamente sobre el terreno, orientando la dirección X delsensor hacia el norte en todos los puntos; además de lacomunicación entre la grabadora y la computadora a través delsoftware Quicktalk y Quicklook de Kinemetrics©.

b. El procesamiento de registros inicia con la conversión delos archivos obtenidos de la instrumentación con extensiónEVT en formato binario, mediante el programa KW2ACS.exede Kinemetrics©, estos se convierten a un lenguaje binario aASCII.

c. Una vez convertidos los archivos en formato ASCII seemplea el software Degtra A4 versión 5.1 [10], Fig. 5, paragraficar los registros acelerográficos en las direcciones lateral(L), transversal (T), y vertical (V), reflejados en gráficassenoidales en dos dimensiones, en donde, en el eje horizontallos tiempos de registros están dados en segundos y en el ejevertical la amplitud, con las cuales se obtienen los espectros deFourier (envolvente de gráficas senoidales), los datos deentrada (DT) son de cero líneas y doscientas muestras porsegundo, en (2),

DT=1/200=0.005 (2)

Para la obtención de los espectros de Fourier de losregistros se analizan intervalos de tiempo de 10 segundos, conel fin de obtener un espectro de Fourier promedio por cada unade las direcciones involucradas. En total se realiza el análisisde diez intervalos de diez segundos por cada uno de losregistros por cada dirección L y T, Fig. 6.

La técnica de Nakamura no hace uso de una estación dereferencia, se calculan los cocientes espectrales de lascomponentes horizontales respecto a la componente vertical,permitiendo obtener el período fundamental aproximado delsuelo, además de que supone que la razón de espectro deamplitudes horizontal de Fourier (SHS) y espectro deamplitudes vertical de Fourier (SVS) ó razón espectral,corresponde a la función de transferencia de los nivelessuperficiales sometidos a movimientos horizontales; de donde,

84

Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 97: Memoria Seminario FIM UABC 2014

se establece la ecuación de la función de transferenciamodificada (SM) de Nakamura, expresada en (3) [11] .

SM=SHS/SVS (3)

Fig. 4. Acelerometro, compuesto por grabadora y sensor triaxial.

Fig. 5. Reistro acelerográfico visto en Degtra A4, versión 5.1

La determinación del período fundamental de vibrar selogra a partir de las funciones de transferencia, donde seanaliza el período característico, que no necesariamente es elde amplitud mayor, su localización más bien está relacionadacon una amplitud bien definida y variaciones de cresta en lagráfica de la función. La relación entre período TE o T0

(segundos) y frecuencia f (Hertz), esta dado en (4),

TE ó 0 =1/f (4)

III. RESULTADOS

Los períodos fundamentales de vibrar tanto del suelo comode la estructura obtenida, se muestran en la tabla I,

TABLA I. PERÍODOS FUNDAMENTALES DE VIBRAR DE SUELO Y ESTRUCTURA

Edificación o medio Período fundamental devibrar (segundos)

1. Suelo T0= 0.427

2. Viviendarehabilitada

2.1 Centro de azotea TE= 0.137

2.2 azotea, esquina posterior TE= 0.138

3. Vivienda dañada,configuración 01

3.1 Centro de azotea TE= 0.15

3.2 Azotea, esquina posterior TE= 0.15

4. Vivienda dañada,configuración 02

4.1 Centro de azotea TE= 0.21

4.2 Azotea, esquina posterior TE= 0.21

La determinación de los períodos fundamentales de vibrarmediante las gráficas de transferencia, se realiza en función delperíodo característico, que no necesariamente es la amplitudmayor, si no que resulta de considerar el tipo de estructura,numero de niveles y tipo de suelo, Fig. 7 y Fig. 8. Una vezconocidos los periodos TE en cada tipo de estructura y T0, losvalores de FA determinados aparecen reflejados en la Tabla II.

Fig. 6. Espectro de Fourier, generado con un intervalo de tiempode 10 segundos

.

85

Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 98: Memoria Seminario FIM UABC 2014

Fig. 7. Función de transferencia del suelo de desplante

Fig. 8. Función de transferencia de vivienda dañada, configuración 1

TABLA II. DETERMINACIÓN DE FA

Edificación o medio Factor deamplificación FA

1. Vivienda rehabilitada

1.1 Centro de azotea FA=0.137 / 0.427=0.32

1.2 Azotea, esquina posterior FA= 0.138 / 0.427=0.32

2. Vivienda dañada,configuración 01

2.1 Centro de azotea FA= 0.150/0.427 =0.35

2.2 Azotea, esquina posterior FA= 0.150 / 0.427=0.35

3. Vivienda dañada,configuración 2

3.1 Centro de azotea FA= 0.21 / 0.427=0.49

3.2 Azotea, esquina posterior FA= 0.21 / 0.427=0.49

IV. DISCUSIONES Y CONCLUSIONES

Con respecto a la Tabla II, se observa en condicionesnormales, entendiendo esto como, el estado que la estructurano es exigida por cargas dadas por sismo, se observa quepara la vivienda rehabilitada y vivienda de la configuración01, el FA dista de un FA=1, sin embargo, la vivienda con laconfiguración 2, resultó con mayor FA, siendo esta última,una vivienda con mayor probabilidad a sufrir mayores daños,en caso de que se llegará a manifestar un sismo con unaintensidad tal que, haga que el FA se amplifique hasta

86

Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 99: Memoria Seminario FIM UABC 2014

aproximarse a 1, lo que propiciara se generé el fenómeno deresonancia, exponiéndola incluso al colapso, en caso de queesta vivienda no se rehabilite. Aunado lo anterior con elsismo del 04 de abril del 2010, las edificaciones con mayordaño fueron las que se encontraban entre uno y cinco niveles,dado que el suelo en la zona urbana de Mexicali, responde aT0 cercanos a los TE de dicha infraestructura [12], lo anteriorsugiere, que en este tipo de infraestructura debe poner mayoratención, buscando análisis y procedimientos constructivosque propicien se incremente la rigidez, mediante elmejoramiento de las propiedades de los materiales y elreforzamiento en su estructuración.

REFERENCIAS

[1] L. G. Alvarez, F. Suárez-vidal, R. Mendoza-borunda, and M.González-escobar, “Bathymetry and active geological structures inthe Upper Gulf of California,” 2009.

[2] J. M. Rodríguez Esteves, “Los desastres naturales en Mexicali, BajaCalifornia: Diagnóstico sobre el riesgo y la vulnerabilidad urbana.,”Front. Norte, vol. 14, no. 27, pp. 123–153, 2002.

[3] D. J. Morán Zenteno, “Geología de la región noroeste de México,” inGeología de la Republica Mexicana, México, Distrito Federal:Instituto Nacional de Estadistica, Geografía e historia, 1981, pp. 3–29.

[4] SSN, “Reporte de Sismos fuertes,” www.ssn.unam.mx, 2010.[Online]. Available:http://www2.ssn.unam.mx:8080/website/jsp/fuertes.jsp. [Accessed:10-Nov-2013].

[5] M. A. Jaimes and E. Reinoso, “A seis meses del temblor del Mayor -Cucapah, Baja California, del 4 de abril del 2010 (Mw=7.2).,”México, Distrito Federal, 2010.

[6] U. S. G. S. USGS, “Shakemap sc14607652,” Earthquakes, 2010.[Online]. Available:http://earthquake.usgs.gov/earthquakes/shakemap/list.php?y=2010.

[7] Y. Nakamura, “A method for dynamic characteristics estimation ofsubsurface using microtremor on the ground surface.” RailwayTechnical Research Institute/Tetsudo Gijutsu Kenkyujo, Tokyo Japan,pp. 25–33, 1989.

[8] F. Beer and R. Johnston, Mecánica de Materiales, Cuarta Edi.México, Distrito Federal: McGrawHill / Interaméricana Editores,2007.

[9] E. Bazán and R. Meli, Diseño sísmico de edificios, 12.1 ed. México,Distrito Federal: Limusa, S.A de C.V, 2010, pp. 99–174.

[10] M. Ordaz, F. Castellanos, and A. Zapata, “Degtra A4, versión 5.1.”Instituto de Ingeniería, UNAM, Distrito Federal, México, 2005.

[11] R. Arroyo, S. Sánchez, R. Guinto, A. Salgado, J. Corona, A. Vargas,R. Cuenca, and M. Rodríguez, La vivienda guerrerense de adobe,Primera ed. Chilpancingo, Guerrero, México, 2010, pp. 11–31.

[12] J. Martinez Martinez, “Fallas estructurales comunes en lasedificaciones de Mexicali, B.C, debido al sismo del 04 de abril del2010.,” XVII Congr. Nac. Ing. Estructural, pp. 1–15, 2010.

87

Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 100: Memoria Seminario FIM UABC 2014

Daños Estructurales Observados en ViviendaAsociados a Sismos en la Ciudad de Mexicali,

Baja California

Gerardo Hernández RetanaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Michelle Hallack AlegríaUniversidad Autónoma de Baja California

Centro de Ingeniería y TecnologíaTijuana, México

[email protected]

Alejandro Mungaray MoctezumaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Luis Mario Rodríguez ValenzuelaUniversidad Autónoma de Baja California

Facultad de Ingeniería.Mexicali, México

[email protected]

Mario González DuránUniversidad Autónoma de Baja California

Centro de Ingeniería y TecnologíaTijuana, México

[email protected]

Resumen: En la presente investigación se evalúa el impactodel daño estructural observado en viviendas en la Ciudad deMexicali, Baja California, a raíz del sismo ocurrido el 4 de abrilde 2010. Esta ciudad al estar asentada en una zona sísmicamenteactiva, el daño estructural lo asociamos a la manifestación desismos, como es el caso del sismo de magnitud 7.2 en escala deRichter afectando una gran parte de la infraestructura urbana. Apartir de este suceso varios organismos se dieron a la tarea dedocumentar la afectación, como es el caso de Centro Nacional dePrevención de Desastres (CENAPRED) de la Secretaría deGobernación, señalando en su reporte anual, el daño a lasedificaciones, principalmente el de la vivienda. Después de esteevento sísmico se registraron en Mexicali daños severos en suInfraestructura Civil, como edificaciones, puentes, carreteras,viviendas, escuelas, hospitales. El presente estudio se enfoca enlos daños estructurales producidos a viviendas dentro de la zonaurbana de la ciudad de Mexicali. El rubro de la viviendafinanciada por el Instituto del Fomento Nacional de la Viviendapara los Trabajadores catalogada como de Interés Social seconsidera como el más afectado por el Sismo del 4 de abril de2010 en lo que a daños estructurales se refiere. El estudioconsistió en visitar tres fraccionamientos y desarrollar un métodobasado en la observación y descripción de fallas estructurales enviviendas con el objeto de documentar el nivel de dañoestructural. La información y características que se analizaronen el estudio fueron lineamientos o grietas en el mortero, en laspiezas de mampostería, y daño severo en muros y en otroselementos estructurales, falla diagonal en los muros demampostería.

Palabras clave: Daño estructural, sismo, mampostería, viviendas,abandono.

I. INTRODUCCIÓN

Dada la condición tectónica de la región, el 4 de abril del 2010a las 15:40 horas., tiempo local, ocurrió un sismo de 7.2grados en la escala de Richter, con epicentro 18 kilómetros alsureste de Mexicali [1], provocando daños severos en lainfraestructura de canales de riego, carreteras, puentes,escuelas, hospitales. Debido a la gran intensidad del evento sepresentaron daños de índole estructural debido a factores depiso débil, efecto de columna corta, falla en muros de cargapor cortante [2]. En el apartado de vivienda se estimó en uninicio, un daño a más de cuatro mil viviendas, sin embargo aun año de distancia se tenían registrado un daño en cinco mildoscientas viviendas. La vivienda fue el sector más afectado,tanto en la vivienda construida en serie por desarrolladoras, asícomo la vivienda construida por particulares. Esto debido aque el suelo en Mexicali, responde a periodos cortos, que sonlos periodos que se esperan en construcciones de entre uno ycinco niveles, los daños manifestados van desdeagrietamientos ligeros a daños severos que ponen a la viviendaen una situación de colapso inminente [3].

Los daños a viviendas se concentraron en el surestede la mancha urbana, en viviendas construidas entre 1970 y1990, así mismo, se observó que más del 60% de la viviendasafectadas fueron construidas con material resistente, ademásde que las viviendas más afectadas fueron las construidas bajola supervisión de promotores estatales, en relación a laspromovidas por promotores municipales [4]. En una revisión

Texto tecleado
88
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 101: Memoria Seminario FIM UABC 2014

hecha en septiembre del 2013, en el fraccionamiento SevillaResidencial, desarrollo habitacional afectado por el sismo,ubicado al este de la ciudad, se observó que el daño mayor sepresentó en los muros frontales y posteriores de la planta bajaen viviendas de dos niveles, estos muros son paralelos alsentido corto de la vivienda, daño vinculadoarquitectónicamente a la densidad de sus muros, de donde esteparámetro es mayor en el sentido longitudinal respecto altransversal.

II. METODOLOGÍA

Se seleccionaron para su análisis tres fraccionamientos quefueron caracterizados como afectados por falla estructural:Sevilla Residencial, Villa del Cedro y Pórticos del Valle. Paralos Fraccionamientos elegidos se llevó a cabo unlevantamiento en campo, observándose las siguientescaracterísticas asociadas a fallas estructurales: Tipo I Daño enJunta de Block, Tipo II Daño Severo en junta de Block, TipoIII Falla Diagonal en Block. En el estudio de campo seobservaron fallas como grietas, desprendimiento de agregadosy morteros, fallas y desprendimientos en los elementos demampostería como fracturas en block. Se realizó recorrido encampo por estos fraccionamientos con un total de 37 viviendasa inspeccionar (ver Gráfica 1).

SevillaResidencial

46%

Villa del Cedro13%

Porticos delValle41%

Figura 1.- Cantidad de Viviendas revisadas por fraccionamiento.Gráfica 1.Cantidad de viviendas revisadas por fraccionamiento

III. RESULTADOS

De acuerdo a la información recabada en la inspección de lostres Fraccionamientos se obtuvo que las viviendas delFraccionamiento de Sevilla Residencial fueron las que sevieron más afectadas por daño estructural asociado al sismodel 4 de abril. En la Figura 2 se pueden observar que los tresfraccionamientos presentaron daños en junta de blockcatalogado por tipo I, el daño estructural severo en junta deblock tipo II se presentó en dos fraccionamientos (Sevillaresidencial y Pórticos del Valle), mientras que el daño porfalla diagonal en el block se presentó únicamente en SevillaResidencial. En la Imagen 1 se observa el daño estructuralobservado en viviendas.

0

1

2

3

4

5

6

7

8

Daño en junta de block Daño severo en juntade block

Falla diagonal en block

SevillaResidencialVilla DelCedroPórticos delValle

Figura 2.- Daños Estructurales en los Fraccionamientos evaluados.Gráfica. 2 Daños estructurales en los fraccionamientos evaluados

De un total de 28 viviendas abandonadas por dañoestructural, se obtuvo que en Fraccionamiento de SevillaResidencial: 4 viviendas presentaron daño en las juntas deblock, 3 viviendas se vieron afectadas con daño severo enjuntas de block y 6 viviendas tuvieron falla diagonal en block;el fraccionamiento Pórticos del Valle: 8 viviendas presentarondaño en las juntas de block, 5 viviendas se vieron afectadascon daño severo en juntas de block, sin presentar ningunadaño por falla diagonal en block; por ultimo en elfraccionamiento Villa del Cedro únicamente presentaron 2viviendas con daño en junta de block y no se presentaron dañosevero en junta de block, ni tampoco falla diagonal en block.

Figura 3.- Daño Estructural en Vivienda.Imagen. 1 Daño estructural en vivienda

IV. CONCLUSIONES

De las viviendas evaluadas, las catalogadas como de InterésSocial son las que más han sido seriamente afectadas por dañoestructural en el sismo del 4 de abril de 2010, se recomienda

Texto tecleado
89
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 102: Memoria Seminario FIM UABC 2014

visitar una mayor cantidad de fraccionamientos para verificarsi esta afectación ha sido el motivo del abandono de lasviviendas. Finalmente, el daño estructural de la viviendagenera demasiada inseguridad en sus ocupantes, obligándolosa deshacerse de la misma. Este fenómeno además de causarpérdidas económicas a la población y a las institucionesfinancieras, genera otro tipo de problemas en la zona. Se havisto que las viviendas abandonadas se vuelven focos devandalismo y delincuencia y que a su vez repercute en unasituación de fraccionamientos casi en su totalidad desalojados.

REFERENCIAS

[1] SSN, Servicio Sismológico Nacional del Instituto de Geofísica de laUNAM, 2010.

[2] M. Jaimes, y E. Reinoso, “A seis meses del temblor del Mayor-Cucapah,Baja California, del 4 de abil de 2010 (Mw=7.2)”. Evaluación deRiesgos Naturales, México, Distrito Federal, 2010.

[3] J. Martinez-Martinez, “Fallas estructurales comunes en las edificacionesde Mexicali B.C debido al sismo del 04 de abril del 2010”. en XVIICongreso Nacional de Ingeniería Estructural, 2010, pp 1-15.

[4] J. Ley García, “Vivienda frágil ante sismos: La acción habitacional en laciudad de Mexicali”. Procesos Urbanos en Baja California, 2012,pp.109-136

Texto tecleado
90
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 103: Memoria Seminario FIM UABC 2014

Evaluación de la susceptibilidad a la deformaciónpermanente de mezclas asfálticas de alto desempeñocon materiales pétreos de Mexicali, Baja California

Cynthia Carolina Martinez LazcanoUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Alejandro Mungaray MoctezumaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Resumen—En México, el diseño y evaluación de una mezclaasfáltica de alto desempeño debe cumplir con los parámetros decalidad establecidos por protocolo AMAAC. Principalmente, lascaracterísticas del material pétreo y los procedimientos dedosificación de la mezcla, determinando su desempeño mediantepruebas de laboratorio. El ensayo de la Rueda de Hamburgo es elmétodo que se opta en esta investigación y simula las cargasimpuestas por el tránsito, en las zonas de mayor incidencia de losneumáticos, con el fin de evaluar la susceptibilidad a ladeformación permanente de los diseños, elaborados conmateriales pétreos de características idóneas. La estructura delmaterial pétreo es un factor que influye en la susceptibilidad a ladeformación permanente de la mezcla asfáltica.

Palabras clave: Mezcla asfáltica, rodera, agregado, AMAAC

I. INTRODUCCIÓN

Un pavimento debe ser diseñado de tal manera que las cargasimpuestas por el tránsito no generen deformacionespermanentes excesivas. En el caso de los pavimentos flexiblesestas deformaciones se producen en cada una de las capas, porello se requiere un análisis de las variables de mayorinfluencia en la deformación permanente de la carpetaasfáltica, siendo este criterio de desempeño uno de los másimportantes en el diseño de un pavimento, y aún más ennuestro país debido a la temperatura, clima y condiciones detránsito presentes en México.

Las mezclas asfálticas han sido típicamente diseñadas conprocedimientos empíricos de laboratorio, lo que significa quese requiere la experiencia en campo para determinar si elanálisis de laboratorio tiene correlación con el desempeño delpavimento.

II. ANTECEDENTES

Mezclas de asfalto de alto desempeño en el ámbitointernacional

En los últimos años se han empleado en Europa y EstadosUnidos distintos dispositivos de ruedas cargadas para evaluarlas propiedades de la mezclas asfálticas, entre las que se

encuentran: la rueda cargada de Hamburgo (HWDT); la ruedacargada (LCPC); el evaluador de pavimentos de laUniversidad de Nottingham; la rueda cargada de Georgia(GLWT); y el analizador de pavimentos asfálticos (APA) [1].

En México, la evaluación de susceptibilidad a la deformaciónpermanente es realizada por medio del ensayo de Rueda deHamburgo mayormente. Este ensayo de rueda cargada esconsiderado como empírico y depende mucho de lascondiciones de preparación de la muestra y de verificación delequipo. Así como de sus propiedades volumétricas.

Método Marshall: Método convencional

El concepto del método Marshall en el diseño de mezclas parapavimentación fue formulado por Bruce Marshall, ingenierode asfaltos del Departamento de Autopistas del estado deMississippi. El Cuerpo de Ingenieros de Estados Unidos, através de una extensiva investigación y estudios decorrelación, mejoró y adicionó ciertos aspectos alprocedimiento de prueba Marshall, a la vez que desarrolló uncriterio de diseño de mezclas.

El método original únicamente es aplicable a mezclasasfálticas en caliente para pavimentación, que contenganagregados con un tamaño máximo de 25 mm (1”) o menor. Elmétodo Marshall modificado se desarrolló para tamañosmáximos arriba de 38 mm (1.5”), y está pensado para diseñoen laboratorio y control en campo de mezclas asfálticas encaliente, con graduación densa. Debido a que la prueba deestabilidad es de naturaleza empírica, la importancia de losresultados en términos de estimar el comportamiento encampo se pierde cuando se realizan modificaciones a losprocedimientos estándar.

El método Marshall utiliza especímenes de prueba estándar de64 mm (2 ½”) de alto y 102 mm (4”) de diámetro; se preparanmediante un procedimiento para calentar, combinar ycompactar mezclas de asfalto- agregado (ASTM D1559). Losdos aspectos principales del método Marshall son la densidad-análisis de vacíos, y la prueba de estabilidad y flujo de losespecímenes compactados; cabe mencionar que este proceso

Texto tecleado
91
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 104: Memoria Seminario FIM UABC 2014

de diseño no tiene especificado pruebas para agregadosminerales ni para cementos asfálticos [2].

Metodo Superpave: Alto Desempeño

En 1987 el Strategic Highway Research Program (SHRP) fueestablecido por el Congreso de los Estados Unidos, con unpresupuesto de 150 millones de dólares en programas deinvestigación a fin de mejorar el desempeño y duración de lascarreteras volviéndolas más seguras tanto para automovilistascomo para los trabajadores de las mismas. Un tercio de estepresupuesto se empleó en el desarrollo de especificaciones dedesempeños basados en asfalto, directamente relacionados conanálisis de laboratorio y con desempeños en el campo.

Iniciando el desarrollo de un nuevo sistema para especificarmateriales asfálticos, el producto final del programa es unnuevo sistema llamado Superpave (Superior PerformingAsphalt Pavement). Representa una tecnología provista de talmanera que pueda especificar cemento asfáltico y agregadomineral, desarrollar diseños de mezclas asfálticas; analizar yestablecer predicciones del desempeño del pavimento. Incluyeuna especificación para cementos asfálticos, un diseño ysistema de análisis de mezclas asfálticas en caliente y unsoftware para computadora que integra los componentes delsistema. Las especificaciones del cemento y el sistema dediseño del Superpave incluyen varios equipos y métodos depruebas, junto con criterios para los mismos [3].

Se desarrollaron nuevas especificaciones para el ligante; unnuevo equipo de compactación (que compacta losespecímenes por amasado giratorio, el cual se ha referidocomo el más representativo de las condiciones reales decompactación de campo); se mejoraron las especificacionesrelacionadas con el agregado; y se desarrollaron nuevosensayos para evaluar el comportamiento de la mezcla [4].

Mezclas de asfalto de alto desempeño en el ámbito nacional

El Protocolo AMAAC es el nuevo método de diseño demezclas asfálticas de granulometría densa de alto desempeñoen México, desarrollado en 2008 por la Asociación Mexicanadel Asfalto A.C. (AMAAC), con la necesidad de contar ennuestro país con un método que contemple las condicionesprevalecientes para el territorio nacional. Con esta acción sepretende lograr pavimentos de calidad que sean duraderos,seguros, confortables y económicos en construcción,mantenimiento y operación.

El Protocolo AMAAC es un sucesor del SUPERPAVEdesarrollado en Estados Unidos, pero adaptado para lascaracterísticas particulares de nuestro país, el diseño de lamezcla se realiza en 4 niveles que se encuentran en función dela cantidad de tránsito y de la importancia de la carreteradonde se aplicara [5].

III. JUSTIFICACIÓN

Actualmente las carreteras son el detonante del movimiento demercancías y personas en nuestro país y en el mundo, por loque una infraestructura vial adecuada mejora sustancialmente

la economía de la región gracias a la facilidad decomunicación.

El incremento en el volumen del tránsito y de las cargasimpuestas por éste, exige mezclas cada vez más durables ycon mejor desempeño, por lo que actividades como el diseño,fabricación y colocación de la mezcla asfáltica deben llevarsea cabo al más alto nivel, optimizando los recursos disponibles.

La práctica actual del diseño de mezclas asfálticas sólo selimita a determinar el contenido de asfalto en la mezcla. Sinembargo, a este hecho le debe preceder una serie de análisis endonde se tomen en cuenta todas las variables que van influirdirectamente en su comportamiento

De ahí, la trascendencia de simular de manera adecuada en ellaboratorio la densificación que ocurre en campo, bajo laacción vehicular y de esta forma llegar a fórmulas de trabajoque permitan dosificar mezclas que exhiban un mejorcomportamiento en condiciones específicas de tránsito y clima[1].

Los métodos actuales de diseño y evaluación del desempeñode la mezcla asfáltica, al ser ensayos empíricos noproporcionan valores de desempeño mecánico, y en lamayoría de los casos se atribuye el buen desempeño en esteensayo a la utilización de un asfalto modificado con polímero.

Otro punto importante es que no se ha definido lasdimensiones de las probetas que deben utilizarse para elcontrol de la obra, ya que existen dos opciones, la primera esla obtención de dos probetas de 150 mm (4”) y la segunda esla extracción de una probeta de 254 mm (10”), teniendoresultados diferentes y que no pueden ser comparados.

IV. OBJETIVO DE LA INVESTIGACIÓN

Determinar el desempeño de diferentes diseños de mezclasasfálticas a la susceptibilidad a la deformación permanentecon materiales provenientes de bancos del municipio deMexicali, Baja California.

Objetivos particulares. Definir la influencia de la estructura del material

pétreo en la susceptibilidad a la deformaciónpermanente de la mezcla asfáltica.

Determinar la influencia del tipo de ligante en lasusceptibilidad a la deformación permanente de lamezcla asfáltica.

Establecer la influencia de parámetros de fabricacióny acondicionamiento de la muestra. (%Va, Corte,altura de la probeta, colocación en el molde).

Definir un procedimiento de análisis de los resultadosde ensayo (pendiente y valor final).

Texto tecleado
92
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 105: Memoria Seminario FIM UABC 2014

Pudieran existir otros objetivos, dependiendo de laaccesibilidad del equipo o facilidades para extraer lasmuestras.

Definir la influencia de la geometría de las probetasen la susceptibilidad a la deformación permanente dela mezcla asfáltica. (Para esto necesitaríamos extraerprobetas de campo de los dos tamaños).

Evaluación de las propiedades mecánicas de lamezcla bajo carga repetida. Disponibilidad delequipo en el IMT.

V. MARCO TEÓRICO

El comportamiento de la mezcla asfáltica se explica mejorconsiderando que el cemento asfáltico y el agregado actúancomo un sistema. Para una mayor compresión delcomportamiento de una mezcla asfáltica, es necesarioidentificar los tipos básicos de deterioros que se tratan deevitar: la fisuración por baja temperatura, la fisuración porfatiga, y la deformación permanente (roderas).

Agrietamiento por baja temperaturaEste tipo de deterioro se caracteriza por la aparición de fisurastransversales que se producen con un espaciamientonotablemente uniforme. La fisuración perpendicular al eje delcamino, por lo general no se asocia a las cargas del tránsito.Cuando la carpeta se encuentra sobre una losa de concretoasfáltico, el fenómeno puede atribuirse a la reflexión de lasgrietas que existen en la losa. La carpeta se contrae debido alas bajas temperaturas, originando esfuerzos de tensión dentrode la capa; en algún lugar a lo largo de la carpeta se excede laresistencia a la tracción, y la capa asfáltica se fisura.

El ligante asfáltico juega un papel importante en la fisuraciónpor baja temperatura. Las mezclas asfálticas elaboradas con uncemento asfáltico de naturaleza dura o propensa a laoxidación, será n más susceptibles a presentar este tipo dedeterioro. Se ha visto que el empleo de ligantes blandos yresistentes al envejecimiento, reducen notablemente lafisuración por baja temperatura; también es importante lograrmezclas asfálticas impermeables con un contenido de vacíosde aire adecuado, con el propósito de que el cemento asfálticoque constituye la mezcla no resulte excesivamente oxidado.

Agrietamiento por fatigaLa fisuración por fatiga es un deterioro que con frecuencia seproduce en la huella donde se aplican las cargas pesadas. Laaparición de fisuras longitudinales intermitentes a lo largo dela huella son un signo prematuro de la fisuración por fatiga; enalgún momento estas fisuras iniciales se unirán con otras,causando un estado intermedio de la fisuración por fatigadando lugar a lo que se conoce como “piel de cocodrilo”. Un

estado de severidad más avanzado de la fatiga, resulta con ladislocación y desprendimiento de bloques de carpeta asfáltica,bajo la acción del tránsito, con llevando a la formación debaches en la superficie de rodamiento. Una mezcla asfálticamuy rígida tiende a oponer baja resistencia a la fatiga cuandola estructura del pavimento permite deflectar a la carpetaasfáltica. Materiales muy rígidos, altas deflexiones y altosniveles de tensiones conducen a vidas útiles, reducidas por lafatiga.

El mecanismo de fatiga no puede enfocarse como un problemade los materiales exclusivamente, ya que este mecanismo seproduce generalmente por un número de factores que debengenerarse simultáneamente; obviamente un factortrascendental son las cargas pesadas repetidas en elpavimento.

La estructura del pavimento juega un rol importante en estetipo de deterioro, ya que una subrasante con un drenaje pobre,resulta en pavimentos blandos con altas deflexiones, pobresdiseños y/o deficiente construcción de las capas delpavimento; así como espesores de pavimento muy delgados yrígidos, son también propensos a sufrir altas deflexiones.

En otros casos, la fisuración por fatiga es sólo un signo de queun pavimento ha alcanzado el número de cargas para el cualfue diseñado; esto no sería necesariamente una falla, sino laprogresión natural de una estrategia de diseño del pavimento.

RoderasLas roderas son deformaciones plásticas en la superficie derodamiento de un pavimento asfáltico, que se presentan a lolargo de la zona de mayor incidencia de los neumáticos devehículos pesados. Usualmente aparece como una depresiónlongitudinal con ligero levantamiento lateral del materialasfáltico [2].

REFERENCIAS

[1] P. Garnica et al., “Análisis de varianza del efecto de algunos factoresque influyen en la deformación permanente de mezclas asfálticas”,Sanfandila, Qro. Publicación Técnica No 272 IMT, 2005.

[2] P. Garnica et al.,“Análisis comparativo de los métodos marshall ysuperpave para compactación de mezclas asfálticas”, Sanfandila, Qro.Publicación Técnica No 271 IMT, 2005.

[3] P. Garnica et al.,“Algunos aspectos de la densificación de mezclasasfálticas con el compactador giratorio”, Sanfandila, Qro. PublicaciónTécnica No 228 IMT, 2003.

[4] P. Garnica et al.,“Caracterización geomecánica de mezclas asfáltica”,Sanfandila, Qro. Publicación Técnica No 267 IMT, 2005.

[5] M. Tinoco, “Aplicación y revisión del Protocolo AMAAC 2008mediante el analiis del estado del arte de las mezclas asfálticas y elseguimiento del tramo de prueba Sta. Rosa a La Barca del km 13 al 17”,Tesis de maestria, Universidad Michoacana de San Nicolas de Hidalgo.Hidalgo, México, 2011.

Texto tecleado
93
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 106: Memoria Seminario FIM UABC 2014

Sistema de rociadores automáticos contraincendio en México:

situacion actual

Luz Amalia Peña VásquezUniversidad Autónoma de Baja Californias

Facultad de IngenieríaMexicali, México

[email protected]

Álvaro López LambrañoUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Abstract— En el presente reporte se analizó el panoramageneral de México en cuanto a la implementación de sistemas derociadores contra incendio, así como la normativa y estándaresinternacionales que actualmente permiten definir los criterios dediseño para el desarrollo de un proyecto hidráulico de tuberías.Por otro lado, se realizó un análisis de la problemática en Méxicoen cuanto a la implementación de los sistemas de rociadoresautomáticos en la construcción. Así como los trabajos que se hanestado desarrollando actualmente en México en materia dereglamentación y normativa contra incendio, así como los planesa futuro en términos de diseños hidráulicos en esta área. Méxicoaún se encuentra en una etapa joven en cuanto a laimplementación de estándares para el desarrollo de un proyectohidráulico de este tipo, sin embargo, se han estado trabajandobases fuertes que permitirán un desarrollo técnico importante enel área de protección contra incendio.

Palabras Clave— sistema contra incendio; normativa; México,FM Global; NFPA; AMRACI; sistema automatico de rociadores;hidráulico; criterios de diseño.

I. INTRODUCCIÓN

Un sistema contra incendio, es un sistema de dispositivos quetienen la finalidad primordial de salvar vidas y proteger bienesinmuebles en caso de fuego.

Un sistema de rociadores contra incendio es un sistema que secompone de una fuente de suministro de agua que abastece auno o varios sistemas, un sistema de bombeo, tuberíasubterránea y tubería aérea diseñadas con base a ciertosestándares con la finalidad de combatir el fuego en áreasespecíficas. En cuanto al sistema aéreo de rociadores, estepuede ser especialmente dimensionado o hidráulicamentecalculado para instalarse en un edificio, un área o unaestructura.

Los sistemas de rociadores automáticos, es uno de los inventosmás importantes para el control del incendio, fueronconcebidos y utilizados en la segunda mitad del siglo XIX. Elprimer sistema de rociadores contra incendio es atribuido aJames Bitchens Francis, de Estados Unidos. Francis fue elresponsable de perforar un sistema de tuberías instalado en

1852 en la compañía Plant of the Proprietors of the Locks andCanals en Lowell Massachusetts [1].

El objetivo de esta investigación es por un lado, evaluar losprincipios y normativa de los sistemas hidráulicos con finescontra incendio que se tienen y en los que se trabajanactualmente en México. A partir de ello, proporcionar unaguía para el diseño de un sistema hidráulico de rociadoresautomáticos contra incendio, que nos lleve a obtener criteriosde diseño adecuados a la ocupación, almacenamiento y áreasque se desean proteger, enfocados a la ciudad de Mexicali ylas características de calidad de agua y clima que ofrece estaciudad.

II. MÉXICO Y SU SITUACIÓN INTERNACIONAL

La normativa internacional, se basa en los estándares de laNational Fire Protection Association (NFPA), que se encargade desarrollar, publicar y difundir más de 300 códigos yestándares con la intención de minimizar la posibilidad yefectos de fuego y otros riesgos [2].

Particularmente, el NFPA 13 “Standard for the installation ofsprinkler system”, nos da las bases para realizar un diseño deun sistema de rociadores contra incendio. Algunas de estasbases son los criterios de diseño según el area a proteger,distribución de rociadores y arreglo de tuberías, densidades deflujo y tipo de rociadores a utilizar, soporteria,dimensionamiento especial de tubería entre otros.

FM Global, es una aseguradora internacional dedicada apropiedades comerciales e industriales, impulsada por laingeniería y gestión de riesgos además está dedicada a lainvestigación de fenómenos relacionados con el fuego. En loque va de este 2014, FM global, ha evaluado 130 países en elárea de “compromiso con la mejora en el riesgo de incendio”donde Noruega es el país con mayor seguridad en riesgocontra incendio, mientras que el lugar 130, lo ocupa laRepublica Dominicana. De esta manera, FM Global ha situadoa México en el rango número 59 de los 130 países evaluados,mientras que el 2013, se situó en el lugar número 62 [3]. La

Texto tecleado
Texto tecleado
94
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 107: Memoria Seminario FIM UABC 2014

evaluación realizada por FM, incluye de manera conjuntafactores económicos, de riesgo, corrupción, ingreso per cápitay otros cinco rubros (ver Imagen 1).

Imagen 1.- Mapa global de simulación del factor riesgo y económico.

A nivel mundial, el estudio del tema en cuanto a diseñohidráulico de tuberías, está en constante revisión yexperimentación, lo que promueve la innovación en cuanto amateriales, cálculos y criterios de diseño.

En comparación con países líderes en el ramo de proteccióncontra incendio, México tiene un retraso tecnológico deaproximadamente cien años, hablando de normativa,regulaciones, estándares y diseños apropiados para la región.

III. PROBLEMÁTICA ACTUAL EN MÉXICO

n México se consideran comúnmente como equipos contraincendio a los extintores portátiles, los sistemas fijos contraincendio a base de agua con mangueras (hidrantes), y a losrociadores automáticos. Erróneamente se considera que losextintores, las mangueras contra incendio y los rociadores sepueden sustituir unos con otros, cuando son tecnologías conobjetivos probados distintos [4].

La problemática general en México, en términos de diseño desistemas hidráulicos para combatir el fuego tiene muchasfuentes, primeramente en este país no existe ningunaregulación que obligue a proteger aéreas de riesgo con unsistema de rociadores. Es decir, algunos reglamentos debomberos de cada ciudad, los reglamentos de construcción ylas normas oficiales mexicanas, solo recomiendan lainstalación de rociadores, sin proporcionar bases o estándaresque permitan seguir una línea para el desarrollo de unproyecto hidráulico de este tipo que nos brinde un criterio dediseño apropiado para el riesgo del lugar.

La Norma Oficial Mexicana, NOM-002-STPS-2010,“Condiciones de seguridad-Prevención y protección contraincendios en los centros de trabajo”, cuenta con un anexo

titulado “guía de referencia”, la cual señala que “el contenidode esta guía es un complemento para la mejor comprensión dela Norma y no es de cumplimiento obligatorio” [5].

En esta misma norma, la guía de referencia V “Sistemasfijos Contra incendio”, en el punto V.3 Uso de los sistemasfijos contra incendio del tipo de rociadores automáticos yotros alternativos, en su inciso a), indica lo siguiente: “Serecomienda utilizar sistemas fijos contra incendio del tipo derociadores automáticos, en las áreas de los centros de trabajoclasificadas con riesgo de incendio alto” [5].

La norma oficial mexicana, obliga en ciertas ocasiones ydependiendo de algunos factores, como el tipo de riesgo yalmacenamiento, instalar sistemas fijos contra incendio, estose encuentra señalado en la NOM-002-STPS-2010, en lasección 5, “Obligaciones del patrón”, en el punto 5.10 [5].

Otro de los problemas a los que se enfrenta la implementaciónde sistemas hidráulicos de rociadores automáticos contraincendio, es el costo de realizar un diseño e instalación de estetipo, el cual no es muy elevado en comparación con el montajey uso de mangueras contra incendio, sin embargo, volviendoal punto anterior, al no ser un tema obligatorio el constructor odueño tiene preferencia por una alternativa más económica,aunque en caso de incendio represente un riesgo mayor tantopara los individuos como para el inmueble.

Los sistemas fijos contra incendio, refiriéndose a hidrantes yextintores, representan entre el 3% y 6% del costo total deledificio. En comparación a un sistema hidráulico de tuberías apresión adecuado que no requiere ser operado por personal dellugar, el cual representa del 4% al 9% del costo total de laconstrucción. [3].

IV. TRABAJOS RECIENTES EN MÉXICO

Atendiendo esta problemática, se formó en el 2012, laAMRACI (Asociación Mexicana de Rociadores Automáticoscontra Incendio), apoyada por organismos internacionalescomo lo es NFCA y FM Global la cual colabora actualmentecon autoridades federales, estatales y municipales en larevisión y creación de una reglamentación adecuada para estepaís.

Actualmente, se pretende adaptar estándares internacionalespara implementarlos en México, iniciando con la traducción yrevisión del NFPA 13 “Standard for the installation ofsprinkler system”, que da las bases para el diseño de unsistema hidráulico de tuberías. Esta traducción se convertiría afuturo en una Norma Mexicana de referencia para instaladoresy diseñadores en México.

Por otro lado, en el 2013, se registró el programa decertificación CETRACI, (Certificación en Tecnología deRociadores automáticos contra incendio), en su nivel básicobajo el estándar EC0371 Diseño de Sistemas Básicos deRociadores Automáticos Contra Incendios [6], desarrollado en

Texto tecleado
95
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 108: Memoria Seminario FIM UABC 2014

conjunto con la Sprinkler Academy de Estados Unidos. Esteprograma se encuentra avalado por el Consejo Nacional deNormalización y Certificación (CONOCER), organismodescentralizado de la Secretaría de Educación Pública (SEP),la Asociación Mexicana de Empresas del Ramo deInstalaciones para la Construcción (AMERIC), la AsociaciónMexicana de Jefes de Bomberos (AMJB).

En los próximos años, se espera revisar y adaptar para Méxicolos principales estándares internacionales en materia deprotección contra incendio, introducirlos como normativamexicana y finalmente incluirla dentro de las normas oficiales,para que adopten carácter obligatorio para ciertasconstrucciones, con la finalidad de salvar vidas y proteger elinmueble.

V. CONCLUSIONES

A lo largo de los años, hemos sido testigos de tragediasnacionales e internacionales que han tomado y marcadomuchas vidas a raíz de desastres provocados por el fuego.

Es por ello que especialistas en diseño hidráulico y sistemascontra incendio se han dado a la tarea de implementar,modificar y revisar bases y estándares para un óptimofuncionamiento de los sistemas hidráulicos y auxiliares encaso de desastre propiciado por el fuego.

México se encuentra actualmente en un punto importante en lareevaluación de su normativa y adecuación de los estándaresinternacionales a las condiciones técnicas que ofrece nuestropaís para la protección contra incendio de vidas e inmuebles,ya que los reglamentos y normas que rigen a México y susentidades en esta área, aún se encuentran en desarrollo.

La tarea de una nueva normativa nacional será ardua yrequiere indudablemente de personal capacitado para construirbases firmes que se reflejen en regulaciones que protejan lavida de los ocupantes y los bienes inmuebles.

REFERENCIAS

[1] NFPA Journal. The Birth of NFPA by Casey Cavanaugh Grant, PE.

[2] NFPA http://www.nfpa.org/about-nfpa

[3] FM Global. Annual Report 2014. Resilience Index.

[4] “Porqué los rociadores automaticos”. AMRACI (Asociacion Mexicanade Rociadores automaticos contra incendio)http://www.amraci.org/rociadores.php

[5] Norma Oficial Mexicana, NOM-002-STPS-2010, “Condiciones deseguridad-Prevención y protección contra incendios en los centros detrabajo”

[6] Capacitación.CETRACI http://www.amraci.org/cetraci.php

Texto tecleado
96
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 109: Memoria Seminario FIM UABC 2014

Análisis Regional de Frecuencias en Sequías aescala anual en la Cuenca del Río Colorado

Dennice Pérez-GonzálezUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Michelle Hallack-AlegriaUniversidad Autónoma de Baja California

Centro de Ingeniería y Tecnología,Tijuana, México

[email protected]

Resumen—La Cuenca del Río Colorado (CRC) es una cuencatransfronteriza que está enfrentando una sequía constante desdeel año 1999 y que se ha perdurado a la fecha. La CRC representauna importante fuente de agua para el suroeste de los EstadosUnidos y noroeste de México. En México, es particularmente degran importancia ya que abastece de agua a los principalesmunicipios de Baja California, Mexicali, Tecate, Tijuana yPlayas de Rosarito. De esta manera, con el propósito de mitigarlos efectos de la sequía, en el presente estudio se realiza unanálisis regional de frecuencias con la finalidad de determinar laprobabilidad de ocurrencia y frecuencia de sequías que es decarácter importante para la gestión de recursos hídricos en zonasáridas y semiáridas. Para la aplicación de los procedimientosestadísticos asociados a los L-momentos se generan una base dedatos de precipitación de acuerdo a los pasos establecidos en lametodología del análisis regional de frecuencias. El objetivo deeste trabajo preliminar es realizar una revisión de los datos deprecipitación existentes en la CRC, así como preparar las seriesde tiempo necesarias para el análisis y con ello determinar laintensidad, duración y períodos de retorno de los eventos desequía.

Palabras claves: Análisis de Frecuencias, período de retorno,L-momentos, sequía

I. INTRODUCCIÓN

La sequía es un período prolongado de tiempo durante el cualse observa una deficiencia en la precipitación. Es un fenómenogradual, y a menudo es difícil identificar el final de una sequía[1]. Una de las características de la sequía es el déficit de agua,tanto en términos de precipitación como en términos de loscaudales, es decir la disponibilidad de agua en una regióndeterminada [2]. La Cuenca del Rio Colorado CRC representauna importante fuente de agua para el suroeste de los EstadosUnidos y noroeste de México. Provee agua para más de 30millones de personas y para irrigar entre 1.2 y 1.6 millones dehectáreas de terrenos agrícolas en Estados Unidos y México[3]. La cuenca nace en las montañas rocallosas de los EstadosUnidos, siguiendo una dirección suroeste a través de losestados de Colorado, Wyoming, Utah, Arizona, y California,cruzando después a los estados de Sonora y Baja California.Abasteciendo en este ultimo los municipios de, Mexicali,Tecate, Tijuana y Playas de Rosarito (ver Figura 1). La CRC

ha presentado sequías continuas a escala regional desde 1999 ala fecha [4]. Manifestándose en el almacenamiento de laspresas con los niveles más bajos en la historia, [5]. Es poresto, que el presente estudio realiza un análisis regional defrecuencias de sequía basada en la técnica de L-momentos conel fin de determinar su intensidad, duración y periodo deretorno asociado a dicho evento. Esta metodología ha sidoaplicada con gran aceptación en la elaboración del Atlas desequía de EE.UU. [1], determinación de sequíasmeteorológicas al noroeste de México [6], en el análisis de lassequias hidrológicas al sur de Alemania [7] y en Chile [8], estoporque ofrece ventajas respecto a los análisis de sitio ymétodos convencionales [9]. En este sentido en el presentetrabajo se aplicó la metodología Análisis regional deFrecuencia basada en L-momentos, con el objetivo dedeterminar los períodos de retorno asociados a sequías enescala anual para la Cuenca del Río Colorado.

Figura 1. Localización de la Cuenca del RioColorado

Texto tecleado
97
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 110: Memoria Seminario FIM UABC 2014

II. METODOLOGÍA

El análisis de sequías meteorológicas locales a escala detiempo anual se realiza con la metodología denominadaAnálisis Regional de Frecuencias basado en L-momentos. Selleva a cabo para producir la estimación de períodos de retornode la precipitación basado en una serie histórica de registrosde precipitación anual para el sitio de estudio, los cuales seobtienen de datos de estaciones meteorológicas [8]. Para elprocesamiento de la información se utiliza el software L-RAP,desarrollado por MGS Engineering Consultants, Olympia,Washington.La metodología de Análisis Regional de frecuencias consisteen cinco etapas: 1. Revisión y preparación de datos yconstrucción de una base de datos de precipitación mensualpara la Cuenca del Rio Colorado 2. Identificación de regioneshomogéneas. 3. Selección de la distribución de frecuencia. 4.Calculo de parámetros, estimación de la función de cuantiles.5. Mapeo del periodo de retorno.En este estudio se aborda la primera etapa que consiste enanalizar y preparar los datos de precipitación disponibles conel fin de determinar el uso de estos en el análisis. Además seespera determinar la confiabilidad de los datos, esperandodetectar valores anormales. Los registros se obtuvieron deEEUU, a través del organismo oficial que administra los datosclimáticos, National Oceanic and Atmospheric Administration(NOAA). De un total de 226 estaciones disponibles fueronutilizadas 98, 56 de la Cuenca baja y 42 de la Cuenca alta.Para este análisis se trabajó con la región baja de la CRC. Paratal efecto, es probable eliminar algunos registros deprecipitación incompletos. De esta forma se han generadoseries de precipitación mensual y anual en milímetros. Laconstrucción de la base de datos de precipitación consiste enidentificar registros mensuales con datos diarios deprecipitación incompletos o ausentes para clasificar al mescomo nulo. Las series anuales de precipitación se hancalculado mediante la sumatoria de los valores mensuales. Asílas estaciones con menos de 30 años de registro fuerondescartadas. Estos procedimientos fueron realizados mediantelos comandos del programa Microsoft Excel

III. RESULTADOS

En este avance se presentan resultados correspondientes a laEtapa 1 de la metodología de ARF-L aplicados a la CRC. Sehan seleccionado las estaciones a utilizar, de las cuales serealizó la construcción de una base de datos de precipitaciónmensual para la parte baja de la CRC. De un total de 226estaciones disponibles fueron utilizadas 98 (ver Figura 2), 56

en la región baja de la CRC y 42 en la región alta de la CRC.Las estaciones que se dejaron fuera del análisis fueron bajo elcriterio de no contar con un mínimo de 30 años de registro. Seutilizó un total de 56 estaciones en el análisis, las cualescontaron con registros de precipitaciones mensuales y diariasen milímetros

.

IV. CONCLUSIONES

Los registros de precipitación de las 58 estaciones climáticasde la Cuenca baja, permitirán generar una base de datosadecuada para la aplicación del análisis regional defrecuencias basado en los L-momentos mediante la revisión yeliminación de datos.El análisis regional de frecuencias permitirá realizar el periodode retorno asociados a sequia meteorológica de la Cuenca delRío Colorado.

REFERENCIAS

[1] WERICK, W. J., et al. National drought atlas developed. Eos,Transactions American Geophysical Union, 1994, vol. 75, no 8, p. 89-90.

[2] O.M. Valiente,. “Sequía: definiciones, tipologías y métodos decuantificación”. Investigaciones geográficas, nº 26, 2001; pp. 59-80.

[3] Nash L.L., Gleick P.H. “Sensitivity of streamflow in the Colorado basinto climatic changes”. Journal of hydrology, 1991, vol. 125, no 3, p. 221-241.

[4] Pulwarty, R., K. Jacobs, and R. Dole. The hardest working river:drought and critical water problems in the Colorado River Basin. CRCPress, Boca Raton, FL, USA, 2005.

[5] O. Hinojosa-Huerta and Y. Carrillo-Guerrero. "La Cuenca Binacionaldel Río Colorado." Las Cuencas Hidrográficas de México: Diagnósticoe Priorizacíon. Ed. Arturo Garrido Pérez. México, DF: PluraliaEdiciones e Impresiones (2010): 180-189.

Figura 2. Localización de las 98 estaciones climáticasen la Cuenca del Rio Colorado

Los materiales que se utilizan en el análisis regional defrecuencia basado en los L-momentos, el cual se llevara acabo para producir la estimación del periodo de retorno de laprecipitación serán basados en la estimación de los datos deprecipitación mensual y diario en milímetros, Además seutilizaran Software de sistemas de información geográfica(ArcView). Códigos Fortran de L-Momentos. Software L-RAP. Software Microsoft Office.

Texto tecleado
98
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 111: Memoria Seminario FIM UABC 2014

[6] M. Hallack-Alegria, & JR Watkins. “Annual and warm season droughtIntensity-Duration-Frequency Analysis for Sonora, Mexico”. Journal ofClimate, 20 (9):1897-1909, 2007.

[7] S. Demuth, C. Kulls,. Probability analysis and regional aspects ofdroughts in southern Germany. IAHS Publications-Series ofProceedings and Reports-Intern Assoc Hydrological Sciences, vol. 240,p. 97-104, 1997.

[8] Nuñez, J., Verbist, K., Soto, G., Naranjo, R. & Morales, L. (2011).“Análisis regional de frecuencia de sequías en la región semiárida deChile”. http://www.aquaknow.net

[9] J. Acuña., O. Felipe., J. Ordoñez., & F. Arboleda. “Análisis regional defrecuencia de precipitación anual para la determinación de mapas desequías Regional analysis of annual rainfall frequency for thedetermination of drought maps.

Texto tecleado
99
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 112: Memoria Seminario FIM UABC 2014

Linea de alta velocidad ferroviaria en la fronteraMéxico-Estados Unidos

Caso de Estudio: Mexicali – Tijuana, Baja California

Alejandro Sánchez AtondoUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Alejandro Mungaray MoctezumaUniversidad Autónoma de Baja California

Facultad de IngenieríaMexicali, México

[email protected]

Resumen — La presente investigación busca determinarventajas y desventajas generadas por la implementación de unalínea de tren de alta velocidad en México. Se analiza la escalaterritorial a nivel de franja fronteriza, tomando en cuenta que lalínea ferroviaria puede ser un mecanismo para interconectar alas principales ciudades de la frontera, en un sentido este-oeste. Asu vez, se analiza el caso particular de Mexicali - Tijuana, enBaja California, considerando que ambas ciudades cuentan conmás de un millón de habitantes y se encuentran a una distanciaaproximada de 200kms. La ciudad de Tijuana se enlaza con laregión de San Diego, en Estados Unidos, reconocida como una delas zonas metropolitanas más importantes económicamente de supaís y que congrega más de 3 millones de habitantes. Por lo tanto,se vislumbran una serie de retos en el ámbito de la ingenieríacivil que tienen que ver con los aspectos geofísicos de la zona, ladeterminación de los procedimientos constructivos óptimos y lainstalación de las estaciones de ascenso y descenso dentro de lospuertos de acceso fronterizo de ambas ciudades.

Palabras Claves — tren de alta velocidad, cruces fronterizos,morfología de red de alta velocidad, viabilidad técnica.

I. INTRODUCCIÓN

En los últimos años en nuestro país se ha tratado el tema de laimplementación de la tecnología de alta velocidad, incluso enpoco tiempo se dará inicio a la construcción de la primeralínea ferroviaria con estas características (México –Querétaro). Sin embargo, en México y en toda AméricaLatina, esta tecnología es relativamente nueva y hasta un tanto“desconocida”.

México forma parte de una dinámica transfronteriza especialal colindar al Norte con Estados Unidos, esto conlleva a existiruna frontera física que genera una discontinuidad en cuanto acomunicación se refiere. Por otro lado, como es de esperarse,una línea ferroviaria de alta velocidad incide en las dinámicaspoblacionales y desarrollos socioeconómicos de las regiones,incluso en la ordenación territorial de las ciudades quecomunica. En ese contexto, resulta interesante plantearse unaserie de cuestionamientos, ¿cómo incidiría una línea de altavelocidad en la frontera México – Estados Unidos?, ¿es ahora

el momento adecuado para invertir en este tipoinfraestructura? Dar respuesta a estas preguntas implica llevara cabo una extensa investigación con enfoques técnicos,económicos, sociales, medioambientales, entre otros. Además,de requerir una considerable inversión de recursos humanos,financieros y sobre todo, de tiempo. En ese sentido, primerodebemos preguntarnos si la franja fronteriza México – EstadosUnidos, con todas sus dinámicas y características, justificallevar a cabo una investigación de tales dimensiones.

II. EL TREN DE ALTA VELOCIDAD.

Un tren de alta velocidad alcanza velocidades superiores a 200km/h y hasta 400 km/h. Por su elevada velocidad compite conel transporte aéreo para el caso de distancias medias del ordende los cientos de kilómetros. Es considerado como el medio detransporte más seguro del mundo, superando incluso al avión.

Los trenes de altas velocidades (TAV) se desarrollan hacedécadas. El primer servicio de alta velocidad se efectuó enJapón (Shinkansen) en 1964, vinculando la ciudad de Tokiocon Osaka, habilitado para circular a una velocidad de 270km/hora. Francia, fue el segundo país con trenes altavelocidad, y por ende el primero en Europa (TGV), tuvo suprimer servicio en 1981, comunicando París con Lyon. Hubootros países que desarrollaron tempranamente el sistema dealta velocidad ferroviaria. Entre ellos, Italia en 1981 tuvotrenes circulando a 250 km/hora y que hoy alcanzan los 300km/hora en una red de 744 km. En 1988, Alemania llegó a los280 km/hora. En 1992, España inauguró su servicio de altavelocidad con trenes circulando a 270 km/hora [1].

Además del factor velocidad, esta tecnología tieneparticularidades distintas a las de los ferrocarrilesconvencionales que existen actualmente en nuestro país, talesse mencionan a continuación:

Requieren de trazos con radios de curvatura muyamplios, por lo que en ocasiones son necesarias grandesobras de ingeniería como puentes o túneles.

Texto tecleado
100
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 113: Memoria Seminario FIM UABC 2014

Ya que principal objetivo es cubrir distancias grandes enpoco tiempo, estas líneas ferroviarias suelen contar conpocas estaciones intermedias, por lo que no dan acceso ala mayor parte del territorio y más bien, polarizan ladinámica entre las ciudades que cuentan con estación.

Debido a la similitud, el sistema de trenes de altavelocidad es una competencia para el transporte aéreo yno para el tren convencional. La ubicación de lasestaciones se asemeja más a la de los aeropuertos.

Se caracteriza por altos niveles de confort y calidad deservicio, además de frecuencias elevadas.

En términos generales, son utilizados solo para eltraslado de personas. Hay pocos casos en el mundodonde se utilizan también para transporte de mercancías,y lo hacen en horario nocturno.

III. EL SISTEMA DE CIUDADES TRANSFRONTERIZAS

La frontera USA-México ha cambiado con el paso del tiempodesde que el territorio era gobernado por España. Una vez quela línea fronteriza se definió por completo, distintaslocalidades iniciaron su proceso de conformación y seubicaron sobre un territorio lejano y desvinculado de losprocesos urbano-sociales más importantes tanto en Méxicocomo en Estados Unidos [2].

De lado mexicano, la mayoría de las áreas metropolitanas seubican en la zona centro-sur del país, lejos de la frontera, sinembargo existen también importantes centros urbanos en lasinmediaciones de la frontera norte. Por otro lado, en EstadosUnidos anteriormente los grande centro económicos estabanen la costa Este, sobre todo por sus relaciones comerciales conEuropa, sin embargo esta organización se ha idodiversificando por distintos factores como guerras, fenómenosde migración, etcétera, lo que ha hecho que en la zona Sur ysobre todo Sur-Oeste, se desarrollen nuevos centros urbanoscon un gran peso en la economía de dicho país.

En un origen, la poca articulación de las ciudades de fronteracon el resto de sus sistemas urbanos ha significado su propioposicionamiento económico a niveles locales y regionales. Loque también les ha permitido adquirir un rol importante dentrode la economía nacional y transnacional. Este fenómeno, seconsidera la causa por la cual el espacio fronterizo mexicanose ha visto articulado, desde un principio, más en función delas actividades e iniciativas de USA que con aquellasactividades ocurridas en el territorio nacional [3].

Con el devenir de los tiempos, el espacio urbanotransfronterizo de USA-México, ha venido presentandofenómenos de transculturación y dinámicas socioeconómicasmuy peculiares, a través de actividades formales e informales,

que han terminado por conciliar procesos de interdependenciay formas geográficas específicas y desiguales [2].

IV. METODOLOGÍA

Para definir si es pertinente llevar a cabo una investigaciónmás extensa, en cuanto a la incidencia de una línea de altavelocidad ferroviaria en la franja fronteriza México – EstadosUnidos, se plantearon 4 pasos.

Primeramente se hace un análisis de las distintas morfologíasde redes de alta velocidad en el mundo, con el objetivo dedefinir qué tipo de red es la necesaria para la interconexión delas ciudades de la franja fronteriza México – Estados Unidos.

Posteriormente, se definen las ciudades que estaráninterconectadas por la línea, para esto se analizaron 3aspectos:

Distancias entre ciudades Población de ciudades Características de los cruces fronterizos

Asociando estas 3 variables, se definen las ciudades quecumplen con las características para tener una estación.

Por otro lado, enfocándonos en el caso de estudio particularMexicali – Tijuana, se hace un pre-análisis técnico, el cualconsiste en confrontar las condiciones geofísicas existentesentre estas ciudades con los requerimientos de la tecnología detren de alta velocidad. Así mismo, se evalúa si existen líneasde alta velocidad que transcurran por sitios con condicionestopográficas similares a las del caso de estudio.

V. RESULTADOS

A. Morfología de Redes de Alta Velocidad de en el Mundo

Se estudió la morfología de las redes ferroviarias de altavelocidad de 5 de los países que tienen más desarrollada estatecnología en el mundo: España, Francia, Alemania, Italia yJapón. Las variables consideradas fueron la forma de la red yla distribución entre estaciones. Los resultados se resumen enlos siguientes párrafos.

La red de alta velocidad ferroviaria en España presentauna geometría concéntrica (ver Fig. 1), todas las líneastiene como origen Madrid, ciudad ubicada en el centrodel territorio Español. El caso de Francia es similar,donde las líneas siempre están relacionadas con París,ubicada más o menos en la zona central de Francia. Enambos casos el peso poblacional de las capitales es muyelevado y los distintos núcleos poblacionales conpoblaciones considerables, están en las cercanías de lascostas o las fronteras, situación que define la morfologíade la red en ambos países. En España, la mayoría de lasestaciones están en un rango de distancia de 50 a 100

Texto tecleado
101
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 114: Memoria Seminario FIM UABC 2014

kilómetros, mientras que en Francia se ubican entre los100 y los 150 kilómetros.

Por otro lado, Alemania presenta una distribuciónpoblacional mucha más uniforme que los dos casosanteriores, por lo que la geometría de la red no esconcéntrica y se asemeja más a un mallado (ver Fig. 2),esta configuración mantiene distancias entre estacionesen su mayoría menores a 50 kilómetros.

En Italia la red está conformada por 2 líneas que unen lasciudades más importantes. La primera y principal correen sentido Norte – Sur y conecta casi la totalidad delterritorio, mientras que una segunda línea transcurre ensentido Este – Oeste conectado las ciudades en la partenorte y extendida del país. En este caso las estacionesestán separadas desde distancias mínimas como 25kilómetros hasta otras más extensas como 254kilómetros. Caso similar el japonés, donde la red de altavelocidad asemeja la forma alargada de su territorio yconecta la totalidad del país (ver Fig. 3).

Fig. 1. Redes de Alta Velocidad en España y Francia, 2013.

Fig. 2. Red de Alta Velocidad en Alemania, 2013.

Fig. 3. Redes de Alta Velocidad en Italia y Japón, 2013.

En ese sentido, la morfología de red “lineal” como la quepresentan Japón o Italia, es la más adecuada para adoptar enMéxico, buscando atender los principales núcleospoblacionales de la franja fronteriza México – EUA.

B. Ciudades con Estación

Existen 25 Puertos de Acceso Fronterizo (PAF) México -Estados Unidos, cada uno con sus propias ciudades “pares”con distintos pesos poblacionales y densidades de crucesfronterizos [4].

Una vez analizadas las características de cada uno de los PAF,se aprecia que, en términos generales, la relación población-cruces fronterizos es lineal, por lo que a primera instancia, lasciudades más pobladas son las que se cree deberán contar conestación de TAV. Sin embargo, hay que considerar también lavariable de la distancia entre cada una de las ciudades [4, 5,6].

En ese sentido, distintos casos de implementación del TAVmanejan distancias recomendables entre estaciones, para queeste sea una opción atractiva. En general el rango va de los150 a los 750 km. Utilizando este criterio, así como ladistribución de las estaciones en España, Francia o Alemania,se han seleccionado las ciudades que contarían con estación,buscando siempre conectar las ciudades más pobladas y conmayor cruce peatonal, sin exceder las distanciasrecomendadas (ver Tablas 1 y 2).

Se optó por que la localidad de Ojinaga, Chihuahua, contaracon estación, si bien su dinámica transfronteriza parece nojustificarlo, la distancia entre Ciudad Juárez y Piedras Negrases de aproximadamente 730 kilómetros, por lo tanto fuenecesario ubicar un punto intermedio entre ambas (ver Fig. 4).

Texto tecleado
102
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Texto tecleado
ISBN 978-0-9908236-4-3
Page 115: Memoria Seminario FIM UABC 2014

TABLA I. CRUCES FRONTERIZOS Y POBLACIÓN DE CIUDADES ELEGIDAS

PAF

Cruces Fronterizos en 2013

Población delado

mexicanoPeatonesPasajeros en

vehículopersonal

Pasajeros enAutobus

Pasajeros enTren

Tijuana,SanYsidro

7741210 19887054 507750 0 1559683

MexicaliCentro

4398916 7132134 0 0 936826

Nogales 2912077 6510096 165094 3466 220292

Juárez 6015421 17545433 21595 0 1332131

Ojinaga 65803 1240658 383 0 26304

P. Negras 803446 4837183 927 0 152806

Nvo. Laredo 3558660 9588200 38017 0 384033

Reynosa 2061995 9608966 22521 0 608891

Matamoros 2125476 8468635 8443 0 489193

Fuente: Elaboración propia con datos de United States Deparmen ofTransportation, Instituto Nacional de Estadística y Geografía (INEGI) yConsejo Nacional de Población (CONAPO).

TABLA II. DISTANCIAS ENTRE CIUDADES ELEGIDAS

Estación 1 Estación 2 Distancia(kilómetros)

TijuanaMexicaliCentro

149

MexicaliCentro

Nogales 451

Nogales Juárez 435

Juárez Ojinaga 314

Ojinaga P. Negras 414

P. Negras Nvo. Laredo 161

Nvo. Laredo Reynosa 234

Reynosa Matamoros 82

Fuente: Elaboración propia.

Fig. 4. Ciudades elegidas para contar con estación.

C. Enfoque Técnico en el Caso de Estudio

a) Requerimientos de la tecnología.Las líneas ferroviarias de alta velocidad exigen característicasmas exigentes en relacón a los ferrocarrlies tradicionales. Lasvías deben tener curvas con radios mínimos de 3000 metros,cuando una línea convencional de ferrocarril permite hasta500 metros. Las pendientes máximas permitidas son del 3%,en terrenos no urbanos de 2,5%, aunque hay casos conpendientes de hasta 4%.

Estas especificaciones obligan a que se tengan que proyectargrandes obras civiles cuando la topografía del terreno es muyaccidentada. Viaductos o túneles suelen ser la alternativa desolución, aunque también se puede optar por otras quemodifican drásticamente la topogorafía, como podrián sercortes y/o terraplenes de grandes dimensiones.

b) El caso de estudioLas condiciones geofísicas entre Tijuana y Mexicali creanincertidumbre sobre la factibilidad técnica, debido a lasituación topográfica que presenta la Sierra de Juárez,conocida como “La Rumorosa”, siendo una cadena montañosaque forzosamente deberá ser atravesada por el tren de altavelocidad para poder interconectar las 2 ciudades en cuestión.

La ciudad de Mexicali se encuentra a una altitud promedio de3 msnm, mientras que el poblado de La Rumorosa, ubicado enla parte superior de la cadena montañosa, tiene una alturapromedio de 1278 msnm. El problema de la pendiente seestudia desde 2 enfoques:

Si el ascenso del trazo de la línea de alta velocidad essimilar al trazo carretero, es decir, en las faldas delsistema montañoso. Los requerimientos de grados decurvatura obligarían a un trazo prácticamente lineal,arrojando pendientes del orden del 9%.

Si el ascenso comienza desde Mexicali, la pendienteestaría alrededor del 2% al existir una distancia de 60kilómetros entre Mexicali y La Rumorosa. Sin embargo,esto implicaría una inversión significativa en terraplén,además de modificar drásticamente el territorio.

En ese sentido, se recomienda un punto intermedio entreambos enfoques, buscando siempre aprovechar al límite losrequerimientos de pendientes y grados de curvatura expuestosanteriormente.

Por último, cabe mencionar que existen algunos casos delíneas de alta velocidad que transcurren por sistemasmontañosos con características similares a las del caso deestudio, un ejemplo es la ruta China entre Pekín y Guangzhou,con una longitud de 2298 kilómetros. Su recorrido atraviesa elpaís de norte a sur, pasando por el río Yangtsé, el río amarilloy más de 200 montañas. Este caso justifica que es posible laconstrucción de la línea de alta velocidad Mexicali – Tijuanadesde un enfoque técnico y topográfico.

Texto tecleado
103
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 116: Memoria Seminario FIM UABC 2014

VI. CONCLUSIONES

En base a los resultados presentados, se determina que espertinente evaluar a nivel de geometría y respaldos técnicos deproyecto una propuesta de construcción de la línea de TAV endos escalas:

A nivel Franja Fronteriza, con una longitud aproximadade 3000 kilómetros.

A nivel de caso particular, profundizar en el sub– tramo“Mexicali - Tijuana” que parece viable técnicamente ydemográficamente.

Así mismo, es necesario profundizar en los impactossocioeconómicos, medioambientales y de ordenaciónterrotorial que generaría la linea de alta velocidad.

REFERENCIAS

[1] M. Schweitzer, “Alta velocidad ferroviarla: la experiencia en España,Francia y alemania y los proyectos para Argentina”, Revsta Transporte yTerritorio N° 5, Universidad de Buenos Aires, 2011, pp. 89-120.

[2] A. Mungaray, “Análisis de la movilidad laboral poblaciona en la RegiónMetropolitana – Transfronteriza Tijuana – San diego y su incidencia enlos procesos de estructuración urbana”, tesis doctoral, Universidad deCastilla – La Mancha, 2011, pp. 96-100.

[3] L. Herzog, “Where North Meets South, Cities, Space amd Politics on theU.S. – Mexico Border”, Center for Mexican American Sutdies –University of Texas at Austin, 1990.

[4] United States Departmen of Transportation. Bureau of TransportationStatistics. 2014.http://www.rita.dot.gov/bts

[5] Instituto Nacional de Estadística y Geografía INEGI. Censo dePoblación y Vivienda, 2010.https://www.inegi.org.mx

[6] Consejo Nacional de Población CONAPO. Proyecciones de la población2010 – 2050.www.conapo.gob.mx

Texto tecleado
104
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 117: Memoria Seminario FIM UABC 2014

Regionalización en la medición de los parámetros decalidades de materiales pétreos en Baja California

para mezclas asfálticasde alto desempeño

Mayra Angelina Valenzuela Pérez Alejandro Mungaray MoctezumaUniversidad Autónoma de Baja California Universidad Autónoma de Baja California

Facultad de Ingeniería Facultad de IngenieríaMexicali, México Mexicali, México

[email protected] [email protected]

Resumen— En esta investigación se analiza el diseño de unproducto asfáltico con materiales pétreos con características deorigen sin modificaciones, teniendo como principal objetivoevaluar las calidades de los agregados tal como se encuentran enla región. Con este diseño se identifican las ventajas o desventajasde crear una mezcla asfáltica de alto desempeño con losagregados seleccionados. Se realizan pruebas de laboratorio a unbanco de explotación del municipio de Mexicali, Baja California,seleccionado de forma aleatoria, para evaluar la calidad delagregado como lo establece la Asociación Mexicana del AsfaltoA.C. Una vez realizadas las pruebas se diseña una mezclaasfáltica, que posteriormente es sometida a pruebas dedesempeño, para después analizar las posibles carenciasobtenidas en cuanto a las especificaciones del Protocolo AMAAC.

Palabras clave: Mezcla asfáltica, AMAAC, agregado, diseño,calidad.

I. INTRODUCCIÓN

En una mezcla asfáltica el asfalto y el agregado soncombinados en proporciones exactas. Las proporcionesrelativas de estos materiales determinan las propiedades físicasde la mezcla y, eventualmente, el desempeño de la misma.

El diseño de mezclas asfálticas tiene por objeto lograrpropiedades volumétricas adecuadas en las carpetas asfálticas,ya que de esto depende en gran medida el desempeño de lasuperficie de rodamiento en su vida de servicio. De ahí laimportancia de simular de manera adecuada en el laboratorio loque ocurre en campo, bajo la acción vehicular y de esta formallegar a mezclas que muestren un mejor comportamiento encondiciones específicas de tránsito y clima.

Las propiedades de los agregados, el diseño, la produccióny la colocación de la mezcla son factores decisivos paraobtener una mezcla asfáltica de alto desempeño. Una de lasventajas más importante que nos ofrecen las mezclas asfálticas,radica en la variedad de espesores de colocación.

II. ANTECEDENTES

En el año de 1802 se emplea roca asfáltica en Francia parala construcción de banquetas y pisos, después en Filadelfia en1838. En 1870 se construye el primer pavimento asfáltico enNewark, New Jersey y en 1876 se construye la primera carpetaasfáltica en Washington, D.C. con asfalto proveniente de lagos.Finalmente en 1902 surgen las primeras técnicas de refinacióndel petróleo y con esto un mayor auge en la utilización delasfalto como material para pavimentar. [1]

Ante la necesidad de una cultura de calidad en losproductos asfálticos a nivel nacional y con el interés común derealizar la investigación la enseñanza de las técnicas devanguardia respecto a los asfaltos, el 7 de agosto de 1997queda constituido e integrado el Primer Consejo DirectivoAMAAC, el cual estableció como objetivos principales:

Aumentar el uso de asfaltos.

Mejorar el desarrollo tecnológico en la fabricacióny aplicación de los asfaltos.

Apoyar la creación de otras organizacionesrelacionadas con el asfalto.

Apoyo en la actualización de normas existentes(IMT, NOM, NMX,SCT)

Capacitación mediante conferencias, seminarios,cursos, elaboración de manuales sobre aplicación,fabricación y nuevas tecnologías.

La Asociación Mexicana del Asfalto, A.C., a través deservicios de calidad realiza actividades de investigación,desarrollo tecnológico, asesoría y capacitación técnica, paralograr que los responsables de construir y conservar lospavimentos asfalticos del país, cumplan con la calidad

Texto tecleado
105
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 118: Memoria Seminario FIM UABC 2014

necesaria para obtener el confort y la seguridad del públicousuario, realizando mejora continua en los procesos.

Las principales actividades son realizar proyectosespecíficos en materia de emulsiones, diseño de mezclasasfálticas y calidad de los asfaltos en sus diferentesmodalidades. Revisar y proponer actualizaciones a las normasexistentes y presentar a consideración de las autoridadesnuevas normas que enriquezcan el control de calidadprincipalmente.

III. JUSTIFICACIÓN

El diseño de una mezcla asfáltica de alto desempeñopretende contribuir como elemento para mejorar la calidad delas carpetas asfálticas para proporcionar a los usuarios decarreteras seguridad, rapidez y comodidad al transitar por ellas.

IV. OBJETIVO DE LA INVESTIGACIÓN

Evaluar las calidades de los agregados de un banco deexplotación de materiales pétreos del municipio de Mexicaliseleccionado aleatoriamente, para el diseño de una mezclaasfáltica que será sometida a pruebas de desempeño, paraanalizar las posibles carencias obtenidas en cuanto a lasespecificaciones del Protocolo AMAAC.

V. MARCO TEÓRICO

El término asfaltos de alto rendimiento (desempeño)normalmente se refiere a pavimentos industriales, tales comoastilleros y aeropuertos que tienen que soportar cargasextremas. Pero, cada vez más, es necesario considerar el altorendimiento para aplicaciones más mundanas, como carrilespara autobuses en los centros de las ciudades y carriles deconducción lenta en autopistas. Aquí, el reto no es hacer frentea grandes cargas, sino garantizar una vida útil de largaduración. [2]

Una mezcla asfáltica es una mezcla elaborada conagregados pétreos y un material asfáltico, eventualmente conaditivos, cuyas propiedades de cada uno de los componentesde su proporción relativa en mezcla. [3]

Una mezcla asfáltica de alto desempeño refiere a la mezclaasfáltica elaborada en caliente resistente a las deformacionesplásticas, al fenómeno de fatiga y al daño por humedad, cuyocomportamiento es superior al de las mezclas asfálticasconvencionales. [3]

Existen varias clasificaciones de mezclas asfálticas, deacuerdo con el parámetro considerado para establecer lasdiferencias. Así, conforme las fracciones de agregado pétreoempleado en la elaboración de la mezcla, éstas se dividen enmástico asfáltico; mortero asfáltico; macadam asfáltico; yconcreto asfáltico. Si la temperatura es considerada, se dividenen mezclas en frío y mezclas en caliente. Si el parámetroconsiderado es el porcentaje de vacíos de aire, las mezclas

pueden ser densas o cerradas; semidensas o semicerradas;abiertas y porosas, dependiendo de si tienen menos del 6%,entre el 6 y el 12% de vacíos de aire, entre el 12 y el 18% omás del 20%, respectivamente. Otra clasificación se establecede acuerdo con la estructura de los agregados pétreos; así, setienen mezclas con o sin esqueleto mineral. Si se considera lacurva granulométrica, se clasifican en mezclas asfálticascontinuas o mezclas discontinuas. [4]

El agregado también conocido como roca, materialgranular, o agregado mineral, es cualquier material mineralduro e inerte usado, en forma de partículas graduadas ofragmentos, como parte de un pavimento de mezcla asfálticaen caliente. [5]

El agregado es poroso y puede absorber agua y asfalto adiferentes grados. El cociente de absorción entre el agua y elasfalto varía con cada agregado. Existen 3 métodos para medirla gravedad específica del agregado, gravedad específicabruta, gravedad específica aparente y gravedad específicaefectiva: [6]

Gravedad específica bruta (Gsb). Se determina midiendola masa seca y el volumen bruto de una muestra de agregados.El volumen bruto incluye el volumen del solido del agregadomás el volumen de agua contenida en los poros superficiales.El volumen bruto se mide para la condición del agregadosaturado y superficialmente seco.

Gravedad específica aparente (Gsa). Se obtiene midiendola masa seca y el volumen aparente de la muestra delagregado. El volumen aparente solo incluye el volumen delsolido del agregado y no incluye el volumen de los poros de lasuperficie.

Gravedad específica efectiva (Gse). Se calcula usando lamasa seca y volumen efectivo del agregado. El volumenefectivo incluye el volumen de los sólidos del agregado y elvolumen de los poros de superficie llenos con agua pero nocon asfalto. La gravedad específica del agregado no se midedirectamente, a diferencia de las gravedades específicas brutay aparente. Éste se calcula conociendo la gravedad específicateórica máxima de la mezcla (Gmm) y el contenido de asfalto(Pb). Solo las gravedades específicas bruta y efectiva sonutilizadas para el cálculo de los parámetros volumétricos de lamezcla asfáltica. Los volúmenes calculados para cada unotendrán diferentes significados, y por ende, diferentes valoresnuméricos.

Gravedad específica teórica máxima de la mezcla suelta(Gmm). Para un contenido de asfalto dado, la gravedadespecífica teórica máxima (Gmm) es la masa del agregadomás asfalto, dividido por el volumen de ambos componentes,sin incluir el volumen de los vacíos de aire. La gravedadespecífica teórica máxima es una propiedad muy útil porque seemplea como referencia para calcular otras importantespropiedades como el contenido de vacíos de aire (Va). El

Texto tecleado
106
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 119: Memoria Seminario FIM UABC 2014

ensaye para determinar la Gmm se realiza a la mezcla asfálticaen su estado más suelto.

Contenido de asfalto (Pb). El contenido de asfalto es laconcentración de masa de cemento asfáltico. Se expresa comoporcentaje de la masa total de la mezcla. El contenido óptimode asfalto en una mezcla depende de las características delagregado, como la granulometría y la absorción.

Contenido de vacíos de aire (Va) Es la concentración demasa del cemento asfáltico absorbido por el agregado.Normalmente se expresa como porcentaje de la masa delagregado.

Un apropiado diseño de mezcla asfáltica depende de laselección de los materiales y las propiedades volumétricas dela mezcla compactada. Como se muestra en la Figura I lamezcla asfáltica compacta consta de tres componentesagregados, asfalto y aire.

El diseño de una mezcla asfáltica consiste básicamente enla selección del tipo y granulometría del agregado a emplear, yde la selección del tipo y contenido de asfalto, de tal maneraque se obtengan las propiedades deseadas en la mezcla y sesatisfagan los requisitos específicos del proyecto. La selecciónapropiada de los materiales (con la calidad suficiente) queconstituirán la mezcla y de sus proporciones correctas,requiere el conocimiento de las propiedades más significativasde las mezclas, y de su influencia en el comportamiento delpavimento. Para una aplicación específica eindependientemente del procedimiento de diseño empleado,las propiedades relevantes en una mezcla asfáltica en calienteson [6]:

Estabilidad

Durabilidad

Flexibilidad

Resistencia a la fatiga

Resistencia al fracturamiento por bajas temperaturas

Resistencia al daño por humedad

Resistencia al deslizamiento

Trabajabilidad.

Según el tipo de mezcla en el que se vayan a utilizar, losmateriales pétreos se clasifican como se indica a continuación[5]:

Materiales pétreos para mezclas asfálticas degranulometría densa.

Materiales pétreos para mezclas asfálticas degranulometría abierta.

Materiales pétreos para mezclas asfálticas degranulometría discontinua, tipo SMA.

Materiales pétreos para mortero asfáltico.

Materiales pétreos para carpetas por el sistema deriegos.

Materiales pétreos para mezclas asfálticas paraguarniciones.

VI. METODOLOGÍA

En el municipio de Mexicali existen varios bancos deexplotación de materiales pétreos como se muestra en la TablaI, de los cuales se tomara una muestra de material pétreo deun banco seleccionado aleatoriamente para la realización delas pruebas, de las cuales se pretende realizar las pruebas delaboratorio establecidas en protocolo AMAAC. Una vezobtenidos los datos de las pruebas realizadas, se procederá arealizar el diseño que será sometido a pruebas de desempeño.

TABLA I. Selección de banco de explotación de material pétreo delmunicipio de Mexicali, B.C.

VII. HIPÓTESIS

Se espera obtener las calidades de los materiales pétreos dela región, y a su vez que estas cumplan con los requisitos decalidad planteada por AMAAC como se muestra en la Tabla

Figura 1.Esquema para la determinación de las gravedadesespecíficas en el agregado pétreo.

Texto tecleado
107
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 120: Memoria Seminario FIM UABC 2014

II, para así elaborar una mezcla asfáltica que será sometida alensayo “Susceptibilidad a la deformación permanente porrodera con el analizador de rueda cargada de Hamburgo”, loque nos permitirá medir la profundidad de la deformación y elnúmero de repeticiones de carga para alcanzar la falla delespécimen realizado. Con esto simularemos el paso repetidode los vehículos en una vialidad para así poder predecir ladeformación permanente esperada.

TABLA II.-Requisitos de calidad de la fracción fina del material pétreo paramezclas asfálticas de granulometría densa.

VIII. RESULTADOS

Una de las principales razones por la cual es necesarioimplementar en el municipio de Mexicali nuevas metodologíasde diseño de mezclas, es porque se requiere de un enfoquemás adecuado a las necesidades de nuestros pavimentos.

El método de diseño AMMAC funde en el desempeño realdel pavimento y ofrece un diseño más apegado a lasnecesidades de la infraestructura carretera.

A continuación, se revelan algunas ventajas del uso delmétodo de diseño de Protocolo AMAAC:

Mejora el comportamiento del producto finalrelacionando el desempeño del pavimento.

Se pueden controlar los parámetros dedensificación de la mezcla.

Considera aspectos de durabilidad respecto altiempo de servicio del pavimento.

Es de suma importancia que las especificaciones de diseño,control y desempeño de mezclas asfálticas en México debancontinuar evolucionando, tomando en cuenta: la experienciainternacional y de técnicos mexicanos, el comportamientoregional de los materiales pétreos, la infraestructura disponibley las practicas constructivas.

REFERENCIAS

[1] G. Rincón and R. López, Tesis: “Asfaltos de alto desempeño para laconstrucción y mantenimiento de pavimentos”. Universidad PopularAutónoma del Estado de Puebla, Puebla, Puebla. pag.10, 1999.

[2] C. Cáceres Teis: “Análisis de la metodologia Superpave para el diseñode Mezclas Asfálticas en México”, Universidad de las Américas Puebla,Cholula, Puebla, 2007.

[3] P. Garnica, M. Flores, J. Gómez and H. Delgado, “ Caracterizacióngeomecánica de mezclas asfálticas”. Secretaria de Comunicaciones yTransportes, Instituto Mexicano del Transporte, Sanfandila, Qro, 2005

[4] Materiales pétreos para mezclas asfálticas (N-CMT-4-04/08). Normativapara la infraestructura del transporte.

[5] Principios de Construcción de Pavimentos de Mezcla Asfáltica enCaliente (MS-22). Asphalt Institute.

[6] Diseño de mezclas asfálticas de granulometría densa de alto desempeño(PA-MA 01/2013). Asociación mexicana del asfalto, A.C.

Texto tecleado
108
Texto tecleado
1er y 2do. Seminario de Posgrado de la Facultad de Ingeniería, Campus Mexicali
Texto tecleado
ISBN 978-0-9908236-4-3
Page 121: Memoria Seminario FIM UABC 2014

Listado de Autores

Alejandro Mungaray MoctezumaAlejandro Sánchez AtondoAlma Delia Valenzuela Márquez,Álvaro GonzálezÁlvaro López LambrañoAna Cristina García IbarraAna Laura Sánchez CoronaAnabel MartínezÁngel Gabriel Andrade ReátigaÁngel Hernández MonayArmando Cantú CárdenasBrando Fabián Bringas BurgosCarlos Alfonso Miranda HerreraCarlos Raúl Navarro GonzálezCecilia Margarita Curlango RosasCynthia Carolina Martínez LazcanoDaniela Martínez PlataDennice Pérez-GonzálezElia Leyva SánchezEsteban MartínezEsteban Salazar MontesGabriela EstradaGerardo Hernández RetanaGuillermo Galaviz YañezGuillermo Prieto AvalosIsmael Mendoza MuñozIsrael Sauceda MezaIsvia Danitza Zazueta HernándezJ. Rodríguez GarcíaJessika Rodríguez SánchezJosé Luis Pérez EscobedoJuan Ceballos CorralJuan de Dios Ocampo DíazJulio Alberto Calderón RamírezKarla VelázquezLeonel Gabriel García GómezLuis Mario Rodríguez ValenzuelaLuz Amalia Peña Vásquez

Marco Antonio Panduro MendozaMargarita Gil Samaniego RamosMario Alberto Camarillo RamosMario González DuránMayra Angelina Valenzuela PérezMichelle Hallack AlegríaMiguel Ángel Martínez RomeroMiguel Enrique Bravo ZanogueraMiguel IbarraRené Bastidas PugaRicardo Jasso RoblesRigoberto Zamora AlarcónRoberto López AvitiaRodrigo Montero AmézquitaSilvia Vanesa Medina LeónUlises Mena HernándezVíctor Nuño Moreno