UNIVERSIDAD, CIENCIA
y TECNOLOGÍA
Vol. 16, Nº 64, septiembre 2012
Revista trimestral editada por la Universidad Nacional
Experimental Politécnica “Antonio José de Sucre”,
UNEXPO, Vicerrectorado Puerto Ordaz.
INDIZADA EN:
Actualidad Iberoamericana
Aluminium Industry Abstracts
Corrosion Abstracts
CSA Engineering Research Database
CSA Materials Research Database with METADEX
CSA Recent References Related to Technology
CSA Technology Research Database
Environment Abstracts
LATINDEX
Mechanical & Transportation Engineering Abstracts
METADEX
REVENCYT
Colección SciELO Venezuela (www.scielo.org.ve)
REGISTRADA EN:
Ulrich΄s Internacional Periodicals Directory
Nuestra Portada:
Parque eólico marino de
Jiansu Rudong de 48,3
MW de potencia.
El parque de Jaingsu,
provisto de 21 aero-
generadores Siemens
SWT 2,3-101 (de 2,3
MW de potencia y rotor de
101 metros de diámetro), se ubica en el
este del mar de China. Los cimientos de los
aerogeneradores se encuentran a cinco metros bajo el
nivel del mar durante la marea alta. En marea baja, están
totalmente descubiertos.
Fuente: Revista Energías Renovables.
DIRECTORIO DE LA REVISTA UNIVERSIDAD,
CIENCIA Y TECNOLOGÍA
Directora: Dra. Minerva Arzola
Editor: Dr. Luis Rosales
Comité Editorial (en orden alfabético):
Dr. Angel Custodio
Dra. Mayra D’Armas
Dr. Herman Fernández
Dra. Linda Gil
Dr. Luis Rosales
Dr. Ovidio León
MSc. Sady Zurita
Autoridades Nacionales de la UNEXPO
Rectora: Lic. Rita Añez
Vice-Rectora Académica: Dra. Fraisa Codecido
Vice-Rectora Administrativa: Msc. Mazra Morales
Secretaria: Ing. Magly de Peraza
Autoridades Regionales, Vicerrectorado Puerto Ordaz
Vice-Rector: Dr. Ovidio León
Director Académico: Ing. Carlos Pietri
Director Administrativo: Msc. Miguel Leyton
Directora de Investig. y Postgrado: Dra. Minerva Arzola
Administración y transcripciones
TSU Zorelys Romero
Diseño Portada
Tec. Miguel Torres
Composición:
Dra. Mayra D’Armas
Impresión:
Dirección de Investigación y Postgrado, UNEXPO Puerto
Ordaz
Publicación Financiada por:
Dirección de Investigación y Postgrado, UNEXPO,
Vicerrectorado Puerto Ordaz.
Los artículos, opiniones y colaboraciones que se publican en esta revista no representan necesariamente la filosofía informativa ni institucional de la
UNEXPO y podrán ser reproducidos previa autorización del Editor. En caso de reproducción se agradece citar la fuente y enviar ejemplares del medio
utilizado a la UNEXPO, a la siguiente dirección: Dirección de Investigación y Postgrado, UNEXPO, Vicerrectorado Puerto Ordaz, Alta Vista Sur, Urb. Villa Asia, Final Calle China, Apdo. Postal 8050. Puerto Ordaz, Estado Bolívar, Venezuela. Telf./fax (0286) 9625245-9611382. Email:
152
CONTENIDO UNIVERSIDAD, CIENCIA
y TECNOLOGÍA
Vol. 16, Nº 64, Septiembre 2012
ISSN 1316-4821
Árbitros
ENERGÍAS ALTERNATIVAS
L.G. González, E. Figueres, G. Garcerá, O. Carranza. Comparación de Técnicas de Control
Vectorial aplicadas a GSIP en Sistemas de Conversión de Energía Eólica.
ELECTRICIDAD
Roberto Álvarez, Luis Rosales. Simulación de Descargas Atmosféricas y su efecto en Redes
Eléctricas de Potencia.
ELECTRÓNICA
Georges Jabbour, Jose Luis Paredes. Análisis de la Eficiencia del Algoritmo de
Reconstrucción de Señales basado en la Mediana Ponderada a través de la Regresión de Cox.
FÍSICA
Kurt Gerhardt Lange, Ronald Fries. ¿La Gravitación Terrestre, Un Misterio?
REDES NEURONALES
Alejandro Zambrano, Víctor Collazo, Numan Troncone, Jesús Rodríguez. NIS: Una
Herramienta Computacional para la Identificación de Sistemas Dinámicos en Lazo Cerrado
empleando Redes Neuronales Artificiales.
SIMULACIÓN
Sergio Velásquez, Ronny Velásquez. Modelado con Variables Aleatorias en Simulink utilizando
Simulacion Montecarlo.
NOTA TÉCNICA
Keila Candotti, Dimas Mavares. Entorno de Simulación para Sistemas de Comunicaciones
Inalámbricos de Alta Capacidad usando Matlab.
Normas de Publicación
153
161
173
181
1905
212
154
218
203
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 153
Árbitros
Dr. Genni Aguilar-Hospital de Clínicas Caroní,
Puerto Ordaz
Dr. Alberto Jesús Andrade-LUZ
Dra. Minerva Arzola-UNEXPO Puerto Ordaz
Dr. Orlando Ayala-UDO, Puerto la Cruz
Dr. Máximo Benavides-UNEXPO Puerto Ordaz
Dra. Ingrid Berrueta-UNEXPO, Barquisimeto
Dr. Ali Bahsar-ULA
Dra. María Carolina Blanco-UNEXPO Barquisimeto
MSc. José Borjas-UNEXPO Puerto Ordaz
MSc. Antonio Bravo-UNET
MSc. Edwuin Carrasquero- UCV
Dr. José Contreras-ULA
Dr. Roberto Corral-Universidad de La Habana
Dr. Julio Cruz- USB
Dr. Ángel Custodio-UNEXPO Puerto Ordaz
Dra. Mayra D’Armas- UNEXPO Puerto Ordaz
Dr. Ramón Depool- UNEXPO Barquisimeto
Dr. Héctor Fernández- UNEXPO Puerto Ordaz
Dr. Herman Fernández- UNEXPO Puerto Ordaz
Dr. José Folgueras- ICID, La Habana
MSc. Zulay Franco- UNEXPO Puerto Ordaz
Dr. Luis Galván- USB
Dr. Francisco García Sánchez- USB
Dr. Luis García- UNEXPO Puerto Ordaz
MSc. Charlo González- UNEXPO Puerto Ordaz
Ing. Dosinda González- USB
Dra. Gema González- IVIC
MSc. Jesús González- UNEXPO Puerto Ordaz
Dr. Leonardo González- UNEXPO Puerto Ordaz
Dr. Rafael Guevara- UNEXPO Puerto Ordaz
Lic. Huáscar Guilarte-UNEXPO, Puerto Ordaz
Dr. Víctor Guzmán- USB
Dr. Diego Jugo- ULA
Dr. Jesús López- UNEXPO Puerto Ordaz
Dra. Gertrudis Márquez- VENALUM
Dr. Jairo Márquez- ULA
Dra. Olga Márquez- ULA
Dr. Dimas Mavares- UNEXPO Barquisimeto
Dr. Franklin Mendoza- UNEXPO Puerto Ordaz
Dr. Agustín Mejías- Universidad de Carabobo
Dr. Fernando Mora- USB
MSc. Scandra Mora- UNEXPO Puerto Ordaz
Dr. Luis Moreno- Royal Institute of Technology, Suecia
Dr. Jorge Mostany- USB
MSc. Ángel Olivier- UNEXPO Puerto Ordaz
Dr. Adelmo Ortiz Conde- USB
Dr. Gianfranco Passariello- USB
Dr. Rafael Pérez Jiménez-Univ.de las Palmas, Gran
Canarias
Dr. Dester Perdomo- CUJAE, La Habana
Dra. Olga Prado- SIDOR
Dr. Eli Saúl Puchi- UCV
MSc. Richard Resplandor- UNEXPO Puerto Ordaz
Dra. Rosa Reyes- USB
Dr. Ernesto Rodríguez Denis- ISPJAE, La Habana
MSc. Gonzalo Rodríguez- EDELCA, Caracas
Ing. Luis Rojas Malavé- UNEXPO Barquisimeto
Dr. Rubén Rojas- ULA
Dr. Francisco Javier Rosas-ULA
Dr. Luis Rosales- UNEXPO Puerto Ordaz
Dr. Augusto Ruiz- USB
Dr. José Ramón Rus- Fundación Instituto de
Ingeniería, Caracas
MSc. Luz Esther Salazar- UNEXPO Puerto Ordaz
Dr. Eugenio César Sánchez-ISPJAE, La Habana
Dr. Miguel Sánchez Gómez-LUZ
Ing. José Sánchez Medina- UNEXPO Puerto Ordaz
Dr. José Sarabia- UNEXPO Barquisimeto
Dr. Benjamín Scharifker- USB
Dr. José Manuel Sierra-Universidad de Oviedo, España
Dra. Mariana Staia- UCV
Dr. Nando Troyani- UDO Puerto La Cruz
Dra. Carmen Luisa Vásquez- UNEXPO Barquisimeto
Dr. Vijande-Universidad de Oviedo, España
Dra. Sara Wong- USB
NIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 154
COMPARACIÓN DE TÉCNICAS DE CONTROL VECTORIAL
APLICADAS A GSIP EN SISTEMAS DE CONVERSIÓN DE
ENERGÍA EÓLICA
L.G. González1, E. Figueres
2, G. Garcerá
2, O. Carranza
3
(Recibido febrero 2012, Aceptado junio 2012) 1 Departamento de Electrónica y Comunicaciones, Universidad de los Andes, núcleo la Hechicera, 5101, Mérida-Venezuela.
2 Grupo de Sistemas Electrónicos Industriales, Universidad Politécnica de Valencia, Camino de vera s/n, 46022, Valencia-España. 3 Escuela Superior de Computo, Instituto Politécnico Nacional, Av. Juan de Dios Bátiz s/n, 07738, DF-México.
Resumen: Este artículo se presenta un estudio comparativo de las principales técnicas de control vectorial
aplicadas a Generadores Síncronos de Imanes Permanentes (GSIP) utilizados en Sistemas de Conversión de
Energía Eólica (SCEE), la comparación de las técnicas están basadas en el modelado del generador, cuantificando
en rendimiento presente en cada una de estas técnicas de manera analítica, adicionalmente las técnicas que
resultaron más eficientes son comparadas experimentalmente en un prototipo del SCEE con un Convertidor de
potencia Back-to-Back, controlado por un DSP modelo TMS320F2812 de Texas Instruments.
Palabras clave: Control Vectorial/ Generador Sincrónico de Imanes Permanentes/ Energías renovables/ Energía
eólica/ Convertidor back-to-back.
COMPARISON OF VECTOR CONTROL TECHNIQUES
APPLIED TO SYSTEMS GSIP WIND ENERGY CONVERSION
Abstract: In this work is presented a study and are compared the mains vectorial control techniques which are
applied in conversion systems of wind energy the techniques are compared using in the generator, additionally the
techniques more efficient are experimentally compared in a prototype of a convertion system of wind energy with a
power converter Back to Back, controlled by a DSP, Model Tm5320F2812 of Texas instruments.
Keywords: Vectorial Control/ Permanent Magnet Synchronous Generator/ Renewables/ Wind Power/ Converter
back-to-back.
I. INTRODUCCIÓN
El uso de las energías renovables se ha incrementado en la
última década no solo por el aumento de los combustibles
fósiles sino también por la reducción de las emisiones de
CO2 de los países industrializados. Particularmente los
Sistemas de Conversión de Energía Eólica (SCEE) son
considerados como los más efectivos y rentables de las
fuentes de energía alternativa [1]. En algunos países como
Alemania, USA y España la potencia generada a partir de
SCEE es comparable con la generación de energía a partir
de las fuentes convencionales.
En los SCEE de velocidad variable, el sistema de control
es uno de los elementos más importantes, debido a que
define el punto de operación en todo momento para
aprovechar al máximo la energía del viento. Además el
uso de Generadores Sincrónicos de Imanes Permanentes
(GSIP) en los SCEE es cada vez más frecuente, debido
que estos pueden ser diseñados con un elevado número de
polos, razón por la cual pueden utilizarse sin caja de
engranajes entre la turbina eólica-generador y aumentar la
eficiencia del sistema.
En el diseño de los SCEE de velocidad variable, es
necesario tomar en cuentas dos aspectos fundamentales
para el desempeño de los mismos, el primero de ellos es la
impredecible disponibilidad del viento, y la segunda, es la
dependencia que existe entre la aerodinámica de la
turbina, velocidad del generador y la cantidad de potencia
que puede ser extraída del viento. Existen varias
estrategias de control, que toman en cuentas estos
aspectos para tratar extraer en todo momento la máxima
potencia disponible del viento [2]-[5].
En el caso de las maquinas sincrónicas, las técnicas de
control vectorial permiten que estas sean utilizadas en una
amplia variedad de aplicaciones, debido a que permiten
un manejo de velocidad y par mecánico con elevada
precisión.
Las técnicas de control vectorial en máquinas sincrónicas
de imanes permanentes han sido estudiadas por [6]-[7]-[8]
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 155
entre otros, y para el caso de esta investigación
específicamente se tratan por ser las más importantes: 1.-
Corriente reactiva igual a cero (id=0), 2.- Factor de
Potencia Unitario (UPF). 3.- Máximo par por unidad de
corriente. 4.- Flujo constante. En el caso de cada una de
estas técnicas se desarrolla utilizando el sistema de
referencia síncrono (SRF) y el modelo en estado
estacionario (dq) del GSIP, para poder determinar el
rendimiento en cada una de las técnicas estudiadas.
El esquema general de control del SCEE, se muestra en la
Figura 1, en el mismo se utiliza un GSIP acoplado
directamente a la turbina eólica y a su vez eléctricamente
a un convertidor trifásico back to-back. En relación a la
estrategia de control, la etapa rectificadora e inversora
utiliza un modulador PWM respectivamente, además se
utiliza un estimador de la posición angular y velocidad
mediante técnicas sensorless [9]-[10], que permite
alcanzar la sincronía entre el GSIP y las variables de
referencia del sistema de control.
Figura 1. Esquema general de control del SCEE
El artículo está compuesto por las siguientes secciones: El
modelo del GSIP en el sistema de referencia síncrono, es
presentado en la sección 2. En la sección 3, se desarrollan
las técnicas de control vectorial aplicadas al GSIP. En la
sección 4, se comparan de manera teórica las técnicas de
control vectorial estudiadas. En la sección 5 de presentan
y analizan los resultados experimentales, y finalmente se
presentan las conclusiones en la sección 6.
II. DESARROLLO
1. Modelo del Generador Sincrónico de Imanes
Permanentes (GSIP)
El circuito equivalente por fases del GSIP con una
distribución sinusoidal es modelado en el sistema de
referencia estacionario αβ [11], mostrada en la ecuación
(1). Donde rs es la resistencia por fase, y Ls es la
inductancia equivalente, esta inductancia incluye las
inductancias mutuas entre las fases y la de fugas,
es el voltaje en bornes, ( es la fuerza electromotriz
(EMF) estimada por los imanes permanentes, y
son las corrientes de línea. En las ecuaciones (2) y (3)
Muestra el modelo del GSIP en el sistema de referencia
síncrono (Park) dq, Figura 2.
(1)
(2)
(3)
Ldisd
rs
+
ωLqisq
vsd
+
-
Lqisq rs
+
-ωLdisd+ωΨm
vsq
+
-
Figura 2. Circuito equivalente del GSIP en el sistema de
referencia síncrono dq.
El flujo inducido en el estator en el sistema dq está
descrito por las ecuaciones (4) y (5):
(4)
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 156
(5)
En las ecuaciones anteriores, es la velocidad angular
del voltaje y corrientes en el GSIP, también es el flujo
producido por los imanes permanentes. y son los
voltajes en bornes, y son las corrientes del generador
en el sistema de referencia síncrono dq, y son la
inductancia del estator en sistema de referencia síncrono
dq. El par electromagnético aplicado al rotor del GSIP es
mostrado en la ecuación (6). Si el GSIP es de rotor liso, se
cumple ( ), el par electromagnético es
simplificado como se muestra en la ecuación (7).
(6)
(7)
Donde P es el número de pares de polos. En las maquinas
sincrónicas, la velocidad de rotor presenta una relación
lineal con la velocidad angular de tensión y corriente de
línea del GSIP, mediante la ecuación (8).
(8)
2. Técnicas de control vectorial en GSIP
Las técnicas de control vectorial, permiten manipular el
factor de potencia de la máquina con precisión, mediante
la descomposición y control independiente de las
componente activa y reactiva de la corriente en el GSIP,
de manera que se pueda manejar indirectamente el par
ejercido por la máquina y controlar la velocidad de una
manera más eficiente. Para el control de maquinas
sincrónicas se han propuesto otras técnicas como el
control directo de par (DTC), que presenta el
inconveniente de generar mayor distorsión en las
corrientes de línea que en el caso del control vectorial [6].
En consecuencia se ha preferido el control vectorial para
esta aplicación.
Para realizar el análisis teórico de las técnicas de control
estudiadas en este articulo, es necesario definir el modelo
en estado estacionario del GSIP, que parte de las
ecuaciones (2) y (3), asumiendo las condiciones de rotor
liso (Ld=Lq=L), y suprimiendo los términos dependiente
del tiempo, obteniendo así las ecuaciones (9) y (10).
(9)
(10)
La comparación de estas técnicas estará definida por su
rendimiento, en función de la ecuación (11).
(11)
Donde es la potencia mecánica efectiva de entrada
(12), y es la potencia eléctrica de salida definida en
la ecuación (13).
(12)
(13)
2.1. Corriente reactiva igual a cero (id=0)
Esta técnica pretende mantener la corriente reactiva
identificada como id en el sistema de referencia síncrono
sea nula, bajo esta condición se cumple la ecuación (14), y
la corriente por fase del generador en el sistema de ejes
a,b,c está determinada por la ecuación (15).
(14)
(15)
El diagrama vectorial de las corrientes y tensiones de esta
técnica puede observarse en la Figura 3.
Figura 3. Diagrama vectorial en estado estacionario para la
técnica Id=0.
Esta técnica es utilizada comúnmente en generadores de
rotor liso, ya que cuando la diferencia de reluctancias es
significativa, el rendimiento de la máquina se reduce. La
potencia de entrada a la máquina está dada por la ecuación
(16).
(16)
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 157
Y la potencia de salida está dada por la ecuación (17), y
su rendimiento es mostrado en la ecuación (18).
(17)
(18)
2.2. Factor de potencia unitario UPF
Esta técnica se fundamenta en mantener el factor de
potencia unitario en bornes de la máquina, es decir, la
corriente y tensión se encuentren en fase en el punto de
conexión. Dado que el generador no entrega potencia
reactiva, la relación entre la tensión en directo y en
cuadratura es igual a la relación entre la corriente en
directo y en cuadratura, como se observa en la ecuación
(19).
(19)
El diagrama vectorial de la técnica UPF es mostrado en la
Figura 4.
Figura 4. Diagrama vectorial en estado estacionario para la
técnica UPF.
A partir de las ecuaciones (9), (10) y (19), es posible
encontrar la corriente reactiva en función de la corriente
activa como se muestra en la ecuación (20).
(20)
La potencia de entrada a la máquina está dada por la
ecuación (21):
(21)
Y la potencia de salida está dada por la ecuación (22) y el
rendimiento está expresado mediante (23).
-
-
-
(22)
-
- (23)
2.3. Máximo par por unidad de corriente
Esta técnica permite maximizar el par por unidad de
corriente y minimizar las pérdidas por el efecto joule en
los conductores [12]. Con esta técnica se consigue la
máxima eficiencia del generador en función a la relación
entre la corriente directa y en cuadratura. Para relacionar
las corrientes de línea en el sistema de referencia
estacionario id e iq, en función al ángulo de desfase de la
corriente de línea en el sistema de referencia a,b,c y el
flujo magnético producto de los imanes permanentes, es
utilizado el conjunto de ecuaciones (24) y (25).
(24)
(25)
Donde es el valor pico de la corriente de línea en el
GSIP, y es el ángulo de desfase entre la corriente de
línea y el flujo magnético . Sustituyendo la ecuación
(25), en la ecuación de par mostrada en la ecuación (7), se
obtiene la ecuación (26).
(26)
De manera que el par electromagnético depende del
ángulo de desfase . El par máximo ocurre cuando la
derivada de la ecuación (26) en función de cumple con
la condición mostrada en la ecuación (27).
(27)
En el caso del generador de rotor liso el par máximo
ocurre cuando , de manera que (id=0), situación
que se cumple con la técnica de corriente reactiva igual a
cero.
Desde otra perspectiva mediante la cual se maximice el
rendimiento, puede ser vista mediante la sustitución de la
ecuación (24) y (25) en (13), se obtienen las ecuaciones
(28) y (29) que representan la potencia de entrada y salida
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 158
en función del ángulo de la corriente en el sistema abc y
el eje d del sistema de referencia síncrono dq.
(28)
(29)
La ecuación (30), representa el rendimiento del generador
en función de las ecuaciones (28) y (29).
(30)
Donde:
(31)
Maximizando la ecuación (30), mediante su derivada
mostrada en la ecuación (31), se obtiene cuando α=90°, de
manera que la técnica de máximo par por unidad de
corriente, también puede llamarse la de máximo
rendimiento.
2.4. Técnica de flujo constante
En esta técnica se pretende mantener el flujo constante en
el generador, este flujo equivalente es producto de la suma
vectorial del flujo magnético de los imanes permanentes y
de las corrientes en el estator. Esta técnica limita el par
asociado a la máquina, teniendo que aumentar la
velocidad de operación para manejar la potencia nominal
[6]. La ecuación que permite mantener el flujo constante
está dada por la ecuación (32).
(32)
La ecuación (33), representa la corriente del eje d, en
función de iq, para la técnica de control vectorial flujo
constante.
(33)
El rendimiento de esta técnica está determinado por la
ecuación (34).
(34)
3. Comparación de las técnicas de control vectorial
Una vez analizadas las técnicas de control vectorial más
utilizadas en máquinas sincrónicas se puede llevar a cabo
un estudio comparativo que parte del prototipo disponible
en el laboratorio mostrado en la Figura 6. En concreto, las
técnicas han sido evaluadas para una potencia de entrada
de 2Kw y un rango de velocidades de rotación entre 100 y
650rpm. En la Figura 5a, se muestra el rendimiento
obtenido para velocidades de rotación inferiores a
318rpm, en esta región la potencia de salida es limitada
por la corriente de línea, la cual puede observarse en la
Figura 5b. En relación al rendimiento, se observa que la
técnica Id=0 presenta el mejor desempeño, seguido de la
técnica de flujo constante y por último la de factor de
potencia unitario, con una diferencia de 0.4% respecto a la
técnica Id=0. En relación a la corriente de operación en la
región limitada por la potencia, región que opera en
velocidades mayores a 318rpm, la corriente de línea en el
GSIP es mayor con la técnica UPF, y menor con la
técnica Id=0.
(a) (b)
Figura 5. Comparación de desempeño de técnicas de control vectorial.
pout=3
2 mis sin α -rs
3
2is cos α
2
+ 3
2is sin α
2
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 159
4. Resultados Experimentales
Con el fin de comprobar de manera experimental en el
prototipo mostrado en la Figura 6, con los valores
mostrados en la Tabla I, son evaluadas las técnicas Id=0 y
UPF, con una potencia de entrada al convertidor Back-to-
Back de 1300w, y una velocidad de rotor de 330rpm.
Tabla I. Parámetros de prototipo experimental
Figura 6. Prototipo Sistema de Conversión de Energía Eólica.
En la Figura 7, se muestran las corrientes del rectificador
controlado e inversor para la fase a, para ambas técnicas.
Obsérvese que en ambas figuras la corriente del inversor
tiene un valor rms de 1.87A, esta corriente representa que
en ambos casos la potencia entregada a la red es igual si
se asume que la tensión de línea permanece constante. En
relación a la corriente de línea en la etapa rectificadora, se
observa que cuando es aplicada la técnica id=0, esta es
menor. En relación al sistema de control de la etapa
inversora, se ha realizado como en ¡Error! No se encuentra el origen de la referencia.], donde se
aplica la técnica id=0, pero no es objetivo de este artículo.
(a) (b)
Figura 7. Corriente de la fase a, rectificador e inversor; (a) Id=0, (b) UPF
Numero de Polos 12 Velocidad máxima GSIP 650rpm
Resistencia estator (rs) 5 Ω DC link Voltaje Vdc_ref 800V
Inductancia de línea GSIP (L) 25mH Coeficiente de inercia 0.5kg·m2
Coeficiente de flujo magnético ( ) 0.97v∙s/rad Tiempo de muestreo (Ts) 10µs
Frecuencia de conmutación
5 kHz
Rectificador Inversor
Rectificador Inversor
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 160
Si se determinan las perdidas en el GSIP, en estado
estacionario, mediante la corriente de línea de la máquina
en ambos casos, para la técnica Id=0 y UPF, se obtienen
las pérdidas en el cobre, mostradas en (35).
(35)
De las pérdidas calculadas anteriormente, es posible
demostrar que las pérdidas en la máquina utilizando la
técnica UPF aumentan un 4% en comparación a la técnica
Id=0, siendo el rendimiento del GSIP η=87.39%, mientras
que para la técnica UPF es η=86.95%. La diferencia entre
las dos técnicas es de ∆η=0.44%, diferencia que puede
aumentar a medida que el punto de operación se acerque
al de potencia nominal.
La diferencia de fase entre las corrientes de línea y la
fuerza electromotriz estimada no puede apreciarse de
manera experimental debido a la velocidad de respuesta
del módulo de intercambio de datos en tiempo real del
DSP.
III. CONCLUSIONES
1. En conclusión a las técnicas de control vectorial
estudiadas, es importante destacar que la técnica Id=0,
presenta un mejor rendimiento, dado que se reducen
las pérdidas en la GSIP, la cuales se reflejan en el
aumento de la temperatura de operación y por lo tanto
disminución de la vida útil del generador.
2. La eficiencia de las técnicas de control vectorial
depende en gran medida de la estimación de la
posición del rotor, dado que la diferencia entre las
corrientes de referencia para cada una de las técnicas
es similar.
3. La diferencia entre las técnicas de control vectorial es
apreciable a medida que aumenta la potencia de la
máquina, dado que aumenta las corrientes de línea de
éstas, variable que influye directamente sobre las
pérdidas eléctricas.
IV. REFERENCIAS
1. Yang H, Wei Z, Chengzhi L, Optimal design and
techno-economic analysis of a hybrid solar–wind
power generation system, Applied Energy
2009;86(2):163-169.
2. H. Camblong, I. Martinez de Alegria, M. Rodriguez,
G. Abad, Experimental evaluation of wind turbines
maximum power point tracking controllers, Energy
Conversion & Management 2006;47(18):2846-58.
3. Y.Y. Hong, S.D. Lu, C.S. Chiou, MPPT for PM wind
generator using gradient approximation, Energy
Conversion and Management 2009; 50(1):82–89.
4. E. Koutroulis, K. Kalaitzakis, Desing of a Maximum
Power Tracking System for Wind-Energy-Conversion
Applications, IEEE Transactions on Industrial
Electronics 2006;53(2):486-94.
5. B.M. Nagai, K. Ameku, J.N. Roy, Performance of a
3kW wind turbine generator with variable pitch
control system, Applied Energy 2009;86(9):1774-
1782.
6. Kazmierkowski MP, Blaabjerg F, Krishnan R. Control
in Power Electronics Selected Problems. San Diego,
California: Elsevier; 2002.
7. Zhang B., Pong M.H., Maximum Torque Control and
Vector Control of Permanent Magnet Synchronous
Motor, In International Conference on Power
electronics and Drive Systems, Singapure, May 1997.
8. Christos Mademlis, Nikos Margaris, Loss
Minimization in Vector-Controlled Interior
Permanent-Magnet Synchronous Motor Drives, IEEE
Transactions on Industrial Electronics
2002;49(6):1344-1347.
9. Brahmi J, Krichen L, Ouali A, A comparative study
between three sensorless control strategies for PMSG
in wind energy conversion system, Applied Energy
2009;86(9):1565-73.
10. L.G. González, E. Figueres, G. Garcerá, O. Carranza,
”Synchronization techniques comparison for
sensorless control applied to PMSG”, International
Conference on Renewable Energies and Power
Quality (ICREPQ´09), ISBN 978-980-84-612-8014-
8,(15-17 April, 2009)
11. Yin M, Li G, Zhou M, Zhao C. Modeling of the wind
turbine with a permanent magnet synchronous
generator for integration. In: IEEE power engineering
society general meeting, Tampa, Florida; June 24–28,
2007.
12. Chinchilla M, Arnaltes S, Burgos JC, Control of
permanent-magnet generators applied to variable-
speed wind-energy systems connected to the grid,
IEEE Trans Energy Conversion 2006;21(1):130-135.
13. Figueres E, Garcerá G, Sandia J, González-Espín F,
Calvo Rubio J, Sensitivity Study of the Dynamics of
Three-Phase Photovoltaic Inverters With an LCL Grid
Filter, IEEE Trans Ins. Electron 2009;56(3):706-717.
AGRADECIMIENTOS
El primer autor agradece al Grupo de Sistemas Electrónicos Industriales (GSEI) de la Universidad Politécnica de Valencia
(UPV) por el financiamiento recibido y uso de su infraestructura para realizar esta investigación.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 161
SIMULACIÓN DE DESCARGAS ATMOSFÉRICAS Y SU EFECTO
EN REDES ELÉCTRICAS DE POTENCIA
Alvarez, Roberto 1 Rosales, Luis
2
(Recibido mayo 2010, Aceptado febrero 2012) 1 Ingeniero Electricista, egresado de la UNEXPO Vicerrectorado Puerto Ordaz, Venezuela
2 Sección de Física, UNEXPO Vicerrectorado Puerto Ordaz, Venezuela
Resumen: En este trabajo se halla una solución numérica a la Ecuación de Heaviside para simular las
Descargas Parciales de origen Atmosférico, con parámetros ambientales presentes al norte del Estado
Bolívar, Venezuela, que inciden en los Sistemas Eléctricos de Potencia.
Palabras claves: Simulación/ Ecuación del telegrafista/ Descargas atmosféricas/ Redes eléctrica
SIMULATION OF LIGHTING STROKES AND THEIR EFECT ON
A POWER ELECTRICAL GRID Abstract: This paper finds a numerical solution to the Heaviside equation to simulate partial discharges
of origin Atmospheric, with environmental parameters present in the north of Bolivar State, affecting
the Electric Power Systems.
Keywords: Simulation/ Telegraphis Equation/ Atmospheric Discharges/ Power Electrical Grid.
I. INTRODUCCIÓN
Diariamente, a nivel mundial se producen alrededor de 5
millones de descargas eléctricas atmosféricas (DEAT). El
impacto de estos eventos implican desde pérdidas de
activos y bienes materiales, hasta pérdidas de vidas
humanas por accidentes relacionados directa o
indirectamente con dichas descargas. La naturaleza
aleatoria de este fenómeno hace difícil su entendimiento,
y después de muchos años de desarrollos científicos aún
son desconocidos muchos de sus principales
características.
Para el estudio científico es necesaria la medición,
representación y simulación de las variables, es por ello
que para la comprensión de las descargas, es necesaria la
caracterización del mismo, haciendo proyecciones que
posteriormente sirvan para el análisis y desarrollo de
mejoras al servicio eléctrico.
Con las nuevas tecnologías y el continuo desarrollo de
estas, en la actualidad se cuenta con técnicas confiables
que miden las variables asociadas al fenómeno, que por su
complejidad es necesario el soporte de computadores cada
vez más rápidos y de métodos numéricos que permitan
representarlo. Con los parámetros que describen la
descarga atmosférica, obtener un modelo de sobretensión
para este fenómeno y determinar de manera más exacta
las perturbaciones que está genera en todos los elementos
pertenecientes a la red eléctrica nacional en Venezuela, es
el principal objetivo de esta investigación.
En el año 2004, Miramare realizó la revisión de la
coordinación de aislamiento del patio de distribución de
Caruachi a 400 kV ante el fenómeno de DEAT, utilizando
como herramienta el programa ATPDraw. Fernández,
realizó el Estudio para disminuir la tasa de salida anual
por DEAT de la línea Palital-Furrial a 400 KV, el cual
mostró la forma de disminuir la tasa de salida por DEAT
de dicha línea de transmisión haciendo uso de un modelo
hecho con el software T-flash. Para el año 2006,
Fernández, realizó el estudio del comportamiento de la
línea de transmisión Las Claritas-Santa Elena a 230 KV
cuando es sometida a sobretensiones provocadas por
DEAT. Luego en el 2007, Pedroza, realizó un estudio
del comportamiento en estado transitorio de las
perturbaciones producidas en los sistemas de control de la
S/E Tocoma Construcción 230/34,5/13,8 KV causados
por eventos asociados a DEAT.
En el año 2008, Rodríguez, realizó el Estudio de la
Variación Espacial-Temporal de los Parámetros de la
Descargas Atmosféricas en Venezuela y tuvo como
objetivo estudiar el comportamiento y parámetros de este
fenómeno.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 162
Las condiciones de aislamiento en subestaciones de
transmisión requieren la consideración de magnitud,
frecuencia de ocurrencia y tipo de sobretensiones que
puedan presentarse durante su operación.
Una sobretensión transitoria importante es la producida
por las DEAT que inciden en la subestación; bien sea que
lleguen a través de la línea de transmisión o que se deban
a descargas directas sobre los equipos de la subestación,
producidas por fallas del apantallamiento. Este último
tipo de descargas conlleva a unas condiciones difíciles
para los aislamientos.
Cuando una DEAT alcanza un sistema de potencia, una
sobretensión elevada aparece a través de los equipos en la
subestación. Si la sobretensión excede la rigidez del
aislamiento, ésta se romperá y aparecerá un arco eléctrico
que será mantenido por la tensión a la frecuencia
industrial del sistema. Se hace necesaria entonces la
operación de interruptores para eliminar el cortocircuito.
Si la descarga se produce a través del aire, en una cadena
de aisladores o de equipos con aislamiento
autorregenerativo, generalmente no se producen daños. Si
por otra parte la descarga se produce en aislamientos no
regenerativos como motores o transformadores entonces
el daño es permanente.
En la práctica, la función del apantallamiento consiste en
proteger a los equipos de la subestación contra descargas
directas. El conocimiento de la formación de las DEAT es
de gran utilidad para entender como los diversos
elementos (cables de guarda, mástiles, etc.) ofrecen
protección.
En este trabajo se estudian las descargas parciales de
origen atmosférico basado en la solución numérica de la
ecuación Heaviside, la cual es una ecuación diferencial en
derivadas parciales de segundo orden del tipo hiperbólica,
y determinar su influencia en redes eléctricas de potencia
tomando en cuenta los parámetros de información
geográfica y ambiental de la zona donde ocurran estos
eventos.
II. DESARROLLO
El análisis estadístico que se muestra a continuación se
hizo con la información recibida por parte del
Departamento de Gestión Información Geográfica y
Ambiental, adscrito a la Gerencia de Gestión Ambiental
de Corpoelec Región Sur, en la que se muestra la fecha,
ubicación y magnitud de las DEAT registradas en la zona
seleccionada durante los años 2000 al 2005. Fueron
seleccionados estos años pues fue en ese período donde se
registró la mayor actividad de tormentas y el mejor
desempeño del SDDA. En cuando a la zona de estudio,
fue seleccionada tomando en cuenta la importancia de la
línea de transmisión Guri-Guayana B para el suministro
eléctrico del parque industrial de la región.
1. Información estadística de la ocurrencia de DEAT
por cada año
Una vez procesada toda la información recibida por los
operadores del SDDA, se procedió a la obtención de
variables estadísticas básicas cuyos resultados se reflejan
en la Tabla I.
Tabla I. Análisis estadístico a los datos recogidos del
SDDA de Corpoelec agrupados por año.
Año 2000 2001 2002 2003 2004 2005
Máximo (KA) -48 -4 58 68 103 18
Mínimo (KA) -185 -60 -138 -194 -184 -558
Número de
DEAT 26 31 1759 3776 2424 810
Corriente
promedio (KA) 84,13 17,58 24,04 23 25,75 33,91
Desviación estándar (δ)
36,124 17,58 18,62 17,90 21,207 59,95
Varianza (δ2) 1248,2 157,21 346,45 320,512 449,589 3590,43
Para el año 2000, el periodo de tormentas se inició en el
mes de junio y se extendió hasta el mes de noviembre,
registrándose un total de 26 DEAT. Si bien en cierto esta
año no fue muy activo en lo a DEAT se refiere, en él se
registró el promedio más alto en cuanto a la intensidad de
las DEAT. Durante el año 2001 solamente se registraron
31 DEAT, todas ellas de baja intensidad, en el mes de
abril.
En el año 2002, con excepción de los meses de febrero y
diciembre, se registraron tormentas durante todo el año.
Esto queda evidenciado con un número total de DEAT de
1759. La actividad fue bastante uniforme, no se
encontraron valores de corriente sobresalientes en la
muestra. Durante el año 2003 fueron registradas entre los
meses de mayo y diciembre un total de 3776 DEAT,
siendo este el año con mayor actividad atmosférica. En
este año particularmente fue muy común registrar el
fenómeno de descargas múltiples idénticas.
En el año 2004 se registraron la cantidad de 2424 DEAT
entre los meses de mayo y diciembre, teniendo un
comportamiento parecido al año anterior. Durante este
año se registra una intensa actividad tormentosa con
DEAT que superan frecuentemente los 100 kA.
Ya en el año 2005, con solo 810 DEAT entre los meses de
abril y diciembre, se registraron con frecuencia DEAT
con magnitudes superiores a los 300 kA, incluso para los
meses de junio y junio se registraron valores superiores a
los 500 kA, siendo estos valores completamente atípicos
para esta región.
La variación de estos valores deja en evidencia la
“Hipótesis de la Variación Espacio-Tiempo de los
Parámetros de una DEAT” y la cambiante actividad
atmosférica presente en las zonas inter-tropicales cercana
a la Zona de Convección Tropical. Esto quiere decir que
los parámetros característicos de las DEAT cambian
anualmente y responden a variaciones en sistemas
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 163
mesoclimáticos, es decir, a cambios que no se limitan
solamente a nuestra región geográfica en estudio.
Es por ello que se recomienda hacer un estudio de estas
variables antes de proceder a la especificación de sistemas
de protección contra DEAT y demás elementos en un
sistema eléctrico de potencia.
2. Localización espacial de las DEAT
Con la ayuda de la información de ubicación (latitud y
longitud) de las DEAT dada por SDDA en nuestra región
de estudio, se procedió a su localización mediante un
programa de gestión de imágenes satelitales, eso con el fin
de conocer cual zona presenta la mayor incidencia de
DEAT, así como conocer el lugar donde se han producido
singularidades como corriente de retorno positivas y
corrientes cuya intensidad puede ser calificada como
excepcional.
Durante los 6 años de los que se compone la muestra de
nuestro estudio las zonas aledañas a las Centrales
Francisco de Miranda (Caruachi) y la José Felix Rivas
(Tocoma) son las que presentan la mayor concentración
de DEAT.
También puede apreciarse que durante el mes de Julio del
año 2005, mes donde se registraron las DEAT de mayor
intensidad (≥ 400 kA), gran número de éstas ocurrieron en
las adyacencias del Distribuidor Puente Orinoquia, en las
afueras de la Zona Industrial De Ciudad Guayana,
pudiéndose plantear como posible hipótesis de este
fenómeno polución debida a elementos metálicos
presentes en la zona que pueden disminuir
considerablemente la resistencia eléctrica del canal de
descarga.
3. Ecuación de Heaviside (Telegrafista)
Con este modelo se representa el canal de descarga de una
DEAT como un circuito eléctrico de una línea disipativa,
este sistema continuo es representado por las ecuaciones
Ec.1 y Ec.2.
(1)
(2)
para t>0, x ϵ (0,λ), siendo λ la altura del canal de
descarga.
4. Métodos numéricos y esquema de discretización
El método de diferencias finitas es una clásica
aproximación para encontrar la solución numérica de las
ecuaciones que gobiernan el modelo matemático de un
sistema continuo. Es valioso familiarizarse con ésta
aproximación porque tal conocimiento reforzará la
comprensión de los procedimientos de elementos finitos.
Como resultado de la aproximación, la ecuación
diferencial parcial que describe el problema es
reemplazada por un número finito de ecuaciones
algebraicas, escritas en términos de los valores de la
variable dependiente en puntos seleccionados. Las
ecuaciones son lineales si las ecuaciones diferenciales
parciales son también lineales.
Diferencias finitas
Del teorema de Taylor para funciones de dos variables y
truncamiento a segundo orden, se deduce que:
Donde se evalúa en el punto (xi,tj) la derivada de primer
orden y en (xi+∆x, tj) la de segundo orden, siendo el error
0.(Δx) igual en ambos casos, queda:
(3)
(4)
La primera derivada y segunda derivada son evaluadas en
los puntos (i,j) y (i+1,j). Sumando las Ec.3 y Ec.4 queda:
(5)
Despejando el término derivativo a segundo orden,
finalmente queda:
(6)
Podemos entonces aproximar la segunda derivada como
se ve en la Ec.6, donde el error de aproximación sería
0(∆x2).
Para determinar la aproximación de primer orden
partimos igualmente de las Ec.3 y Ec.4 pero con un
truncamiento a primer orden, quedando:
(7)
(8)
Si restamos Ec.7 y Ec.8, nos queda:
(9)
Despejando el término derivativo a primer orden,
finalmente queda:
(10)
(7)
(8)
(10)
(9)
(3
)
(4
)
(5
)
(6
)
x)0(2
x)0(2
2
22
,,1
2
22
,,1
x
Ix
x
IxII
x
Ix
x
IxII
n
ji
n
ji
n
ji
n
ji
x)0(..22
22
,,1,1
x
IxIII n
ji
n
ji
n
ji
2
,1,,1
2
2 2
x
III
x
In
ji
n
ji
n
ji
x)0(
x)0(
,,1
,,1
x
IxII
x
IxII
n
ji
n
ji
n
ji
n
ji
x
IxII n
ji
n
ji
..2,1,1
x
II
x
I jiji txtx
n
.2
),1(),1(
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 164
Discretización de un espacio-tiempo continúo
El desarrollo anteriormente expuesto tiene como propósito
resolver sistemas diferenciales continuos. En sistemas
discretos se resuelven mediante aproximaciones finitas,
esto se logra mediante la creación de un número finitos de
nodos o puntos que dividen cada eje en pasos o
diferenciales.
Figura 1. Espacio mallado donde se aplica la discretización.
5. Discretización de la Ecuación de Heaviside
La idea básica de las diferencias finitas es sustituir al
espacio-tiempo continuo por un conjunto discreto de
puntos. Las distancias entre los puntos de esta red no tiene
porqué ser uniformes.
En este paso se sustituyen las Ec.6 y Ec.10 en Ec.3 y Ec.4,
dando como resultado una expresión algebraica
representada en la ecuación.
(11)
Posteriormente, para obtener un “término futuro” o
garantizar el avance en el tiempo del modelo propuesto, se
procede al despeje del término Ii,j+1, el cual se visualiza en
Ec.12:
jiI
CLLGCRt
GRt
jiI
jiI
jiI
CLLGCRtx
t
jiI
jiI
CLLGCRt
CL
jiI
CLLGCRt
LGCRt
jiI
,..2)..(
..2.2
),1,
.2,1
()..2)..((2
2.2
),
.21,
(..2)...(
..2
1,..2)...(
)...(
1,
(12)
6. Resultados
Para validar e ilustrar este método se represente la nube y
la tierra como un capacitor cilíndrico de placas paralelas
de 1 Km de radio y el canal de descarga de unos 20 cm de
diámetro. En el problema se toma una altura típica de
1000 m la cual se divide en 250 elementos con un paso de
tiempo Δt de 0.5 µs.
Los valores usados en nuestra simulación como
parámetros eléctricos para el canal de descarga se
muestran en la Tabla 2.
Tabla 2. Parámetros eléctricos del canal de descarga de una
DEAT
Altura (X) 1000 m
Inductancia (L) 2.18 mH
Capacitancia (C) 6.95 pF
Conductancia (G) 5 µS
Resistencia (R) 1000 a 5000 Ω
Una vez discretizada la ecuación de Heaviside (Ec.11) se
procedió a implementarla numéricamente en MATLAB
usando los parámetros mostrados en la Tabla 2,
adicionalmente a ello se utilizó la variación de R y G para
mostrar el comportamiento disipativo del canal de
descarga. En este mismo orden de ideas, para demostrar la
estabilidad del código de usaron diferentes valores de dx,
esto con el fin de corroborar la condición CFL.
En la Figura 2 puede apreciarse una comparación entre las
ondas obtenidas numéricamente (tanto para G=0 y G≠0) y
la onda generada a partir de una función analítica. Puede
notarse la notoria diferente para la gráfica con G=0, esto
se debe a que no es están tomando en cuenta las
características disipativas del canal de descarga,
provocando así una atenuación menor.
Figura 2. Comparación entre las soluciones numéricas (G=0
y G≠0) y la analítica (Heidler)
En la Figura 3 se aprecia el detalle de las crestas de las
ondas representadas en la Figura 2, esto con el fin de
visualizar mejor el momento en que ocurren los picos de
corriente y también con el fin de apreciar el “frente de
onda” de las mismas.
(11)
0,
..2
1,,.2
1,
.2
1,1,)..(
2
,1,.2
,1
jiIGR
t
jiI
jiI
jiI
LC
t
jiI
jiI
LGCRx
jiI
jiI
jiI
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 165
Figura 3. Detalle de los valores picos de las soluciones
numéricas (G=0 y G≠0) y la analítica (Heidler)
Una vez comparada la solución númerica implementada
con la solución analítica conocida procedimos a simular
distintos modelos.
La Figura 4 nuestra la corriente calculada a partir de la la
Ec.11 para distintos valores de G. En todos los casos el
tiempo de arranque y los diferenciales fueron los mismos,
lo que las diferencia es la atenuación y la estabilidad del
código.
Figura 4. Solución numérica con diferentes valores de G.
Las Figursa 5 y 6 nuestran una serie de gráficas para
diferentes valores de R tanto para G=0 y G≠0, esto con el
fín de simular las diferentes resistividades presentes en la
atmósfera al tener zonas con mayor humedad y polución
que otras.
Figura 5. Solución numérica con diferentes valores de R
para G=0
Figura 6. Solución numérica con diferentes valores de R
para G≠0
6.1. Pruebas y Validación
Como prueba y validación de los modelos propuestos en
las Figura 7 y Figura 8 se muestran una serie de gráficas
para G=0 y G≠0 para diferentes números de nodos, esto
con el fin de hacer variar el tamaño de los diferenciales
espaciales y poner a prueba los criterios de estabilidad
anteriormente expuestos.
Nótese que para un número de nodos N≥1000 el código
comienza a romper la condicion CFL y se aprecian
oscilaciones, lo que represente un comportamiento atípico
para un fenómeno de estas características.
Para un N≤200 se viola la relación de los Δt y Δx, lo que
quiere decir que el tamaño de los diferenciales es mayor a
la unidad característica de tiempo del sistema con lo cual
la discretización no representaría una aproximación
adecuada a la solución del sistema, Nótese en la Figura 8
que la onda para un N=5 y N=105 no posee una
atenuación adecuada.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 166
Figura 7. Solución numérica para diferentes valores de dx
para G=0
Figura 8. Solución numérica para diferentes valores de dx
para G≠0
Simulación del impacto de una DEAT en un Sistema
Eléctrico de Potencia
Ya analizado numéricamente el comportamiento del pulso
de corriente característico de una DEAT, se procedió a la
implementación un modelo de fuente de corriente
dependiente, con el cual se implementó un elemento
activo perturbativo, a fin de representar el impacto de una
DEAT en la simulación de un sistema eléctrico conocido.
Descripción del modelo de una línea de transmisión
A. Modelo de parámetros concentrados (modelo π)
Los circuitos π son una aproximación discreta a los
parámetros distribuidos constantes.Corresponde a los
modelos que se utilizaron como primera solución al
estudio de transitoriosen líneas, tanto mediante programas
como el EMTP (Electro Magnetic Transient Program),
como en los analizadores de transitorios.
Los circuitos π no son generalmente el mejor modelo para
estudios de transitorios, puesto que la solución por
parámetros distribuidos es más rápida y usualmente más
precisa.
Figura 9. Modelo circuital de una línea de transmisión π
B. Modelo de parámetros distribuidos
El modelo de parámetros distribuidos constantes calcula
la propagación de diferentes componentes de modo,
siendo estos modos desacoplados. En cada extremo de la
línea se convierten los valores de modo a valores de fase
mediante la matriz de transformación.
Geometría de la línea de transmisión implementada
Con el fin de obtener los resultados más cercanos a
valores reales, el modelo eléctrico a implementar está
basado en datos de líneas de transmisión en operación, en
tal sentido se seleccionó una sistema de 230 kV
apantallado con doble cable de guarda. En sistemas de
transmisión de mayor potencial, debido a sus
características y especificaciones técnicas, las
perturbaciones causadas por el impacto de una DEAT no
son notorias, esto se debe a la robustez de su coordinación
de aislamientos, al igual que estadísticamente son los
menos impactados.
En la Figura 10 se muestra la geometría de la línea de
transmisión Guri-Guayana A, estos datos fueron usados
para alimentar en el simulador de transitorios
electromagnéticos en sistema eléctricos de potencia
PSCAD con el fin de determinar la impedancia
característica de este sistema de transmisión.
Representación de una línea de transmisión en PSCAD
El primer paso para la creación de un modelo unifilar en
la simulación de sistemas eléctricos de potencia es la
implementación de las líneas de transmisión que
comunican los nodos o barras del sistema. En el caso
particular de PSCAD, se logra con la función “T-LINE”,
con el cual se inserta genéricamente una línea de
transmisión en el diagrama unifilar a modelar, mediante
su interface gráfica al usuario (GUI). En la Figura 11 se
muestra la presentación del elemento “T-LINE” bajo su
configuración de terminales remotos, esta configuración
gráfica es especialmente útil cuando se desean realizar
mediciones individuales en cada fase del sistema de
potencia a simular.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 167
Figura 10. Geometría de una línea de transmisión de 230 kV
Figura 11. Representación gráfica del elemento “T-LINE”
entre dos barras en PSCAD
Una vez realizada la interconexión de los nodos mediante
la función “T-LINE”, se procedió a llenar los parámetros
característicos de la misma. Bajo este orden de ideas, en
la Figura 12 se muestra la pantalla de configuración
longitudinal de la línea de transmisión a implementar.
Figura 12. Configuración del elemento “T-LINE” en PSCAD
Para completar el proceso de configuración de una línea
de transmisión en PSCAD, se inserta la información
correspondiente a la sección transversal de la misma,
también conocida como la geometría de la línea de
transmisión. En esta parte también se especifican las
opciones de dependencia de la frecuencia del modelo a
implementar, esto es particularmente útil para los estudio
de transitorios electromagnéticos.
Como puede observarse en la Figura 13, otro parámetro
importante es el tipo de conductor del que se compone la
línea de transmisión a simular, la resistividad del suelo y
la forma en que se producen los incrementos de la
frecuencia. Cabe destacar que en los simuladores de redes
eléctricas de potencia la información referente a la
geometría es traducida a los valores de R, L y C
característicos de esta, el único parámetro relevante que se
usa con unidades de longitud es longitud de la misma
línea.
Figura 13. Representación de la configuración del corte
transversal (geometría) del elemento “T-LINE”
C. Implementación en PSCAD de una fuente de
corriente con los parámetros de una DEAT
Con la finalidad de crear un elemento perturbativo, se
procedió a modelar una fuente de corriente dependiente, a
fin de poder representar el impacto directo de una DEAT
usando la forma de onda y valores obtenidos
numéricamente. En PSCAD, esto se logra mediante la
herramienta de diseño de componentes, ya que esté
estudio en particular no está precargado en su librería.
El parámetro de control de la fuente de corriente a
implementar es el componente llamando “Pulse Shaper” o
definidor de pulso. Este componente usa como
parámetros de entrada los tiempos de frente y de cola de
una DEAT, así como su magnitud. Dentro del módulo se
encuentra una rutina de enlace con la solución numérica
hecha en MATLAB, esto con el fin de adaptar la forma de
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 168
onda calculada con los parámetros de entrada colocados.
A la salida del módulo “Pulse Shaper” se encuentra un
elemento de registro analógico de formas de onda y un
cuadro multiplicador
Figura 14. Fuente de corriente dependiente junto a su
representación gráfica
Figura 15. Forma de onda del pulso de corriente inyectado
en el sistema representado en la Figura 14.
D. Representación del modelo de un sistema eléctrico
de potencia en PSCAD al ser impactado por una
DEAT
Se propuso un estudio por casos, esto con el fin de
extender el análisis en, por lo menos, dos tipos de
condiciones presentes en la industria eléctrica: el caso 1
corresponde al impacto directo en uno de los cables de
fase de una línea de transmisión, para el caso 2 se estudió
el impacto directo en los cables de guarda de una línea de
transmisión. Debido a la corta duración del impacto de
una DEAT, en ambos casos se consideran que los
sistemas se encuentran sin carga y a tensión cero. La
ventaja de usar estas condiciones es el hecho de aislar las
variables de estudio de otros efectos dinámicos presentes
en los sistemas de potencia eléctrica. Los resultados a
tensión nominal pueden aproximarse por superposición ya
que las sobretensiones obtenidas tienen sus componentes
en DC.
Caso 1: Impacto de una DEAT en uno de los cables de
fase de una línea de transmisión.
El modelo representado en la Figura.16 consta de dos
barras, a las cuales se conecta la línea de transmisión a
analizar, características ya descritas. Mediante el uso de
una fuente de corriente controlada se hizo incidir una
DEAT en uno de sus extremos y en el otro extremo se
encuentran los elementos de medición analógica en cada
fase. A los terminales de cada barra se conectaron
resistencias, para hacer que el pulso de corriente circule
por la línea de transmisión y no por el aterramiento.
El pulso de corriente inicia en un t=0 y tiene una duración
aproximada de 300 µs.
Figura 16. Diagrama unifilar donde se simula el impacto de
una DEAT en los cables de fase de una línea de transmisión
de 230 kV.
Caso 2: Impacto de una DEAT en los cables de guarda de
una línea de transmisión.
El modelo representado en la Figura 17 es un segmento
del sistema de transmisión anteriormente descrito donde
sólo de muestran vanos, cada uno de ellos representado
como una línea de transmisión de longitudes distintas pero
de igual sección transversal, el resto del sistema se
representa mediante terminales equivalentes de línea.
También las figuras de 4 torres de transmisión, realizadas
igualmente con la ayuda del módulo de diseño de
componentes. Dentro de ellas se colocan los parámetros
eléctricos referentes a la impedancia de la cadena de
aisladores y la resistencia de conductor de puesta a tierra
de los cables de guarda. Esta representación gráfica de las
torres antes mencionadas no guarda relación alguna con la
geometría de la sección transversal de la línea de
transmisión implementada (Ver Figura 13).
Los elementos de medición se colocaron en tres
posiciones diferentes, siendo el criterio de ubicación de
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 169
éstos la distancia desde el punto de impacto. Bajo este
orden de ideas se tienen las siguientes posiciones para la
medición de las sobretensiones: medición en la torre de
impacto, medición al final del primer vano y medición al
final del segundo vano. Con esta metodología de buscó
representar los cambios en los perfiles de tensión
presentes para cada una de estas condiciones.
Figura 17. Representación unifilar del circuito donde se
simula el impacto de una DEAT en los cables de guarda de
una línea de transmisión de 230 kV.
E. Perturbaciones en sistemas eléctricos de potencia a
causa del impacto de una DEAT
Se presentan un conjunto de gráficas de tensión (voltaje)
en función del tiempo correspondiente a los perfiles
observados en el sistema, para diferentes puntos de
medición, durante el impacto de una DEAT. Con relación
al caso 1, solo se presenta un par de gráficas de tensión;
respecto al caso 2, se presentan 3 conjuntos de gráficas,
las cuales corresponden a las tres posibles ubicaciones de
los sistemas de medición con relación al punto de
impacto.
i. Perfil de tensión del impacto de una DEAT en el
cable de fase de una línea de transmisión
En la Figura 18 se observan dos gráficas, en la primera de
ellas se muestra el perfil de tensión de la fase impactada
por la DEAT, en la segunda por su parte se muestra el
perfil de tensión de una de las fases vecinas. Nótese que
la duración de esta perturbación, bajo estas condiciones
ideales, se acerca a los 10ms, es decir, poco más de medio
ciclo.
También es importante notar la magnitud de las tensiones,
produciéndose picos de superiores a los 200 kV para el
caso de la fase impactada y los 35 kV para la fase vecina.
Debido a los efectos de la inducción electromagnética, las
gráficas presentadas tienen polaridades opuestas. La
envolvente de ambas gráficas se aproxima bastante bien a
la forma de onda de la DEAT que incide en ellas.
Figura 18. Formas de onda de los voltajes de fase en función
del tiempo, ocasionados por el impacto de una DEAT con
forma de onda descripta en la Figura 15.
ii. Perfil de tensión del impacto de una DEAT en los
cables de guarda de una línea de transmisión
Medición en el punto de impacto
La Figura19 muestra la ampliación de un detalle de la
Figura17, en ella se observa la ubicación de los sistemas
de medición analógica con respecto al punto de impacto
de la DEAT. Con esta configuración se busca registrar la
forma de onda de la DEAT sin los efectos atenuadores de
la medición de esta onda a través del segmento de línea de
transmisión.
Figura.19: Detalle de la ubicación de los registradores
analógicos en el punto de impacto de la DEAT
Se observa en la Figura 20 que los perfiles de tensión son
registrados en el origen, es decir, de manera inmediata
con el impacto de la DEAT, nótese que también se
obtienen las mayores magnitudes debito a que no actúan
los efectos de atenuación de la línea de transmisión al
circular el frente de onda por ésta.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 170
Figura 20. Perfiles de tensión obtenidos para la medición
ubicada en el mismo punto de impacto de la DEAT.
Medición a través del primer vano
La Figura 21 muestra la ubicación de los puntos de
medición al final del primer vano, esto con el fin de
registrar los efectos del tránsito del frente de onda a través
de él. Con la presente configuración se están tomando en
cuenta dos fuentes de atenuación de la señal, la primera de
ellas debida a las características eléctricas del canal de
conducción, y la segunda fuente de atenuación del frente
de onda corresponde a los elemento de fuga (resistencias
y reactancias) que se consideraron en la implementación
de las torres de transmisión que unen a los vanos.
Aparte de la atenuación presente en las gráficas de la
Figura 22, puede notarse también el desplazamiento en el
tiempo o retardo en registro o medición del frente de
onda.
Figura 21. Detalle de la ubicación de los registradores
analógicos al final del primer vano con relación al punto de
impacto de la DEAT.
Figura 22. Perfiles de tensión obtenidos por los sistemas de
medición ubicados al final del primer vano.
Medición al término del segundo vano
Ya en la Figura 23, la ubicación de los puntos de
medición es al final del segundo vano. En este caso, el
frente de onda originado por el impacto de la DEAT
deberá circular ahora por 4 fuentes de atenuación para
luego ser registrada por los sistemas de medición.
Figura.23: Detalle de la ubicación de los registradores
analógicos al final del segundo vano.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 171
La atenuación y el retardo observados en la Figura 24 son
aún más pronunciados, quedando incluso la tensión en el
cable de guarda por debajo de los 0,30 kV, valor que por
sí mismo es muy bajo como para ser considerado una
sobertensión, resultado que es completamente coherente a
lo que se espera en un sistema de transmisión en
operación.
La magnitud de la perturbación registrada en los cables de
fase, debido a los efectos inductivos, presenta una
atenuación mucho menor, ya que estos conductores se
encuentran aislados, quedando de parte de otros elementos
activos del sistema de potencia o incluso de la dinámica
del sistema en sí mismo la supresión de esta perturbación.
Los valores registrados están lejos de ser considerados
como factores de riesgo para el aislamiento o la dinámica
del sistema de potencia.
Figura 24. Perfiles de tensión obtenidos por los sistemas de
medición ubicados al final del segundo vano.
III. CONCLUSIONES
Una vez presentados los resultados, se concluye en base a:
Resultados del análisis estadístico:
1. La variación espacio-tiempo de los parámetros de
las Descargas Atmosféricas expuesta por Horario
Torres-Sánchez, cada año, en las zonas de
convección intertropical, se presentan variaciones
en la intensidad y ocurrencia de las descargas,
estos cambios se repiten cíclicamente, esta
variación se presenta también al norte del estado
Bolívar.
2. Las zonas con mayor cantidad de impactos
registrados son las correspondientes a las cercanías
de las centrales hidroeléctricas Caruachi y
Tocoma.
3. En estudios referentes a las Descargas
Atmosféricas, como la tasa de salida anual de una
línea de transmisión, donde comúnmente es usado
el valor ceráunio del sitio, las curvas de la densidad
de la probabilidad de la corriente de retorno
también deben ser tomadas en cuenta.
4. Debido a los altos niveles de polución de
elementos metálicos, que pudiesen reducir la
resistencia eléctrica del canal de descarga, en zonas
cercanas a las empresas básicas de Guayana se
produjeron singularidades como corrientes de
retorno positivas y picos de corriente superiores a
los 400 kA.
5. Tomando en cuenta el inicio de la temporadas de
lluvias de cada año, los datos históricos de los
niveles del embalse de Guri y la actividad de
tormentas en la zona, queda en evidencia una
relación directa entre la estación lluviosa en los
embalses del Bajo Caroní y los parámetros de las
descargas atmosféricas registradas al norte del
estado Bolívar.
Resultados de la solución numérica de la ecuación de
Heaviside:
1. Se demostró que el código es estable y convergente
para diferentes tipos de malla, siendo los mejores
resultados los obtenidos con un número de nodos
comprendido entre los 300 y 400.
2. La magnitud de la corriente de retorno de una
DEAT se ve afectada de manera inversamente
proporcional por el valor de la resistencia del canal
de conducción.
3. Los tiempos de cola se ven afectados por la
conductividad (G) presente en el canal de descarga.
4. El código es oscilante e inestable para valores de G
superiores a los 0.001 mho
5. Con derivadas (rampas) de frente de onda
superiores 71kA/µs y tiempo de atenuación
menores a los 100 µs, estos valores presentados
por las ecuaciones de doble Exponencial y Heidler,
las cuales fueron diseñadas para zonas de estudio
no tropicales, son notablemente diferentes a los
datos arrojados por la solución numérica propuesta
en este trabajo.
6. Los paquetes informáticos tradicionales (T-flash)
no presentan una solución exacta de los fenómenos
asociados a las Descargas Atmosféricas, se basan
en soluciones probabilísticas.
Resultados de la simulación de un sistema eléctrico de
potencia en PSCAD:
1. En base al primer caso de simulación, donde no se
consideran en su totalidad las características
constructivas de un sistema de transmisión con el
fin de tener condiciones ideal y mínimas de
operación, las sobretensiones inducidas en los
sistemas de transmisión de hasta 230 kV tienen
tiempos de duración equivalentes a 10 tiempos de
cola de la Descargas Atmosféricas que índicen en
ellos.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 172
2. En base al segundo caso de simulación, donde se
toman en cuenta condiciones reales en sistemas de
transmisión en subestaciones, los sistemas de
transmisión superiores a los 230 kV no se ven
afectados por sobretensiones inducidas por
Descargas Atmosféricas debido a sus
características constructivas, éstas son: sistema de
pararrayos, rigidez dieléctrica de la cadena de
aislamiento, distancia de separación entre fases y
sistema de coordinación de aislamientos.
3. Debido al aterramiento de los cables de guarda, la
sobretensión inducida por éstos en los cables de
fase tienden a ser más extensas, siendo únicamente
suprimidas por la inercia eléctrica, por la operación
del sistema eléctrico o interrupción del mismo.
4. Debido a la naturaleza de onda viajera del
fenómeno, el tiempo de registro del frente de onda
va a presentar un desplazamiento horizontal
respecto al tiempo de inicio de la perturbación,
esto dependerá de la ubicación relativa del punto
de medición.
IV. REFERENCIAS
1. El Rayo, Horacio Torres-Sanchez, 2004.
2. EMTP PSCAD Reference Guide, Manitoba Research
Center, 2007.
3. MATLAB Reference Guide, MathWorks, 2011.
4. Simulación de elementos axial simétricos en
relatividad general mediante diferencias finitas, 2001,
Luis Rosales.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 173
ANÁLISIS DE LA EFICIENCIA DEL ALGORITMO DE
RECONSTRUCCIÓN DE SEÑALES BASADO EN LA MEDIANA
PONDERADA A TRAVÉS DE LA REGRESIÓN DE COX
Jabbour George 1 y Paredes Jose Luis
1
(Recibido febrero 2012, Aceptado mayo 2012) 1Universidad de los Andes
Resumen: En el presente artículo se analiza, a través del modelo de regresión de Cox, la eficiencia del
algoritmo de reconstrucción de señales basado en la regresión de Mediana Ponderada, en el contexto del
Sensado Comprimido. Se realizaron 1620 reconstrucciones de señales de diferente tamaño, con
diferente tamaño de soporte (K), y variando además, el número de medidas (M) y el parámetro de
regularización (α), que forma parte esencial del algoritmo bajo estudio. Entre los resultados más
importantes obtenidos se encuentra que la eficiencia del algoritmo tiene un comportamiento parabólico
invertido con respecto a α, alcanzando su máximo en α=0.8. Además, se encontró que este algoritmo
tiende a ser sensible a variaciones de α y M, de manera que con ligeros cambios en estos parámetros el
algoritmo puede cambiar radicalmente su velocidad de convergencia. Así, ajustando adecuadamente el
valor de M se logra controlar el comportamiento inestable antes descrito, pues si la relación M/K pasa
de 7 a 9, la probabilidad de que el algoritmo presente un buen desempeño aumenta del 40% al 70%. De
igual manera, si el valor de α cambia de 0.5 a 0.9, la probabilidad de que el algoritmo presente un buen
desempeño aumenta de 0.14 a 0.96.
Palabras clave: Reconstrucción de señales/ Sensado comprimido/ Mediana ponderada/ Regresión de Cox/ Análisis
de supervivencia.
ANALYSIS OF THE EFFICIENCY OF WEIGHTED MEDIAN-
BASED SIGNAL RECONSTRUCTION ALGORITHM THROUGH
COX REGRESSION Abstract: In this paper, the efficiency of the algorithm for compressive sensing (CS) signal reconstruction based on
weighted median regression (WMR) is analyzed through a Cox-regression model. We perform 1620
reconstructions for signals with different dimension (N), sparsity (K), number of measurements (M) and
regularization parameter (α) that induces sparsity in the solution. Among the most relevant results, we find that the
algorithm efficiency, as a function of the regularization parameter, follows an inverted parabolic function reaching
its maximum at α = 0.8. Furthermore, we show that the reconstruction algorithm is quite sensible to α and M. Thus,
a slight change on those parameters leads to a notable variation on the algorithm’s convergence speed. Therefore,
by suitably tunning the number of measurements, we can control the volatile described above. Thus, if the ratio
N/M goes from 7 to 9, the probability of having a good performance increases from 0.4 to 0.7. Furthermore, if α
changes from 0.5 to 0.9 this probability increases from 0.14 to 0.96.
Keywords: Signal Reconstruction/ Compressive Sensing/ Weighted Median/ Cox Regression/ Survival Analysis.
I. INTRODUCCIÓN
En el campo del muestreo/reconstrucción de señales, el
teorema de Shannon-Nyquist establece que no habrá
pérdida de información si la señal original es muestreada
con una frecuencia de al menos el doble del ancho de
banda de la misma [1]. Dependiendo de las características
de la señal original, esta condición puede representar una
seria limitación, especialmente, cuando la señal es de
banda ultra-ancha, demandando el uso de sensores o
dispositivos de adquisición de datos extremadamente
rápidos; o cuando la señal es de alta resolución (p.e. una
fotografía de alta resolución o un video de alta calidad),
requiriendo de espacio de almacenamiento, canal de
comunicación y procesamiento (hardware y suministro de
energía) de gran escala [2][3][7]. Adicionalmente, en el
área de telecomunicaciones siempre ha existido un mar-
cado interés por reducir el tamaño de las señales a trans-
mitir, y con ello, disminuir los costos de transmisión [4].
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 174
En definitiva, es indiscutible el gran beneficio que
representa el disponer de una herramienta que sea capaz
de generar representaciones de señales de baja
dimensionalidad (por debajo de la tasa de Nyquist) con
poca o ninguna pérdida de información; y es esto
precisamente lo que ha servido de punto de partida para la
génesis del método llamado Sensado Comprimido (SC)
[5][6], cuya eficacia no depende del ancho de banda de la
señal bajo análisis sino de la cantidad de información de
la misma [9]. En este sentido, el SC ha surgido como una
técnica vanguardista en el campo del
muestreo/reconstrucción de señales, permitiendo
representar señales mediante un número reducido de
medidas, y a su vez, ofreciendo herramientas capaces de
reconstruir las señales originales con muy poca pérdida de
información. Así, el SC simplifica el proceso de
adquisición a un costo de tener una mayor complejidad en
el proceso de reconstrucción.
Aún así, existe la necesidad de mejorar los resultados de
este novedoso enfoque de adquisición de señales,
apuntando a simplificar su aplicación, y a su vez, hacerlo
cada vez más robusto, ya que entre sus principales
desventajas se encuentra la complejidad y la gran cantidad
de cómputos asociados a sus algoritmos en la fase de
reconstrucción [2][3][4][7][8]. Por esta razón, el presente
artículo pretende generar resultados que permitan a los
investigadores y usuarios de este tipo de métodos conocer
aspectos técnicos relacionados con la eficiencia de los
algoritmos que forman parte del mismo, y así, facilitar su
uso. Específicamente, se realiza un análisis estadístico de
la influencia de las características relativas a la señal a
recuperar/reconstruir y del parámetro de regularización
sobre la eficiencia del algoritmo de reconstrucción de
señales basado en la regresión de mediana ponderada. Se
escoge este algoritmo de reconstrucción en particular
dado que según fue mostrado en [8], es robusto a una gran
variedad de tipos de ruido que pudiera contaminar las
mediciones, además de la facilidad para seleccionar el
parámetro de regularización que define el grado de
densidad de la señal a reconstruir.
La organización del artículo es como sigue. Primero, en
las secciones 2 y 3, se presentan los fundamentos básicos
que forman parte del método SC, el método de
reconstrucción de señales basado en la mediana
ponderada, así como el modelo de regresión de Cox;
luego, en la sección 4 se describen los experimentos
realizados, y en la sección 5 se presentan los resultados
obtenidos. Finalmente, en la sección 6, se presentan las
conclusiones.
II. DESARROLLO
1. Sensado Comprimido
1.1 Muestreo/compresión de señales
Dada una señal real en tiempo discreto, finita y
comprimible, x[n] (n=1,2,…,N), el objetivo del método
SC radica en encontrar una secuencia de medidas, y[m]
(m=1,2,…,M), de manera que sea posible reconstruir la
señal original x[n] a partir de y[m] con ninguna o poca
pérdida de información, siendo M un valor mucho menor
que N (un M muy pequeño implica una alta tasa de
compresión pero con relativa baja probabilidad de
reconstrucción, y viceversa) [8][9]. La condición de que la
señal de interés debe ser discreta en tiempo obedece al
único propósito de simplificar la presentación del método,
sin embargo, el concepto de SC puede ser aplicado a
señales analógicas donde el proceso de proyección ocurre
en el dominio analógico.
Matemáticamente, la secuencia de medidas, y[m], se
obtiene al proyectar el vector x=[x[1],…,x[N]]T en un
nuevo espacio M-dimensional, representado por una base
obtenida aleatoriamente. Esto es:
xy ;
N
MNM
N
1
1
111
;
TMnnn 1 ; (n=1,…,N) (1)
en donde Φ es conocida como la matriz de proyecciones
aleatorias o matriz de medidas, cuyas componentes son
realizaciones de una variable aleatoria tipo Gaussiana o
Bernoulli. Para que la proyección resultante, y[m],
contenga la información relevante que permita reconstruir
a x[n] con una pérdida de información despreciable, ésta
última debe ser una señal poco densa en un dominio Ψ
denominado diccionario de representación y la matriz de
proyección debe ser incoherente con este diccionario [9].
Estrictamente hablando, x[n] debe ser una señal con K
componentes no nulos en el dominio del tiempo o en
cualquier otro dominio creado por funciones
parametrizadas que conformen un diccionario, tal como se
define a continuación:
Señal K-sparse. Sea Ψ=[Ψ1 … ΨN]; Ψn=[ψ1n,…,ψNn]T
(n=1,…,N); una base ortonormal que define los elementos
de un diccionario, y s=[s1,…,sN] un vector de coeficientes
tales que:
N
n
nns
1
sx (2)
Así, x es una señal K-sparse si es posible aproximarla
como una combinación lineal de sólo K vectores de Ψ, es
decir, si K coeficientes sn poseen valores significativos
[10]. Obviamente, sólo son de interés aquellos casos en
donde K es mucho menor que N (K<<N), pues esto
significa que x es poco densa, y por lo tanto, es
comprimible en un vector de medidas, y, de menor
dimensión, justificándose así el uso de esta técnica.
1.2 Selección del diccionario
Es necesario encontrar una matriz Ψ (que es un espacio
N-dimensional) tal que exista una secuencia s con sólo
K elementos no nulos, y cuya proyección sobre Ψ genere
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 175
a la señal x. Si x es K-sparse en el dominio del tiempo no
es necesario proyectarla en un espacio alternativo, y en su
lugar, simplemente se asume s=x, lo cual implica Ψ=I; es
decir, si x es K-sparse en el dominio del tiempo, entonces,
el diccionario se puede tomar como la matriz identidad de
rango N. En este caso, se dice que la señal es poco densa
en el dominio canónico.
En caso de que x no sea poco densa en el dominio
canónico, el vector s no presenta las características
deseadas, de manera que se hace necesario seleccionar un
diccionario diferente, como por ejemplo, un diccionario
conformado por las bases de la transformada de Fourier,
de la transformada del coseno, o de la transformada
wavelet, o incluso de la combinación de estas bases
ortogonales [9]. De esta forma, en alguno de estos
diccionarios la señal x tendrá una representación con sólo
K coeficientes significativos
Otro aspecto a tomar en cuenta en la selección del
diccionario trata sobre su relación con la matriz de
proyecciones. En concreto, la matriz de proyecciones se
debe seleccionar de manera que sea incoherente con el
diccionario donde la señal tiene una representación poco
densa, según se describe a continuación.
1.3 Incoherencia entre el diccionario Ψ y la matriz de
proyecciones Φ
La coherencia entre las matrices Φ y Ψ es una medida que
refleja el grado de correlación que existe entre estas dos
matrices, lo cual incide sobre la probabilidad de
reconstruir la señal original con la menor pérdida de
información posible: a menor coherencia entre Φ y Ψ,
mayor probabilidad de éxito en la reconstrucción se
tendría. Esta medida se define como sigue:
NnMm
nmn
1;1
,max*),( (3)
En la Ec. (3), φm es la m-ésima fila de Φ, ψn es la n-ésima
columna de Ψ y ‹.,.› denota el producto escalar. Mientras
más grande sea la correlación entre estos vectores (en
valor absoluto), mayor será la coherencia entre las
matrices Φ y Ψ [9]. Se ha probado que si los elementos ϕij
siguen una distribución gaussiana o de Bernoulli, la
matriz resultante es incoherente con una gran variedad de
diccionarios, entre ellos los creados a partir de las bases
de Fourier, DCT y wavelet.
1.4 Reconstrucción de la señal original: enfoque
basado en estimaciones obtenidas mediante la
regresión de mediana ponderada
La reconstrucción de una señal consiste en realizar el
proceso inverso al de su compresión, es decir: a partir del
vector de medidas, y, y la matriz de proyecciones, Φ, el
objetivo es obtener la secuencia x original, aquella cuya
compresión condujo precisamente a y [8][9]. Dado que Nx ,
My y M<N, existen múltiples soluciones al
problema inverso, por lo que se plantea la minimización
de la diferencia entre la señal original y la señal
reconstruida en el espacio de las proyecciones, y esto
implica que esta última señal posea el mismo grado de
densidad presente en la señal original, lo cual añade una
considerable dificultad al proceso de reconstrucción.
Matemáticamente, la señal reconstruida se obtiene al
resolver el siguiente problema de optimización [8]:
21
minargˆpp ll
XXyX
x (4)
donde pl
. denota la norma lp, de órdenes p1 y p2, cuyos
valores inciden notablemente sobre el error presente en la
señal reconstruida, así como el grado de densidad (tamaño
del soporte) de la misma. El primer término de (4),
asociado a la norma lp1, tiene el propósito de reducir el
error entre la señal medida y la señal proyectada, por lo
cual, generalmente se establece p1=2 inducido por la
suposición de Gaussianidad asociada al ruido que
contamina las proyecciones. Esto conduce a una
optimización por mínimos cuadrados. También es común
encontrar el uso de p1=1, norma que es óptima bajo el
criterio de máxima verosimilitud cuando el ruido es
Laplaciano. Esta norma conduce a una minimización de
desviación absoluta. Sin embargo, este primer término por
sí solo no resuelve por completo el problema bajo
consideración, ya que además de la necesidad de un error
mínimo (al utilizar p1=1 ó p1=2) existe el requerimiento
de que la señal reconstruida sea poco densa al igual que la
señal original. La probabilidad de que esta última
condición sea satisfecha por una optimización basada sólo
en el primer término (mínimos cuadrados o mínima
desviación absoluta) es sumamente baja; razón por la cual
se incorpora el término asociado a la norma lp2, cuyo rol
en el proceso de optimización se centra en controlar que el
tamaño del soporte de la señal reconstruida no sea mayor
que K. Esto se logra estableciendo p2=0, es decir,
haciendo que el segundo término de (4) se corresponda
con el tamaño de soporte (seudo-norma l0) del vector X,
buscando así, que la optimización genere una señal que no
solo presente un error mínimo sino que también tenga un
tamaño de soporte adecuado. Adicionalmente, se tiene el
parámetro de regularización, τ, cuya función es establecer
un compromiso entre la magnitud del error y el tamaño de
soporte de la señal reconstruida, pues τ=0 equivale a
ignorar el requerimiento relacionado con el tamaño del
soporte, mientras que un τ muy grande generaría una
señal con un tamaño de soporte pequeño, pero con una
diferencia grande con respecto a la señal original, de
manera que es importante ajustar este parámetro
adecuadamente, para así obtener una solución que sea
satisfactoria desde ambos puntos de vista.
La solución del problema de optimización planteado en
(4) se puede obtener a través de múltiples métodos, cada
uno de los cuales se especializa en determinadas
situaciones, dependiendo principalmente del grado de
densidad y de las características de la contaminación de la
señal original [8][9][10].
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 176
En el caso particular de este trabajo, se hace uso de un
método que consiste en un enfoque regresivo basado en
estimaciones obtenidas mediante el operador de Mediana
Ponderada [9]. Este método es de especial interés cuando
la señal original está contaminada con ruido cuya
distribución estadística presenta colas con una densidad
mayor que la de una distribución normal, lo que lo hace
robusto ante la presencia de ruido de naturaleza
impulsiva. Este enfoque consiste en dividir el problema de
optimización N-dimensional (definido en (4)) en N
problemas unidimensionales, de la forma:
00
1
][minargˆln
M
i
ninX
n XXiyxn
; n=1,…,N (5)
cuya solución, nx , se obtiene como la mediana
ponderada de la señal residuo, seguido de un proceso de
umbralización, esto es [8]:
caso otroen 0
ˆ1
ˆ][
ˆ 0
;1
11
lnnln
in
N
njj jij
inn
x-rrsii
MxiyMediana
x (6)
para n=1,…,N.
En donde
N
njjjjn xyr
;1ˆ , Φn es la n-ésima
columna de Φ y pl
. denota la norma lp. Esta expresión se
utiliza iterativamente para estimar los N elementos de la
secuencia original, aunque, dado que en cada
optimización individual se toma en cuenta una sola
variable a la vez, con N iteraciones (una iteración para
cada variable) muy difícilmente se logre alcanzar el
óptimo global N-dimensional. Esto conlleva a la
necesidad de repetir múltiples ciclos de estimación para
alcanzar la solución óptima global, en donde se define
como ciclo al proceso de estimar a cada xi una vez, es
decir, un ciclo corresponde a N iteraciones. Uno de los
criterios más utilizados para detener al algoritmo se basa
en la energía residual normalizada, en donde, el algoritmo
se detiene cuando se cumple que 2
2
2
2/ˆ yxy ; y
como segundo criterio está el número máximo de ciclos,
del cual no se puede prescindir puesto que no existe una
garantía de que el criterio anterior se vaya a satisfacer en
algún momento, ya que Ɛ es fijado en función del grado
de exactitud que se desea obtener en la señal reconstruida
y en función del tiempo de ejecución del algoritmo. Para
finalizar, vale la pena señalar que el umbral τ, que en el
primer ciclo toma el valor τ0, va disminuyendo
progresivamente de un ciclo a otro con el fin de permitir
la incorporación de nuevos elementos no nulos a la
secuencia X. El algoritmo inicia el proceso de cálculo
asumiendo que x[i]=0 (i=1,…,N), y dependiendo de la
importancia de cada elemento se van asignando valores no
nulos a los mismos, y a medida que se disminuye el valor
del umbral, más elementos se van incorporando al soporte
de la secuencia a recuperar. Es por esto que, en el k-ésimo
ciclo, el umbral se define como τk=τ0αk, en donde α es una
constante comprendida en el intervalo (0,1); haciendo que
el umbral vaya reduciéndose gradualmente. El valor de τ0
fue seleccionado siguiendo los criterios establecidos en
[6].
2. Análisis de Supervivencia a través de la Regresión
de Cox
En el análisis de supervivencia, uno de los principales
objetivos consiste en determinar la influencia que poseen
ciertos factores sobre el tiempo que transcurre desde que
se inicia algún proceso en particular hasta que ocurre
cierto evento de interés [10].
Entre los conceptos asociados al análisis de supervivencia,
son de especial interés el tiempo de supervivencia, la
función de supervivencia, la función de riesgo y la
esperanza de vida [12]. En detalle, el tiempo de
supervivencia, T, es una variable aleatoria no negativa que
representa el tiempo que transcurre desde que se comienza
a observar el individuo hasta que ocurre cierto evento de
interés llamado muerte. Mientras no ocurra el evento de
interés, o muerte, se asume que el individuo se encuentra
vivo, o en estado de supervivencia. En general, T es una
variable aleatoria continua con función de densidad de
probabilidad fT(t), y función de densidad acumulada
FT(t)=P(T≤t). La función de supervivencia se define como
S(t)=1-F(t), y representa la probabilidad de que cierto
individuo esté vivo en el instante t. Por otro lado, la
función de riesgo es una medida alternativa para
caracterizar a la supervivencia, y se define como
H(t)=f(t)/S(t), de manera que la función riesgo es
inversamente proporcional a la función de supervivencia,
y por lo tanto, a mayor supervivencia menor riesgo, y
viceversa. Por último, se tiene el concepto de esperanza
de vida, que no es más que la esperanza estadística de T.
Si la presencia de cierto factor aumenta la esperanza de
vida de un individuo, significa que contribuye a
incrementar el tiempo esperado que transcurre hasta que
ocurre el evento muerte, es decir, aumenta la función de
supervivencia, o equivalentemente, disminuye la función
de riesgo [12][13].
Dentro del conjunto de métodos que forman parte del
análisis de supervivencia se encuentra la regresión de
Cox, la cual se basa en un modelo que permite determinar
la influencia que poseen ciertos factores sobre la función
de riesgo, y por ende, sobre el tiempo esperado que
transcurre hasta la ocurrencia del evento muerte en un
contexto dado. Por lo tanto, el modelo de regresión de
Cox es una función cuya variable dependiente es el riesgo
en el que se encuentra un individuo en el instante t, y
cuyas variables independientes son factores que se cree
que pueden influir sobre tal riesgo [13]; específicamente:
pp XXXetHtH
...
02211)()( (7)
en donde, H0(t) es el riesgo en el que se encontraría el
individuo en el instante t si X1=X2=…=Xp=0. Es un riesgo
referencial, que equivale a ignorar el efecto de las
variables independientes. La interpretación de H0(t) es
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 177
irrelevante, ya que no está relacionado con ninguna de las
variables independientes del modelo, que representan el
objetivo del estudio. Por otro lado, el interés se centra en
las variables independientes, cuyo efecto se mide
directamente a través de sus coeficientes βi (i=1,…,p). Si
βi>0, entonces la presencia del i-ésimo factor aumenta el
riesgo, mientras que, si βi˂0, entonces el i-ésimo factor
reduce el riesgo [13].
3. Descripción de los Experimentos
En el contexto de esta investigación se desea analizar la
influencia de los factores S (señal madre), N (tamaño de
la señal), K (soporte de la señal), M (número de
mediciones) y α (parámetro de regularización) sobre el
número de ciclos necesarios hasta que el algoritmo de la
mediana ponderada regresiva alcance la condición de
energía residual normalizada menor a 0.1, es decir:
12
2
2
210/ˆ yxy , haciendo uso de la regresión de
Cox. Para tal fin se realizaron pruebas de reconstrucción
para 12 señales, obtenidas a partir de 3 señales madre, S1,
S2 y S3, generadas aleatoriamente y con una longitud de
1024 cada una. A partir de cada una de estas 3 señales se
generaron 4 señales: desde el componente 1 hasta el
componente N=256*L, para L=1, 2, 3, 4; de manera que
en total se tienen 3 señales de longitud 256, 3 de 512, 3 de
768 y 3 de 1024. Para N=256, se utilizaron valores de K
(en el sentido K-sparse) de 10, 14 y 18; para N=512, se
utilizaron valores de K de 20, 28 y 36; para N=768, se
utilizaron valores de K de 30, 42 y 54; y N=1024, se
utilizaron valores de K de 40, 56 y 72. Además, Para cada
valor de N (de cada una de las señales madre) y K, se
utilizaron 3 valores de M: 7*K, 8*K y 9*K. Por otro lado,
para cada combinación de parámetros descritos
anteriormente, se aplicó el algoritmo de las mediana
ponderada para valores de α comprendidos entre 0.2 y 0.9,
con incrementos de 0.05: α = 0.20, 0.25, …, 0.90. En
resumen, se realizaron 1620 (3S x 4N x 3K x 3M x 15α)
pruebas de reconstrucción, para las cuales se ha registrado
el número de ciclos (denotado por C) para el cual se
alcanzó la condición 12
2
2
210/ˆ yxy .
Adicionalmente, se utilizó la misma matriz de
proyecciones para todas pruebas para garantizar que estas
se realizaran en las mismas condiciones, pues no es
conveniente comparar los resultados de dos pruebas si
estas se han basado en diferentes matrices de proyección.
En cuanto a la aplicación del modelo de regresión de Cox,
se utiliza a la variable C como el tiempo de supervivencia,
y se dice que ocurre el evento muerte si C≤100, y por lo
tanto, a partir de los valores de C se estima el riesgo para
cada caso. Además como variables independientes de este
modelo se toman las variables S, N, K, M y α; con lo cual,
el modelo de regresión a evaluar tendría la siguiente
forma:
54321)()( 0
MKNS
etHtH (8)
Los resultados de este modelo aportarán evidencia
estadística sobre la forma en la que influye cada uno de
los parámetros bajo estudio.
4. Resultados
A continuación se presentan resultados estadísticos tanto
descriptivos como analíticos de acuerdo a lo planteado
anteriormente, haciendo énfasis en los parámetros α y M
puesto que estos valores son establecidos por el
investigador, mientras que los demás valores (S, N y K)
son propios de la señal, y por lo tanto, no forman parte del
proceso de toma de decisiones al momento de aplicar el
algoritmo bajo estudio.
4.1 Análisis descriptivo
De las 1620 reconstrucciones de señal llevadas a cabo, en
552 casos ocurrió el evento de interés (en una prueba
ocurre el evento de interés si C≤100): 22 casos (3.4%)
para α≤0.45 y 530 casos (54.53%) para α≥0.5. Dado que
es necesario contar con resultados en donde exista
diversidad de casos para poder analizar los factores que
influyen sobre el desempeño del algoritmo bajo estudio,
se descartan los registros asociados a α≤0.45, dado que los
mismos no ofrecen tal diversidad, pues en el 96.6% de
estas pruebas no ocurrió el evento de interés, y esto a su
vez conlleva a un primer resultado que indica que no es
recomendable utilizar valores de α inferiores a 0.5, ya que
indiferentemente de los valores de los parámetros
restantes, el algoritmo va a ser ineficiente con muy alta
probabilidad, lo cual concuerda con lo expuesto por los
autores de este método, quienes recomienda utiliza un
0.75≤α≤0.95 [7]. En consecuencia, el análisis que se
realiza en lo sucesivo se basa sólo en las 972
reconstrucciones de señal asociadas a α≥0.5, en donde, en
530 casos ocurrió el evento de interés, distribuidos de la
siguiente manera:
Tabla I. Resultados según el valor de α
α C No. de Casos % Casos
0.50 7 15 13.89
0.55 9 21 19.44
0.60 9.08 39 36.11
0.65 8.92 36 33.33
0.70 8.56 54 50.00
0.75 9.88 78 72.22
0.80 9.86 87 80.56
0.85 10.53 96 88.89
0.90 11.91 104 96.30
Tabla II. Resultados según la relación M/K
M/K C No. de Casos % Casos
7 10.69 128 39.51
8 10.07 177 54.63
9 9.6 225 69.44
En las Tablas I y II, C denota el promedio de ciclos
registrados en las pruebas asociadas al respectivo caso,
pero sólo en donde ocurrió el evento de interés; “No. de
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 178
Casos” se refiere al número de casos en donde ocurrió el
evento de interés, mientras que “% Casos” indica el
porcentaje de casos en los cuales ocurrió el evento de
interés, que a su vez puede ser interpretado como una
estimación de la probabilidad de que ocurra el evento de
interés.
En los 530 casos en los que ocurrió el evento de interés,
los valores de C se mantuvieron dentro del rango [6,16],
con un promedio de 10.02, es decir, que el error
establecido (Ɛ=10-1) o era alcanzado en 6≤C≤16 (en 530
casos) o era alcanzando en C>100 (en los 442 casos
restantes), es decir, ninguna de las 972 corridas duró entre
17 y 100 ciclos. Esta brecha puede ser interpretada como
un indicador de la inestabilidad del algoritmo, o
alternativamente, que la velocidad de convergencia del
algoritmo es altamente no lineal con respecto a las
características de la señal y con respecto al parámetro de
regularización α, de manera que en algunos casos el
algoritmo es muy rápido y en los demás casos es lento, sin
posibilidad de términos medios. Lo antes afirmado puede
significar simultáneamente una ventaja y una desventaja,
ya que si el usuario posee el nivel de conocimiento
adecuado sobre este algoritmo, encontrará en el mismo
una herramienta sumamente eficiente, y viceversa.
Así mismo, en la Tabla I se puede observar que a mayor
valor de α, más tarda el algoritmo para alcanzar el error
establecido (Ɛ=10-1
), aunque logra esta meta con mayor
probabilidad. Por ejemplo, con α=0.5 hicieron falta sólo 7
ciclos en promedio ( C =7), pero apenas en el 13.89% de
los casos ocurrió el evento de interés, mientras con α=0.9
el evento de interés se alcanzó en el 96.30% de los casos.
Lo antes afirmado refleja una fuerte sensibilidad del
desempeño del algoritmo de reconstrucción con respecto a
α. Así, si el parámetro de regularización decae muy
rápidamente, el algoritmo de reconstrucción no puede
seleccionar adecuadamente el soporte de la señal de
interés, induciendo errores de reconstrucción; y por el
contrario, si el parámetro de regularización decae
lentamente, el algoritmo detecta correctamente el soporte
de la señal y estima sus valores apropiadamente a un costo
de requerir un mayor número de ciclos.
Por otro lado, se tiene la relación M/K, que indica cuántas
medidas se utilizan por cada elemento no nulo de la señal
original. En la Tabla II se puede apreciar que mientras
más grande sea el vector de medidas con respecto al grado
de densidad de la señal original, más rápido será el
algoritmo, y además, existe una mayor probabilidad de
ocurrencia del evento de interés, siendo esto último la más
significativo del resultado, ya que si en vez de utilizar 7
medidas se utilizan 9 por cada elemento no nulo de la
señal original, se logra aumentar de 39.51% a 69.44% tal
probabilidad.
4.2 Resultados del modelo de regresión de Cox
En las Tablas III y IV se resumen los resultados
correspondientes a los parámetros del modelo de
regresión de Cox (correspondiente a la ec. 8), en donde se
asume que todas las variables son cuantitativas, excepto S
(indicadora de la señal madre) que es una variable
categórica:
Tabla III. Resultados del modelo de Cox asumiendo a α
como variable cuantitativa.
Var β Wald Sig.
N -.001 10.690 .001
K -.078 34.735 .000
M .011 58.498 .000
α 4.571 168.663 .000
S .003 .998
S(1) .003 .001 .978
S(2) -.003 .001 .977
Var: nombre de la variable; β: valor de su coeficiente en el modelo de Cox (βi); Wald: valor del estadístico de Wald, que es un estadístico de
prueba de la hipótesis nula que establece que la respectiva variable no es
significativa (su coeficiente es nulo). Sig: nivel de significancia del
estadístico de Wald. Si Sig<p, 0≤p≤1, entonces la respectiva variable es
significativa al 100*(1-p)%.
Tabla IV. Prueba del Omnibus (bondad de ajuste).
D = -2 Log (Verosimilitud) Chi-cuadrado GL Sig.
6731.064 254.624 6 .000
D: es un estadístico de prueba de la bondad de ajuste del modelo, cuya
hipótesis nula establece que todos los coeficientes del modelo son nulos, y por lo tanto, el modelo no se ajusta bien a los datos. Este estadístico se
distribuye chi-cuadrado con GL grados de libertad. Sig: nivel de
significancia del estadístico antes mencionado. Si Sig<p, 0≤p≤1, entonces se rechaza la hipótesis nula, y en tal caso, se concluye que el
modelo se ajusta bien a los datos con un nivel de confianza del 100*(1-
p)%.
En primer lugar, la Tabla III indica que, según la prueba
del Omnibus [13], no se rechaza la hipótesis de que el
modelo se ajusta bien a los datos, lo cual indica que el
modelo es válido. Por otro lado, según la Tabla IV, se
puede concluir con un 99.9% de confianza lo siguiente: a
mayor valor de N y K (mientras más grande sea la
secuencia, y mientras mayor sea su soporte), menor
riesgo, o equivalentemente, mayor supervivencia, y por lo
tanto, mayor será el número de ciclos necesarios hasta que
los residuos alcancen el error establecido. Por el contrario,
a mayor valor de M y α en el intervalo [0.5 - 0.9] menor
será el número de ciclos necesarios. En cuanto a las
señales madre, estas no han influido en lo absoluto sobre
los resultados, es decir, los resultados han sido
independientes de las señales madre que se utilizaron.
Entre los resultado antes presentados, causa especial
inquietud el relacionado con el coeficiente α, para el cual
se afirmó que a mayor valor del mismo, mayor será la
velocidad de convergencia del algoritmo, sin embargo,
vale la pena investigar si esta afirmación es absolutamente
cierta, o si este comportamiento simplemente refleja una
tendencia general, pero que analizada en detalle, se
pudiese descubrir algún otro comportamiento un tanto
más complejo, diferente a la influencia monótona
obtenida en los resultados anteriores. Para investigar este
aspecto, se decidió asumir al coeficiente α como una
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 179
variable cualitativa, con el fin de analizar por separado el
efecto de cada uno de sus posibles valores. Al realizar este
cambio, y reestimar los parámetros del modelo de Cox, se
obtuvieron los siguientes resultados:
Tabla V. Resultados del modelo de Cox asumiendo a α como
variable cualitativa.
Var β Wald Sig.
N -.001 10.947 .001
K -.085 40.800 .000
M .012 69.034 .000
α 178.999 .000
α(1) -2,033 53.716 .000
α(2) -1,684 49.000 .000
α(3) -.915 23.381 .000
α(4) -.973 24.956 .000
α(5) -.306 3.269 .071
α(6) .117 .595 .440
α(7) .292 3.926 .048
α(8) .227 2.540 .111
S .009 .996
S(1) .008 .006 .937
S(2) .000 .000 .999
Los significados de las columnas de esta tabla son los mismos que los de la Tabla IV.
En este caso, se tomó α=0.90 como la categoría de
referencia, y se codificaron los valores de 0.50, 0.55, …
0.85 como α(1), α(2), …, α(8). En la Tabla V se puede
observar que a medida que se incrementa a α, el algoritmo
se acelera hasta llegar a α=0.80, α(7), en donde el
algoritmo alcanza su máxima eficiencia, para comenzar a
desmejorar en los siguientes valores de α. El siguiente
gráfico permite visualizar de una forma más adecuada el
efecto de los valores de α sobre la eficiencia del
algoritmo:
Figura 1. α vs. βi
En este gráfico, el eje horizontal representa los diferentes valores de α
evaluados (de 0.50 hasta 0.90), mientras que el eje vertical corresponde a los coeficientes del modelo de Cox asociados a cada valor de α.
En la Figura 1, la curva obtenida demuestra que la
relación entre la eficiencia del algoritmo con respecto a α
no es monótona creciente sino que sigue,
aproximadamente, una parábola invertida que alcanza su
máximo en α=0.80, de manera que entre 0 y 0.8 la
eficiencia del algoritmo mejora a medida que α aumenta,
y a partir de ahí, comienza a desmejorar. Es importante
señalar que estos resultados no contradicen lo presentado
en la Tabla I, ya que en ese caso, C fue calculado
tomando en cuenta sólo las pruebas en donde el algoritmo
convergió (C≤100), a diferencia de los resultados del
modelo de Cox, en donde se consideran todas las pruebas
realizadas.
III. CONCLUSIONES
1. Los resultados obtenidos en esta investigación
permiten llegar a las siguientes conclusiones sobre el
desempeño del algoritmo de reconstrucción de señales
basado en la regresión de mediana ponderada.
2. A pesar de la gran variedad de condiciones, cuando el
algoritmo alcanzó el error establecido (Ɛ=10-1
), lo hizo
recorriendo entre 10 y 16 ciclos, lo cual es
considerado como un buen desempeño, mientras que
en los demás casos se realizaron 100 ciclos sin que
esto ocurriera, de manera que se evidencian dos tipos
de comportamientos sumamente homogéneos y
diferentes entre sí: uno lento y otro rápido; sin la
posibilidad de resultados intermedios.
3. Sin embargo, ajustando adecuadamente los valores de
α y M se puede reducir drásticamente la probabilidad
de que el algoritmo se comporte en forma lenta: con
α=0.5 hicieron falta sólo 7 ciclos en promedio ( C =7),
pero apenas en el 13.89% de los casos el algoritmo
requirió menos de 100 ciclos para converger, mientras
con α=0.9 hicieron falta en promedio 11.91 ciclos,
pero la convergencia se logró en el 96.30% de los
casos. En ningún caso es recomendable utilizar
α≤0.45, pues con estos valores se obtuvo que en el
96.6% de los casos el algoritmo fue ineficiente,
indiferentemente de los valores de los parámetros
restantes.
4. Por otro lado, existe la posibilidad de ajustar el valor
de M con el fin de aumentar la probabilidad de que el
algoritmo se comporte en forma rápida, por ejemplo,
si en vez de utilizar M=7K se utiliza M=9K, se logra
aumentar de 39.51% a 69.44% tal probabilidad. En
este caso, es importante tener presente que es de
interés que M sea lo más pequeño posible, o lo que es
equivalente, que N/M sea lo más grande posible, pues
uno de los objetivos del SC es comprimir las señales,
por lo tanto, es necesario tener cuidado al aumentar el
valor de M.
5. En cuanto al resto de las características de la señal,
según el modelo de regresión de Cox, se obtuvo que a
mayor valor de N y K, menor riesgo (mayor
supervivencia), y por lo tanto, mayor será el número
de ciclos necesarios hasta que los residuos alcancen el
error establecido. Además, con este modelo se
confirmaron los resultados asociados a α y M,
expuestos anteriormente; aunque en el caso de α, se
obtuvo una información adicional que indica que la
relación entre la eficiencia del algoritmo con respecto
a α no es monótona creciente sino que sigue,
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 180
aproximadamente, una parábola invertida que alcanza
su máximo en α=0.80, valor que representa un punto
de equilibrio entre un número de ciclos bajo y la
probabilidad de que el algoritmo no se desempeñe en
forma lenta.
V. REFERENCIAS
1. Mitra, S., Digital Signal Processing, A Computer
Based Approach, 3era Edición, pp. 117-232, McGraw
Hill, 2006.
2. Majumdar, A., y Ward, R., Compressed Sensing of
Color Images. Signal Processing, Elsevier, Vol. 90,
No. 12, pp. 3122-3127, 2010.
3. Han, B., Wu, F., y Wu, D., Image representation by
compressive sensing for visual sensor networks.
Journal of Visual Communication and Image
Representation, Vol. 21, No. 4, pp. 325-333, 2010.
4. Bajwa, W., Sayeed, A., y Nowak, R., Compressed
Sensing of Wireless Channels in Time, Frequency,
and Space. Proc. 42nd Asilomar Conf. Signals,
Systems, and Computers, Pacific Grove, CA, 2008.
5. Donoho, D., Compressed Sensing. IEEE Trans. on
Information Theory, Vol. 52, No. 4, pp. 1289–1306,
2006.
6. Candes, E., Compressive Sampling, Proc. Int. Cong.
Mathematicians, Madrid, Spain, Vol. 3, pp. 1433–
1452, 2006.
7. Paredes, J., Arce, G., y Wang, Z., Ultra-Wideband
Compressed Sensing: Channel Estimation. IEEE
Journal of Selected Topics in Signal Processing, Vol.
1, No. 3, pp 383-395, 2007.
8. Paredes, J., y Arce, G., Compressive Sensing Signal
Reconstruction by Weighted Median Regression
Estimates. IEEE Transactions on Signal Processing,
Vol. 59, No. 6, pp. 2585-2601, 2011.
9. Baraniuk, R., Compressive Sensing. IEEE Signal
Processing Magazine, Vol. 24, pp. 118-124, 2007.
10. Tropp, J., y Gilbert, A., Signal Recovery From
Random Measurements Via Orthogonal Matching
Pursuit. IEEE Transactions on Information Theory,
Vol. 53, No. 12, pp 4655-4666, 2007.
11. Chen, Q., Oppenheim, A., y Wang, D., Encyclopedia
of Data Warehousing and Mining, pp. 1077-1082, Idea
Group Inc., 2006.
12. Berry, M., y Linoff, G., Data Mining Techniques, 2da
Edicion, pp. 383-420, Wiley, 2004.
13. Harrell, F., Regression Modeling Strategies: With
Applications to Linear Models, Logistic Regression,
and Survival Analysis, 1era Edición, pp. 465 – 507,
Springer, 2001.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 181
¿LA GRAVITACIÓN TERRESTRE, UN MISTERIO?
Lange, Kurt Gerhardt Fries, Ronald
(Recibido mayo 2012, Aceptado agosto 2012) [email protected], [email protected]
Resumen: Este trabajo nos da una visión alternativa para explicar la gravedad terrestre. Las leyes existentes están
respectadas y la física no está básicamente cuestionada. Por lo contrario, las leyes existentes están mejoradas y
analizadas en una explicación lógica con fórmulas sencillas, como lo preconcebía Einstein. Estas formulas
representan la base de este trabajo resultando de más de 30 años de investigaciones. La aceleración de la gravedad
es la resultante de fuerzas gravitacionales y levitacionales simultáneas. Es el producto de los tamaños de un cuerpo
en doble rotación, alrededor de su eje de referencia y bajo la influencia de un trío de fuerzas: centrifuga, centrípeta
y aceleración de Coriolis de las cuales los tamaños exactos se derivan de la velocidad real del cuerpo en rotación. El
eje de referencia es siempre el de la órbita, cuya referencia al campo director es conocida.
Palabras clave: Gravitación / Newton / Einstein / Teoría General de la Relatividad / Lorentz / Coriolis / Energía
TERRESTRIAL GRAVITATION, A MISTERY? Abstract: This study gives an alternate vision to explain gravity. Existing laws are respected and basic physics is
not questioned. In contrast, existing laws are completed and analyzed in a logical explanation with simple formulas,
as recommended by Einstein. These formulas are the basis of this work resulting from more than 30 years of
research. The acceleration of gravity is the resultant of simultaneous gravitation and levitation forces. It is the
product of the sizes of a body in two rotations around its reference-axis and under the influence of a trio of forces:
centrifugal, centripetal and Coriolis acceleration of which the exact sizes of the real rate derived from the partial
body rotation. The reference axis is always that of the orbit, the reference to the field director is known.
Keywords: Gravitation / Newton / Einstein / Theory of General Relativity / Lorentz / Coriolis / Energy.
I. INTRODUCCIÓN
Esta pregunta es muy válida en relación de las dos teorías
reconocidas de la gravedad. Es generalmente conocido
que el efecto gravitatorio, y su causa, representa uno de
los mayores enigmas de la Física Teórica en general. En
este sentido, la Física Teórica está buscando un camino
que permite resolver este enigma de manera científica y
matemática. La pregunta es: ¿por dónde empezar a buscar
esta solución?
Se podría empezar con la búsqueda de errores y
contradicciones en las teorías existentes. En general se
acepta que las teorías existentes de la gravitación, como
tal, no pueden describirla ni explicarla. Describen sus
efectos, pero la causa, la esencia, de la gravedad sigue
siendo un misterio.
Las teorías científicas nacen, en parte, por la necesidad de
cubrir huecos que las teorías precedentes no lograban. Es
un hecho que a medida que se hacen nuevos
descubrimientos las teorías van fortaleciéndose, lo hacen
hasta que llegando a un punto, esos mismos
descubrimientos empiezan a resquebrajarlas. Entonces
aparece una teoría superior que integra el conocimiento
anterior y que explica los hechos sin contradicciones
aparentes. Las fallas que tenían las teorías precursoras
desaparecen en la nueva. La nueva teoría es tan poderosa
que servirá durante un tiempo para explicar los nuevos
descubrimientos que todavía no se han producido. Este es
el ánimo de nuestra nueva teoría:
La teoría más moderna de la gravedad es la teoría de la
relatividad general de Einstein. Según la opinión general,
Einstein integra en su teoría la de Newton y se postula que
la gravedad de Newton es “un caso especial” (?) de la
teoría de Einstein.
La física y con ella las matemáticas representan una
ciencia absolutamente exacta. Debido a esto yo también
soy un gran admirador de Karl Popper y sus argumentos a
favor de la lógica de la epistemología científica. En este
sentido surge una ilógica evidente a partir de lo
anteriormente postulado sobre la física teórica. ¡En la
naturaleza hay sólo una gravitación! ¡Diferenciar la
gravedad en dos teorías, una de Newton y otra de Einstein
es, por su naturaleza, físicamente y/o teóricamente
imposible! Las leyes físicas de la naturaleza son las
mismas en todo el Universo!
El siguiente trabajo tiene como meta de aclarar si, hasta la
fecha, estas leyes son todas reconocidas y comprendidas.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 182
Como las teorías no pueden darnos una explicación
lógica, muchos científicos, buscando alternativas, meten
en cuestión todo el conocimiento de la física teórica. Por
lo tanto, creemos que tiene mucho más sentido buscar
inconsistencias lógicas en las teorías existentes y la base
de estas contradicciones para conseguir soluciones
alternativas, siempre en el sentido de Popper.
Ya que la Teoría General de la Relatividad de Einstein
“debe” incluir la teoría Newton nos concentremos en esto.
Sobre todo porque nos parece muy discutible que fue
Einstein que la integrado en su propia teoría…
Esto nos parece muy poco probable por las evidentes
inconsistencias lógicas que resultan de esto.
Particularmente cuestionable para nosotros es que todos
los físicos y matemáticos en el mundo nunca se dieron
cuenta de estas contradicciones.
¿Por qué?
II. DESARROLLO
1. Formula de la energía de Einstein:
En este sentido inicio con la ecuación básica de la energía
del campo gravitacional. Usted la puede conseguir en
cualquier libro de de física y se encuentra en esta forma:
(1)
y kappa escrito como:
(2)
Ambas ecuaciones son comunes y bien conocidas. El
tamaño de kappa (k), a la derecha del signo igual, presenta
contradicciones lógicas, sin embargo difícilmente
reconocibles. Pensando en la mundialmente famosa
declaración de Einstein:
"Nada es absoluto, todo es relativo"
Es muy difícil aceptar que el propio Einstein, en su
ecuación básica, pudo contradecirla de manera tan
grotesca introduciendo valores constantes que van
totalmente en contradicción de su teoría de relatividad.
La única constante existente es la velocidad de la luz, c.
¿Qué pasa con el 8, Pi y G?
El origen no es nuestra interpretación, sino precisamente
la reportada en la literatura.
2. Primera contradicción:
Primero el 8 resulta a partir de la analogía de la ley de la
gravitación de Newton con la ley de la electrostática de
Coulomb. La analogía es evidente cuando se comparan
los dos:
Ley de Newton (3)
Ley de de Coulomb (4)
Simplificando tenemos:
(5) Es igual a: (6)
Ahora es comprensible que en la ecuación con Kappa
aparecen el 8 y Pi.
Debido a esta relación, la física teórica habla de un campo
gravito magnético.
Y así siguen dos contradicciones.
La analogía matemática es evidente en ambas leyes, pero
también ¿lo son en el sentido análogo físico?
En la ley de la gravitación de Newton tenemos la constante
gravitacional (G = 6,67384(80)x10-11
) y en la ley de
Coulomb la constante del campo eléctrico (є0= 8.854187
x10-12
).
Ambos valores son claramente desiguales.
Es matemática y físicamente imposible integrar ambos
valores sin violar de manera masiva las reglas. Y debido a
que todos los físicos y matemáticos saben que es
imposible, ¿se define G con y0?
Se escribe que Einstein no utilizó el valor de y0 (y
seguramente nunca lo habría hecho…). Por supuesto, tanto
él como nadie más lo usa. También es imposible para
nadie, porque no hay ninguna posibilidad para especificar
un valor numérico o tamaño para y0.
Él es puro producto de la imaginación, y si no existe la
posibilidad de integrar en una ecuación valores numéricos,
nunca llegaremos a un resultado solucionándola.
3. Segunda contradicción:
Esta contradicción se deduce de la lingüística: gravito
magnético. Suponiendo que es en realidad un campo
gravito magnético, sigue la pregunta de ¿por qué no está
aquí la constante del campo magnético (μ0 =
12,56637x10-7
N/A2) sino la de la electricidad?
La respuesta está en la analogía ya mencionada, debido a
que la interacción resulta entre dos cargas opuestas, una
positiva y la otra negativa. De manera similar Newton
postula una interacción entre las masas m y M (planetas).
¿La realidad esta de tal forma?
Entonces, de acuerdo con la ley de Coulomb, las masas
que interactúan también deben tener cargas opuestas. Sólo
hay dos cargas diferentes (positiva y negativa), pero un
gran número de planetas y ¿tendrían que tener un 50% de
carga positiva o negativa?
Si esto fuera así, la vida no existiría en la forma real del
Universo. Las cargas opuestas se aniquilarían entre sí y el
Universo, con la suma de todas sus energías, ¡sería sólo
radiación!
kTgR
R 2
T
c
Gg
RR
4
8
2
2r
mMGg
2
21
04
1
r
QQE
04
1
F
04
1
yG
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 183
¡Exactamente este es uno de los hallazgos de la física en
absoluto!
No hay ninguna oportunidad de describir el campo
gravitatorio como campo gravito magnético.
El hecho es que la Tierra tiene un campo magnético. Este
campo magnético proviene del viento solar y se puede
deformar, más o menos, dependiendo de su tamaño.
Por lo contrario, el campo gravitacional no puede ser
deformado.
Son claramente dos campos separados que se
sobreponen entre sí y deben considerarse y
representarse de manera separada.
Esto es fácilmente comprensible y demostrable cuando se
comparan las líneas de un campo magnético con las de un
campo gravitatorio. Un campo magnético, como se sabe,
se extiende del polo positivo al polo negativo. El polo
norte de la Tierra es el polo positivo, ya que la Tierra gira
de oeste a este, y la dirección de rotación se ve desde el
Polo Norte a la izquierda, es decir positiva. Visto desde el
polo sur, la dirección es negativa. De esta manera las
líneas corren, ligeramente desplazadas, desde el Polo
Norte al Polo Sur.
Figura 1. Campo dipolar
Las líneas de campo de un campo gravitatorio se definen
por la aceleración real y efectiva de la gravedad, por lo
tanto, en cada punto de la superficie de la Tierra en 89,9 °,
sólo casi perpendicular a ella.
Figura 2. Campo gravitatorio
En la vista no se reflejan únicamente el orden simétrico de
las líneas del campo norte y sur con su curvatura radial,
sino también y con precisión el tamaño espacial de un
campo gravitatorio, como Einstein lo señaló, en su Teoría
General de la Relatividad, que es limitado.
Nota: En la vista presentada no hay relación ninguna con
el tamaño real del campo gravitatorio (dibujo de
principio).
Esto afecta ahora a la parte izquierda de su ecuación de la
energía. Además de la curvatura radial, el campo
gravitatorio tiene una torsión (axial) dependiente de la
velocidad de rotación. Su valor numérico es definido por
el tensor energía-impulso (Tμυ) a la derecha del signo
igual.
4. Einstein y la descripción geométrica del campo
gravitatorio:
Einstein empieza la descripción geométrica del campo
gravitacional con bases ciertas (axiomáticas). Para
describir esto, la geometría euclidiana no es suficiente. A
la izquierda del signo igual de su ecuación de la energía
son el tensor de Ricci (Ruv) y el tensor métrico (guv
función de distancia). Juntos forman el llamado tensor de
Einstein. Es generalmente conocido que la representación
matemática de estos tensores es sólo posible sobre la base
de la geometría esférica (exceso esférico). Igualmente se
sabe que pi no es aplicable y no se utiliza en la geometría
esférica porque conduce a resultados incorrectos. David
Hilbert - uno de los mejores matemáticos del mundo de su
tiempo (!) - estaba al lado de Einstein y participo
activamente en el desarrollo de las ecuaciones de la TGR.
Ellos sabían muy bien, al igual que todos los físicos y
matemáticos actualmente, que pi no es aplicable en el
exceso esférico. ¿Sin embargo, Einstein introduce el
número pi como una constante absoluta en su propia
teoría? ¿Quién puede explicar correctamente como los dos
podrían cometer un error tan flagrante?
Personalmente, no puedo aceptar tal cosa.
Esto lleva a la pregunta de: ¿cómo es posible que durante
casi 100 años lo consideramos correcto, lo aprendemos y
lo enseñamos? ¿Lo escribió Einstein esto realmente así?
Las ecuaciones en el guión original, escritas manualmente
por Einstein, eran altamente no linearizadas y se
linearizaron y retardizaron ulteriormente.
¿Por qué?
Incluso ecuaciones no linearizadas se resuelven! ¿Por qué
razón las ecuaciones originales se modificaron?
Respuesta: Porque en la ecuación original de la energía
del campo gravitatorio de Einstein, el no escribió Kappa
como supuesta “constante de Einstein”, sino más bien el
tamaño de X (Ji). La ecuación original de Einstein era la
siguiente:
Rca - ½ Rgca = -XTca (7)
La diferencia fundamental radica en la sustitución de la
variable X (Ji) en el original con el tamaño K (kappa) en la
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 184
forma actual de la ecuación. El problema, en la época y
ahora, reside que en el Universo no hay y no puede haber
constante, ¡a excepción de la velocidad de la luz c!
¡Por esta razón el no incluimos la también conocida
constante gravitacional G (!) en su formula!
El tamaño del X (Ji) en la ecuación de la energía original
de Einstein es la constante de gravitación relativista!
Ciertamente, no es fácil de entender los procesos de
pensamiento de Einstein y una cantidad física que es a la
vez “relativamente constante”. Probablemente, muchos
críticos internacionales dudaron de su cordura. Sospecho
que tanto Paul Drude como editor de los “Die Annalen der
Physik”, y Max Planck como editor de la primera
publicación del guión original de Einstein, tenían las
mismas dudas que llevaron a la retirada y sustitución de Ji
X con kappa. ¡Felizmente, Einstein demostró en este
sentido, tanto a sus dos compañeros como a sus otros
críticos, ser científicamente superior a todos ellos! La
constante gravitacional relativista es para cada sistema
inercial (planeta) una constante y al mismo tiempo tan
relativa como los planetas, en sus parámetros físicos, son
diferentes. Es decir, cada planeta tiene su propia constante
de la gravitación y se conoce como el valor CODATA
(véase más arriba) es una constante absoluta aquí en la
Tierra, ¡pero solamente aquí! Exactamente lo que se
muestra en la ecuación original de Einstein y Planck con
Drude lo reconocieron al instante. El tamaño de Ji sigue
de:
-X = 8 P g / c4
(8)
Aparece una sola constante que se encuentra en el
Universo: c. El numerador de la fracción tiene 3 variables
(relativas). Einstein quería demostrar el ejemplo con
referencia a la Tierra y por lo tanto 8 no es tan sólo un pre
factor algébrico derivado de la analogía anterior. Este 8 es
un tamaño relativo y resulta con exactitud de las
conocidas variables reales de movimiento de la Tierra que
son:
149,6 millones de km = radio de la órbita de la Tierra
alrededor del Sol.
6378,139 km = radio ecuatorial de la Tierra
0,000072925 rad/s = velocidad angular de la Tierra
(rotación natural)
0,000000199 rad/s = velocidad angular de la rotación
orbital alrededor del Sol
Y sigue la ecuación muy sencilla:
0003,8000000199,0/000072925,0
137,6378/149600000 (9)
Sustituyendo en esta ecuación, los datos de movimiento
de cualquier otro planeta se obtiene por supuesto un valor
muy diferente de pre-factor y por lo tanto el tamaño es tan
relativo como todo lo demás. El símbolo P (rho) define la
densidad de energía y el contenido de energía (cinética)
del campo gravitatorio y g es la aceleración de la
gravedad (diferente para cada planeta). Debido a que
todas estas variables son relativas y no hay ninguna
constante, Einstein llamo esta teoría: la teoría de la
relatividad y no ¡la teoría de las constantes!
Por supuesto, primero se debe calcular el valor numérico
específico antes de integrarlo en la formula. Por lo tanto,
la ecuación básica se basa en 10 ecuaciones acopladas,
con la que estos valores se calculan. Estas ecuaciones
existen en forma linearizadas y retardizadas, esto es
también conocido. Hasta la fecha, no existe un físico o un
matemático en el mundo que haya tenido éxito para
resolver numéricamente estas ecuaciones obteniendo
resultados con cifras verificables. Eso no será posible en
el futuro porque con X (Ji) surgen otras ecuaciones.
5. Constante gravitacional:
Considerando ahora las consecuencias de la visión de
Einstein - la relatividad de la constante gravitacional -
para toda la física, cada persona normalmente inteligente
podría entender el terror de Drude y Planck cuando
entendieron lo que representaba X. Si hay evidencia de
que la constante de gravitación no es constante, colapsan
todas las teorías existentes, es también válido para hoy
como para la época de Einstein. La constante
gravitacional G es una cantidad fundamental en todo
el modelo de pensamiento de la física teórica. No hay
en la cosmología, casi ningún proceso, o parte de proceso,
que puede representarse sin esta constante y sin embargo
el la gravedad, como tal, ¿sigue siendo, un misterio?
¿Eso quiere decir que tenemos que desmentir las teorías
de Einstein y asumir que son en realidad una tontería,
como muchos críticos pretenden a nivel internacional?
¡No, este no es el caso!
Es cierto que las modificaciones, a su sentido original,
surgen probablemente debido a un conflicto de intereses.
Por ahora, si dejamos de un lado la constante kappa y
utilizamos X como en el original de Einstein, obtenemos
un sistema completamente diferente de ecuaciones que no
tiene nada que ver con lo conocido, ni siquiera
remotamente. Sin embargo, este sistema de ecuaciones
proporciona cifras claras al 100% con resultados
numéricos precisos.
Esta es, otra vez, para confirmar que todas las
declaraciones de Einstein están correctas. Lo mismo se
aplica a la constante fundamental de la gravedad, cuya
relatividad puede ser demostrada de manera matemática.
Este valor es conocido hasta hoy como un valor de
medición y nadie puede calcularlo en absoluto. Tomando
las declaraciones de Einstein, esto nos da la posibilidad de
desarrollar formulas muy sencillas que nos conducen,
entre otras cosas, a soluciones para calcular la constante
de gravitación:
(10)
11
2
1067415391,6999815129,0
789515119,9
19410
G
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 185
Más abajo tenemos el factor de corrección para la
ubicación de Zúrich (Suiza), donde hay el experimento de
última generación y de alta precisión para la medición de
G. Este factor de corrección se refiere a la latitud del
lugar. Para cada conjunto de valores, hay una prueba
matemática precisa. La unidad de la constante
gravitacional se omitió deliberadamente, porque
objetivamente no se conoce. Las justificaciones o
derivaciones de la misma son muy diversas, y necesitan la
comprensión de los fundamentos para entenderlas. La
explicación de los detalles se podría publicar en un
artículo separado hacer por razones de espacio. Lo
importante es, sin duda, apoyar la declaración de Einstein
que afirma que las leyes de la física son las mismas en
todos los sistemas inerciales. ¡Iguales son también todas
las ecuaciones inerciales! El 19’410 m/s de la velocidad
orbital solar vale para todos los planetas. Si insertamos los
tamaños específicos de cada planeta en las ecuaciones,
obtendremos en cada uno la constante gravitacional
ecuatorial.
6. Fórmula alternativa para calcular la gravitación
terrestre:
(11)
La segundo raíz de la relación de la fracción es el valor
numérico de la constante de gravitación en el ecuador y en
el nivel del mar (NN). El valor de 19’410 m/s es la
velocidad orbital del Sol y de su sistema planetario
medido por la astronomía por medio de la distancia
definida hasta las estrellas fijas. 9,789’515’119 m/s2 es la
gravedad exacta de la Tierra en el ecuador al nivel del mar
(NN) que no es se puede calcular con tanta precisión con
la teoría de Newton.
Constante calculada según esta descripción:
Tabla I. Constante de gravitación
Planeta Aceleración de la gravedad Constante
Mercurio 3,7 m/s ² 8,510571820 10-15
Venus 8,87 m/s ² 6,839517717 10-14
Tierra 9,7895215119 m/s ² 6,672921527 10-11
Marte 3,71 m/s ² 8,504776526 10-12
Júpiter 23,12 m/s ² 5,382814658 10-12.
Saturno 8,96 m/s ² 6,822277513 10-13
Cada lector notara que sólo la Tierra tiene la mayor
constante de gravitación, a pesar de que no es ni el más
grande ni el más pequeño de los planetas del sistema
solar. Hay otra vez una excelente explicación matemática.
La Tierra es el único planeta del sistema solar cuya órbita
en relación con los datos relativos a la magnitud de su
campo gravitacional dan como resultado 1:
(12)
Para explicar los detalles debemos, otra vez por razones
de espacio, referirnos a futuros artículos. Es importante
demostrar que se confirma, una vez más, la evidencia de
Einstein del tamaño espacialmente limitado de un campo
gravitatorio.
Como uno de los primeros y más citados ejemplos para la
confirmación de la exactitud de su teoría de la relatividad
general, es la ecuación de Einstein para probar los 43
segundos de arco incomprendidos de la rotación
perihelica de Mercurio.
(13)
Lo que significan los símbolos individuales es conocido y
no necesita ninguna explicación adicional. La ecuación da
el ángulo de rotación, y sólo por la multiplicación de los
radianes y los resultados de 3’600 se obtienen los 43
segundos de arco.
Matemáticamente, esta ecuación debe ser considerada
como correcta. La pregunta es si esto se aplica también a
la interpretación correcta de la causa física de la rotación
del perihelio.
¡Es evidente que Einstein inserta aquí, en el numerador de
la fracción, Pi y G que son dos constantes presuntamente
absolutas, que en realidad no son constantes! Sin
embargo, no está describiendo las propiedades de un
campo gravitatorio, sino la resultante de la interacción
entre los campos gravitacionales.
Aunque el pensamiento de Einstein es correcto, contiene
un error lógico de análisis fácilmente explicable. Einstein
señala de forma absolutamente correcta, que las leyes de
la física son las mismas en todos los sistemas inerciales,
¡entonces esta ecuación debe ser aplicable a todos los
otros planetas!. Exactamente esto es imposible y los
resultados lo demuestran.
Cualquiera que conozca la literatura sabe que el cálculo
del perihelio de los planetas se diferencia en las teorías de
Einstein de las de Newton. Ambos métodos de cálculo
dan resultados diferentes y por lo tanto no son exactos.
Tenemos una sola naturaleza, un Universo, una gravedad,
y por lo tanto cada planeta tiene su propia rotación
perihelica. ¡No hay ninguna rotación del perihelio que se
adapta a las teorías de Newton o de Einstein! Ella resulta
de la geometría real y del movimiento, si esto no es
exactamente conocido o comprendido, se producirán
errores en las representaciones matemáticas.
El error en la explicación de la geometría de movimiento
de los planetas se radica en el hecho de que el perihelio
del planeta no es lo único: la rotación total de los planetas
2
75
2
75.
/789515119,9
)99,1/2925,7/(3600
6378137/5680525,4671
99,1/2925,7
3600
sm
g res
000002053,173904,478
74003,478
651,50825,7cos4
141592,345,23cos
91097,29651,508
aa
221
6
ceaP
MG
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 186
0,42896"2
2056,0
14937793,4180
579090002439
2439243365,187,47 6
Periastro
está compuesta por el perihelio y el periastro, los dos se
superponen. Con Mercurio y el Sol, el centro de gravedad
común - el periastro – se sitúa dentro del Sol y sólo a unos
pocos kilómetros de su centro geométrico. Por lo tanto
hay conexión directa con la excentricidad, que no tenemos
con la rotación del perihelio. La ecuación antes citada de
Einstein describe con exactitud la rotación del perihelio.
Sólo porque el periastro es tan cerca del centro
geométrico del Sol, visualmente las dos rotaciones
parecen una misma cosa. Debido a que no lo tomamos en
cuenta, no diferenciamos rotaciones del perihelio y del
periastro, obtenemos resultados matemáticos imposibles.
Figura 3. Rotación del periastro
Figura 4. Rotación correcta del perihelio
En consecuencia, la tarea es de desarrollar ecuaciones que
toman en cuenta estas diferencias y que se basa en las
declaraciones originales de Einstein. Esto es posible. Una
constante gravitatoria o la masa de los valores numéricos
no son necesarias para esto porque no están relacionados
con la geometría del movimiento.
Rotación anual del periastro de la Tierra
Perihelio anual de la Tierra
(14)
Sumando estos dos resultados se obtiene 5.7469965
segundos de arco por año de la Tierra y los 574,7
segundos de arco por siglo, como se puede leer en la
literatura. Ellos se obtienen exclusiva y precisamente de
las variables de reales movimientos que se miden por la
astronomía. Ninguno de los números usados es ficticio o
calculado. Todos los números, pueden leerse en los
buenos atlas de astronomía. Y estos son sólo los
resultados de Mercurio. Uno puede fácilmente aplicar
estas ecuaciones a todos los otros planetas del sistema
solar.
Lo hicimos y aquí pueden ver los resultados en la
siguiente Tabla:
Tabla II. Aplicación de las ecuaciones a todos los otros planetas del sistema solar.
1 2 3 4 5 6 7
Radio orbital
Mio. Km
Revolución
anual
Periastro
rotaciones
Perihelio
rotaciones
Días
rev. sideral
Precesión
geodésica
Suma
Periastro +
Perihelio
Mercurio 57,909 4,14937793 0,42896065 5,318 88,025 3,499 5,74696
Venus 108,160 1,6254976 0,22238278 7,248 224,701 3,489 7,47038
Tierra 149,600 1 4,02313275 8,516 365,252 3,489 12,53913
Mars 227,990 0,53167836 4,94036725 10,516 686,980 3,490 15,45637
Júpiter 778,360 0,084317 14,2449612 19,428 4331,890 3,491 33,67296
Saturno 1433,400 0,0339478 18,7849536 26,374 10759,240 3,514 45,15895
Uranus 2872,400 0,0119032 20,7553356 37,319 30685,220 3,493 58,07434
Neptuno 4495,000 0,00606833 26,8305055 46,639 60189,943 3,487 73,46951
"3180365,53600
992546151,0
6,353.796.363
Rotacion del periastro
(13)
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 187
El resultado es exactamente lo contrario! Tanto la rotación
del periastro como la del perihelio, al aumentar la
distancia con el Sol se ponen siempre más grandes. Esto
no puede ser de otra manera, en la parte externa los
períodos orbitales se ponen siempre más largos con
velocidad constante del Sol. Ahora tenemos que poner
especialmente atención en la columna 6. La precesión
geodésica de todos los planetas está dada por:
( / T) r (15)
es el perihelio (columna 4), T es el período sideral
(columna 5) y r es el radio orbital (columna 1). Todos
estos valores están generalmente disponibles en los atlas
de astronomía. Ahora comparamos los valores de la
precesión geodésica (columna 6) con la tercera Ley de
Kepler. La analogía con su declaración es flagrante y sería
posible añadir una cuarta ley a las tres leyes de Kepler. La
evidencia de que las ecuaciones son correctas se
proporciona con ella.
En consecuencia, los resultados sobre la base de la
precesión geodésica del planeta son ahora claramente
detectables como base para el cálculo de los cambios
relativos de la cifra Pi.
Cada planeta tiene, debido a sus propios movimientos
espaciales, su propio valor de Pi.
El resultado del mayor o menor grado de curvatura
dependiendo de la aceleración gravitatoria del planeta, las
líneas del campo gravitatorio (Einstein habla de la
curvatura del espacio) tienen una forma (curva) diferente.
De acuerdo con esta curvatura Pi también no puede ser
constante. Esta cifra será siempre mayor que 3.141592 en
presencia de campos gravitatorios con signo positivo, y
menor con campos gravitacionales de signo negativo. La
prueba de la veracidad del argumento puede ser
proporcionada por simple verificación matemática:
(16)
Se está dando a partir de su precesión geodésica de nuevo
con la velocidad espacial del Sol. La precesión geodésica
de la Tierra es 3,489° en órbita alrededor del Sol,
3,158064 su cifra especial de PI y la famosa “constante”
matemática pi representa el plano ecuatorial del Sol (no
curvado).
La desviación mínima del valor real medido es debido al
redondeo del radio (media) orbital. El cálculo se basa en
los datos de la astronomía, y aquí es indicado el radio
orbital de 149,6 millones de kilómetros. Ahora podemos
discutir si este radio tiene 100 kilómetros más o menos,
pero esto no tiene una importancia fundamental. El radio
orbital en un movimiento constante, nunca puede ser tan
constante, de todos modos.
De ello se desprende, sin embargo, la importante cuestión
de cómo calcular correctamente la variación relativa de la
cifra Pi. También por razones de espacio no se puede dar
aquí una explicación detallada. Sólo queda la posibilidad
de posteriores artículos…
En un resumen como este es posible publicar la ecuación
correspondiente a la Tierra para Pi, con cifras claras:
(17)
Y con cifras claras:
(18)
La adición o sustracción del valor constante de la cifra Pi
se debe a la seña del campo gravitatorio local que puede
ser positivo o negativo. Cg es el valor numérico de la
curvatura radial de las líneas de campo de un campo
gravitatorio. Delta Phi (Δφ) es la precesión geodésica (ver
arriba) y rd el radián de 180/3,141592.
Sobre la base de estos “fragmentos” de explicaciones
dadas en el presente texto, seguramente que muchas
personas no van a entender la totalidad de las
explicaciones.
Los valores numéricos que nos dan resultados de la más
alta precisión surgen de números de radiantes relativos
calculados con las cifras relativas (específicas) de Pi. Por
lo tanto, no es posible comprender adecuadamente sobre
la base de fragmentos de todo un sistema o tirar
conclusiones científicas (evaluar).
Sólo puede ser entendido en su contexto y,
lamentablemente, es al menos tan difícil como entender la
teoría de Einstein…
Cabe señalar un aspecto importante en relación con la
aplicación del exceso esférico. Las representaciones de la
física teórica se basan en el hecho de que una imagen de
un triángulo proyectada en la superficie esférica, siempre
tiene una suma de los ángulos mayores que 180°. De
nuevo, esto sólo se aplica a campos gravitatorios con
signo positivo.
¡Para signo negativo, la suma de los ángulos debe ser
inferior a 180°!
Esta representación se explica a menudo por el llamado
puntero fijo, que se extiende desde el polo al ecuador, y
luego una línea sobre el ecuador y, finalmente, se mueve
de nuevo hacia al polo. La trayectoria del puntero
definiendo dicho triángulo. Sobre la base de una esfera
con las dimensiones de la Tierra se puede calcular con
exactitud, por medio de la curvatura radial, y con la cifra
relativa Pi , la suma de los ángulos:
Figura 5.
rd
Cg
141592,3
3,489⋅√(3,158064⋅ cos7,25)⋅3,141592= 19 ,40073 km/s
π= 3,141592+( 3,291942415
3,488⋅57 ,29579)= 3,158064254
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 188
(19)
Los significados:
56,99694496 es el radiante de la circunferencia a partir del
número especial (pi) de la Tierra
180/3,158064 = 56,99694496
3,291942415 es el grado de curvatura radial de Cg que se
calcula a partir de los momentos de movimientos reales.
En principio, esta representación no es falsa, pero tiene un
defecto fundamental: la suma calculada de los ángulos es
correcta ¡sólo si la bola no se mueve!
Por lo tanto, no se logra cualquier representación de
campos gravitacionales sobre la base de la geometría
esférica. Los campos gravitacionales reales, en la
naturaleza, están relacionados con cuerpos que se
mueven de forma permanente. La geometría de una
pelota inmóvil, no puede permitir eso. Importante no es
únicamente el camino recorrido por el puntero, sino
también su dirección y velocidad. ¡Este resultado (esfera
en rotación) devuelve otros resultados, otras formas de
áreas y otros ángulos para la suma del triángulo!
Figura 6.
Determinante no sólo la rapidez del puntero, sino también
si se mueve a lo largo del ecuador en sentido opuesto o
con la rotación del planeta. Esto resulta, en ambos casos,
con triángulos completamente diferentes. Así, por la
ecuación anterior un factor de corrección es indispensable
para este hecho:
(20)
Este factor de corrección, según la dirección del
movimiento, nunca puede ser igual o mayor que 1. Esta
es una de las principales razones porque las ecuaciones
de la TGR, en la forma actual, no pueden ser resueltas.
Einstein fue también muy consciente de este hecho.
Porque si el puntero se mueve en una esfera en
movimiento, resultan dos caminos simultáneos. La
velocidad, para cada uno de los dos, resultada de la
distancia/tiempo es decir 2x (ds/dt) al mismo tiempo! Pero
el tiempo es lo mismo para los dos movimientos.
Entonces la pregunta es:
¿Cuál es la resultante de las dos velocidades?
¡En este punto, Einstein era consciente del conflicto, que
era obligatoriamente tanto en su definición del espacio-
tiempo como en la relatividad de la simultaneidad!
Él no hizo caso omiso, pero lo señaló muy claramente y
escribió:
"Las complejas ecuaciones del campo gravitatorio sólo
pueden ser resueltas cuando se encontrara una
condición matemática simple para estas ecuaciones,
dando una solución integral o parcial al problema".
Hasta hoy, ningún matemático o científico en el mundo
logro responder a esta condición.
Esta es una de las principales razones porque la
gravitación, como tal, sigue siendo un misterio.
III. CONCLUSIONES
Así que permítanme formular esta condición:
1. Las propiedades de un campo gravitatorio resultan
de la geometría especial del movimiento del cuerpo
giratorio y de su velocidad.
2. Las velocidades simultáneas angulares del cuerpo
sobre su propio eje de rotación (Tierra) y el eje
principal del centro de gravedad de todo el sistema
(Sol) determinan todos los tamaños y propiedades de
los campos de fuerza.
3. Puesto que la velocidad angular de la rotación
circulante se refiere al centro del sistema global, se
da y define de una vez la interacción con el campo
guía superpuesto.
4. Basado en esta condición y en conjunción con Ji
(véase más arriba) se traduce en un sistema
completamente diferente de ecuaciones. Debido a
esto, el sistema alternativo de ecuaciones
∑ Angulo180
cosα(56 ,99694496
3,291942415)=
180
0,9546877= 188 ,543332 °
r
v
Cg
rdAngulo
1
cos
180
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 189
desarrolladas basa únicamente en los parámetros de
movimiento reales geométricos y sus velocidades
angulares simultáneas.
5. Además, no hay en absoluto constantes, excepto c, y
los valores numéricos de la masa m (planetaria) o la
constante gravitatoria G no son la base de los
cálculos.
6. Por lo tanto, la solución numérica de la ecuación de
la energía de Einstein del campo gravitatorio es
posible y demostrable.
IV. REFERENCIAS
1. Kurt Gerhardt “Klimakatastrophe?Gibt es eine
Lösung?” Verlag Pro Business. Berlin 2008 ISBN
978-3-86805-277-0
2. Albert Einstein “Annalen der Physik” N°4. Vierte
Folge – Band 55 – 1918 .“Prinzipielles zur
allgemeinen Relativitätstheorie”
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 190
NIS: UNA HERRAMIENTA COMPUTACIONAL PARA LA
IDENTIFICACIÓN DE SISTEMAS DINÁMICOS EN LAZO
CERRADO EMPLEANDO REDES NEURONALES
ARTIFICIALES
Zambrano Alejandro1, Collazo Víctor
2, Troncone Numan
2, Rodríguez Jesús
2
(Recibido febrero 2011, Aceptado junio 2012) 1 Sidor
2 CORPOELEC
[email protected], [email protected]
Resumen: El presente trabajo muestra el diseño e implementación de una herramienta computacional para
identificación de sistemas dinámicos mediante aplicación de la tecnología de las Redes Neuronales Artificiales. El
Neuro-Identificador de Sistemas (NIS), presenta dos componentes principales: un hardware de estímulo y
adquisición de señales, y una interfaz humano-máquina, que ha sido desarrollada bajo arquitectura PC empleando la
herramienta MATLAB®. El NIS permite obtener un modelo aproximado que se ajusta a la dinámica de la planta
real, que posteriormente puede ser evaluado en lazo abierto. El NIS genera automáticamente funciones de
transferencia de Primer Orden Más Tiempo Muerto (P.O.M.T.M.), y funciones de transferencia de segundo orden si
la respuesta del sistema es sub-amortiguada. El sistema ha sido aplicado en la identificación de modelos bajo
entorno de simulación y de circuitos eléctricos de primer y segundo orden. Los modelos obtenidos satisfacen las
hipótesis, obteniéndose un factor de correlación cuadrática multivariable de 0.9670 en la estimación de un sistema
de primer orden.
Palabras clave: Identificación de Sistemas Dinámicos/ Redes Neuronales Artificiales/ Interfaz Hombre-Máquina.
NIS: A COMPUTER TOOL FOR CLOSED-LOOP DYNAMICAL
SYSTEM IDENTIFICATION THROUGH ARTIFICIAL NEURAL
NETWORKS Abstract: This paper shows the design and implementation of a computational tool for dynamical system
identification by applying the technology of Artificial Neural Networks. The Systems Neuro-Identifier (NIS), has
two main components: a stimulation and data acquisition hardware, and a human-machine interface. The NIS
automatically generates first order transfer functions plus dead time (F.O.P.D.T.) and second order transfer
functions if the system response is sub-damped. The tool has been applied in the identification of models under
simulation environment and electrical circuits of first and second order. The models obtained matched the
hypotheses regarding the dynamics of the plants identified, obtaining a cuadratic multivariable correlation factor of
0.9670 in the first order identified systems.
Keywords: Dynamical System Identification/ Artificial Neural Networks/ Human-Machine Interface.
I. INTRODUCCIÓN Y ANTECEDENTES
Las redes neuronales artificiales constituyen una
excelente herramienta para el aprendizaje de relaciones
complejas a partir de un conjunto de ejemplos. Gracias a
esto se ha generado un gran interés en la utilización de
redes neuronales en la identificación de sistemas
dinámicos con no linealidades desconocidas. Además,
debido a sus capacidades de aproximación, así como a sus
inherentes características de adaptabilidad, las redes
neuronales artificiales presentan una importante
alternativa en el modelado de sistemas dinámicos no
lineales [1]. El objetivo principal del presente trabajo es
mostrar el diseño e implementación de una herramienta
computacional denominada Neuro-Identificador de
Sistemas (NIS), que permita estimar la función de
transferencia ó identificación, mediante aplicación de la
tecnología de redes neuronales artificiales, de sistemas
lineales invariantes en el tiempo (LTI) y sistemas con no
linealidades desconocidas, de una sola entrada y una sola
salida (SISO) que se encuentren en un lazo de control
realimentado.
La motivación del proyecto es la implementación de un
software y su conexión a una interfaz de hardware para la
adquisición de señales del sistema dinámico a ser
identificado, que permita la obtención de modelos
matemáticos de sistemas electro-mecánicos que ayuden
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 191
en la detección de desajustes y permitan la compensación
de controladores de posición de paletas directrices en el
esquema de gobernación de velocidad en máquinas
hidrogeneradoras de centrales hidroeléctricas. En este
caso, mantener la producción de energía eléctrica es
fundamental, por lo que no se pueden desconectar éste
tipo de controladores y aplicar técnicas tradicionales de
modelado, como la identificación empírica realizando
pruebas en el sistema en lazo abierto y ajustando los
parámetros de la respuesta temporal a una función de
transferencia [2]. El desgaste mecánico en éste tipo de
máquinas ocasiona cambios importantes en la función de
transferencia que, en algunos casos, pueden ser no
linealidades que afectan el desempeño de los
compensadores PI y PID presentes en el esquema de
regulación.
Desde el punto de vista de la teoría de control, según [3],
un sistema dinámico o proceso está formado por un
conjunto de elementos relacionados entre sí que ofrecen
señales de salida en función de señales o datos de entrada.
Es importante resaltar el hecho de que no es necesario
conocer el funcionamiento interno, o cómo actúan entre sí
los diversos elementos, para caracterizar el sistema. Para
ello, sólo se precisa conocer la relación que existe entre la
entrada y la salida del proceso que realiza el mismo
(principio de caja negra). El aspecto más importante de un
sistema es el conocimiento de su dinámica, es decir, cómo
se comporta la señal de salida frente a una variación de la
señal de entrada. Un conocimiento preciso de la relación
entrada-salida permite predecir la respuesta del sistema y
seleccionar la acción de control adecuada para mejorarla.
En sentido práctico, el conocimiento de dicha relación
permite además, detectar posibles malfuncionamientos
producto de desgastes o averías, en el caso de sistemas
mecánicos o electrónicos, a través del análisis y
comparación de las respuestas del sistema en diferentes
instantes en el tiempo de vida útil de dichos sistemas.
Diversos avances se han suscitado en materia de
caracterización y obtención de modelos que representan la
dinámica y la relación entrada-salida de sistemas. El
modelado empírico de procesos contempla análisis en el
dominio temporal y en el dominio de la frecuencia, que se
realizan utilizando datos de entrada y salida obtenidos
experimentalmente a partir de la excitación del proceso
que se desea identificar bajo una condición nominal de
operación. En este sentido, [4] constituye el antecedente
más representativo de la investigación que se documenta
en estas páginas, ya que trata la identificación de un
sistema en la empresa venezolana CORPOELEC
(anteriormente EDELCA): el sistema de gobernación de
una unidad hidrogeneradora, que según el autor “… el
sistema completo es bastante complejo, con varios lazos
de retroalimentación…”. Pese a ésta y otras dificultades,
la reducción de los elementos que conforman dicho
sistema a una representación en diagrama de bloques
resumida, que contempla al proceso como una relación
entrada-salida, permitió simplificar la identificación.
Mediante ensayos escalón realizados bajo velocidad
nominal, y con aplicación de perturbaciones inferiores al -
3%, el autor logra obtener un modelo aproximado del
sistema, mediante la implementación directa de un
algoritmo denominado por el autor “método desarrollado
por la USB”. La obtención del modelo matemático
permitió, entonces, re-entonar el controlador de
gobernación de velocidad de la unidad hidrogeneradora,
que en su oportunidad, para el año 2007, presentaba
fuertes oscilaciones que comprometían la estabilidad del
sistema.
Pese al éxito de la solución vista en [4], aplicada a una
unidad hidrogeneradora, el método utilizado para la
obtención del modelo matemático debió adaptarse a las
particularidades de sistema en el momento, y no se
contaba con una herramienta computacional de propósito
específico para tal fin. Una de las principales razones por
la cual se realiza modelado empírico de procesos y
sistemas dinámicos es el hecho de que la obtención de un
modelo fundamental, basado en principios físicos o
químicos (según sea la naturaleza del proceso) resulta
impráctico en la realidad, por lo que se acude a la
obtención de parámetros que representen el
comportamiento del sistema y se ajusten a una ecuación
matemática. En otros casos, el modelado debe aplicarse
cuando se desconoce total o parcialmente la ecuación del
proceso y se requiere su obtención para bien conocer la
relación entre la(s) variable(s) del proceso, o para entonar
o adaptar controladores.
En el contexto que motiva la presente investigación,
debido a que sólo se pueden realizar mediciones de la
entrada y la salida del sistema a identificar, y con la
restricción en lazo cerrado, se propone la aplicación de
redes neuronales para caracterizar la respuesta de
sistemas dinámicos LTI, a través de una herramienta
diseñada específicamente para tal fin. La aplicación de
redes neuronales además, permitirá en el futuro la
realización de pruebas para la identificación de sistemas
no lineales [5] e identificación en línea.
Las redes neuronales artificiales son un paradigma de
procesamiento inspirado en la forma en que funciona el
sistema nervioso de los humanos, y está caracterizado por
su capacidad de generalización, robustez y tolerancia a
fallos [6]. La tecnología de las redes neuronales ha sido
utilizada en problemas de generalización o aproximación
de funciones de complejidad arbitraria, por lo que el
diseño propuesto se vale de esta característica para
representar la respuesta de un sistema cualquiera de una
entrada y una salida, mediante el entrenamiento de una
red neuronal tipo multicapa alimentada hacia adelante, a
través del algoritmo Backpropagation [7].
Es notable destacar a [8]-[12], ya que presentan de manera
formal la aplicación de redes neuronales alimentadas
hacia delante (feedforward), con memoria en la entrada
(tapped delay) entrenadas fuera de línea mediante un
algoritmo de retropropagación, como identificadores de
sistemas dinámicos. Cabe resaltar que estos enfoques no
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 192
permiten la identificación de sistemas con parámetros
variables en el tiempo debido a que la red es incapaz de
ajustar sus pesos en línea. En esos casos, [13] y [14]
proponen la utilización de redes neuronales de base radial
(RBF) dinámicas, es decir, de tamaño variable que puede
ser entrenada en línea e implementarse en tiempo real. En
[15], se exponen algunas consideraciones no formales,
basadas en simulaciones de sistemas no lineales, sobre la
selección de las funciones de transferencia de las neuronas
que conforman la RNA empleada en la identificación de
los casos mostrados en dicho trabajo, que permiten una
estimación de modelos con menor error. En estos trabajos
no se muestran las realizaciones prácticas de los
experimentos, ni su aplicación en la identificación de
sistemas en lazo cerrado, sino que presentan enfoques más
teóricos.
La herramienta desarrollada y presentada en este trabajo
se vale del carácter adaptativo de las redes neuronales
artificiales para almacenar conocimiento relativo a la
dinámica del sistema a ser identificado. El NIS presenta
dos componentes principales: un hardware de estímulo y
adquisición de señales, y un software que ha sido
desarrollado bajo arquitectura PC empleando las
herramientas MATLAB/Simulink®, Neural Networks
Toolbox™ y Data Acquisition Toolbox™. La herramienta
permite obtener un modelo aproximado de primer orden
más tiempo muerto o uno de segundo orden, que
posteriormente puede ser evaluado en lazo abierto
empleando cualquier herramienta computacional utilizada
en el análisis de sistemas de control. Mediante el ajuste de
pocos parámetros, el NIS permite identificar diversos
sistemas LTI cuya función de transferencia es
desconocida. En este artículo se muestran los resultados
obtenidos en la fase de diseño y puesta en operación de la
herramienta, aplicada a la identificación en entorno de
simulación y de circuitos eléctricos utilizados para validar
su funcionamiento.
El trabajo está estructurado de la siguiente manera: en la
sección 2 se presenta todo el desarrollo de la
investigación: los fundamentos teóricos de la
identificación de sistemas y de las redes neuronales
artificiales con entrenamiento supervisado, el método de
identificación seleccionado y el diseño e implementación
del NIS. En la sección 3 se presentan los resultados y
discusión del funcionamiento del NIS en la identificación
de sistemas dinámicos. En la sección 4 se presentan las
conclusiones y en la sección 5 las referencias
bibliográficas.
II. DESARROLLO
1. Identiicación de Sistemas
La mayoría de los sistemas dinámicos pueden ser
representados en forma discreta por un conjunto de
ecuaciones [16]:
)()()1( , kkk uxx
)()( kk xy (1)
Donde x, u e y son secuencias de tiempo discreto. Cuando
las funciones Γ y Ψ son desconocidas, estamos ante un
problema de identificación.
Si el sistema descrito en (1) es lineal e invariante en el
tiempo, las ecuaciones que describen al sistema se pueden
expresar como:
)()()1( .. kkk uBxAx
)()( . kk xCy
(2)
En este caso A, B y C son matrices y el sistema puede ser
parametrizado por el conjunto (A, B y C). Para este tipo
de sistemas, si el orden es conocido, se puede escoger la
estructura del modelo y resulta un problema de estimación
de parámetros.
En general un sistema no lineal descrito por (1) puede ser
representado en términos de entrada-salida de la siguiente
manera:
;,...,,[ )1()1()()1( nkkkk yyyfy
],...,, )1()1()( mkkk uuu
(3)
El problema de la identificación consiste en seleccionar
un modelo apropiado y ajustar sus parámetros de acuerdo
a alguna ley adaptativa de forma que la respuesta del
modelo ante una señal de entrada, o un conjunto de
señales de entrada, se aproxime a la respuesta del sistema
real ante esa misma entrada.
Específicamente, en la investigación se ha considerado
obtener un modelo que represente la dinámica del sistema
real, mediante redes neuronales artificiales, para luego
analizar su curva de reacción y luego aplicar uno de los
dos métodos de modelado empírico de procesos en el
dominio temporal: a) modelado basado en la curva de
reacción del proceso aproximando a una función de
transferencia de P.O.M.T.M., o b) modelado basado en la
curva de reacción del proceso aproximando a una función
de transferencia de segundo orden cuando el sistema a
modelar es sub-amortiguada. Tales métodos han sido
seleccionados en función de la gran cantidad de sistemas
reales cuya respuesta puede ser generalizada a modelos
P.O.M.T.M. o de Segundo Orden. La entrada de prueba
utilizada en ambos casos es el escalón, de allí que los
ensayos que se hacen se les conocen como Pruebas de
Cambio de Escalón [2].
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 193
2. Modelado Empírico de Procesos aproximándolos a una
Función de Transferencia de Primer Orden Más Tiempo
Muerto (P.O.M.T.M.)
La función de transferencia general utilizada en la
estimación del modelo de primer orden más tiempo
muerto, para este caso, está representada por [2]:
1
0
)(
S
KeG
St
S
(4)
Donde:
K la ganancia de estado estable del proceso.
t0 el tiempo muerto efectivo del proceso.
τ la constante de tiempo efectiva del proceso.
Las ecuaciones de interés, que han sido codificadas e
incorporadas a la herramienta desarrollada en el proyecto
de investigación, son las siguientes:
El valor de estado estable será:
KAyss (5)
De (5) obtenemos:
A
YK ss (6)
El método propone que t0
y τ sean seleccionados de tal
manera que la respuesta real y del modelo ante iguales condiciones de excitación coincidan en dos puntos en la
región de máxima pendiente de su curva de reacción. Los
dos puntos son:
301
tt (7)
02 tt (8)
Para localizar dichos puntos se utiliza la ecuación,
resultado de la aplicación del método de fracciones
parciales y la inversa de la transformada de Laplace a la
función de transferencia de un sistema de primer orden:
00
0
1 ttttueKAtc
tt
(9)
Cuando t = t0 + τ/3 se tiene que:
ssss yyeKAtty %3.28283.013
3
1
01
(10)
Y cuando t = t0 + τ se tiene que:
ssss yyeKAtty %2.63632.01 1
02 (11)
De (7) y (8), finalmente t0
y τ se expresan como:
20 tt (12)
122
3tt
(13)
Si bien es cierto que esta aproximación es válida para
sistemas en tiempo contínuo, al muestrear las señales de
entrada y salida del sistema a identificar bajo un criterio
de sobremuestreo, y luego de un postprocesamiento o
filtrado anti-aliasing, la respuesta del sistema en tiempo
discreto puede aproximarse a la respuesta de un sistema
de tiempo contínuo, y así aplicarse la formulación antes
descrita.
La Figura 1 permite explicar el método de modelado
empírico expuesto:
Figura 1. Gráfico del método de modelo empírico de
sistemas P.O.M.T.M.
3. Redes Neuronales Artificiales con Entrenamiento
Supervisado
El cerebro humano contiene aproximadamente 1011
elementos intensamente conectados llamados neuronas
[17]. Para efectos de la obtención de su modelo artificial,
estas neuronas tienen tres componentes principales: las
dendritas, el cuerpo o soma de la neurona y el axón. Las
dendritas son redes receptivas similares a un árbol de
fibras nerviosas que transportan señales eléctricas a la
parte interior del cuerpo de la neurona. El cuerpo de la
célula suma y umbraliza estas nuevas señales. El axón es
una única fibra larga que transporta la señal desde el
cuerpo de la célula hacia otras neuronas. El punto de
contacto entre un axón de una célula y una dendrita de
otra célula es llamado sinapsis. El arreglo de las neuronas
y las fuerzas de las sinapsis individuales están
determinados por un complejo proceso químico, que
establece la función de la red neuronal.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 194
Las redes neuronales artificiales son redes
interconectadas, que operan en paralelo mediante
procesadores simples (usualmente adaptativos) y con
organización jerárquica, las cuales intentan interactuar
con los objetos del mundo real, del mismo modo que lo
hace el sistema nervioso central. Las redes neuronales
responden a un modelo biológico de interconexión entre
elementos de procesamiento denominados neuronas
artificiales. El aprendizaje en los seres vivos, en particular
los animales, se realiza por ensayo y error, mediante
ejemplos o demostraciones. Las redes neuronales
biológicas ajustan dinámicamente parámetros internos
(pesos y tendencias) que rigen la representación de la
información o conocimiento, adoptando la capacidad de
generalizar respuestas ante eventos nunca antes
suscitados. De manera análoga, se representan estos
procesos, mediante algoritmos o circuitos electrónicos.
Mediante la herramienta NNT de MATLAB [18], se han
implementado las funciones que permiten la
parametrización de las redes neuronales aplicadas en la
identificación del sistema, y por lo tanto no es objetivo del
trabajo, codificar las ecuaciones relativas a la arquitectura
de RNA.
4. Método de Identificación empleando Redes
Neuronales Artificiales
El proceso de identificación de sistemas mediante
aplicación de redes neuronales considerado en el
desarrollo de la aplicación, según [16], responde al
diagrama mostrado en la Figura 2.
Figura 2. Fases del modelado neuronal.
Se hará especial hincapié en la selección de la estructura
de modelo de identificación, en la estimación y en la
validación.
El modelado empírico de procesos se fundamenta,
esencialmente, en el ajuste de funciones de transferencia
generales, de primer o segundo orden, mediante un
conjunto de operaciones realizadas sobre datos
experimentales extraídos del sistema real que se quiere
identificar, por lo que el problema de la identificación de
sistemas no lineales puede ser abordado mediante la
aplicación de la tecnología de las redes neuronales
artificiales, específicamente a través de los modelos con
entrenamiento supervisado. Mediante información de la
entrada y la salida de un sistema con función de
transferencia desconocida, una estructura de identificación
basada en redes neuronales artificiales puede realizar el
mapeo de un conjunto de vectores de entrada asociados a
unas clases de salidas, y representar a través de sus
parámetros internos (pesos y tendencias) la dinámica de
dicho sistema. El Dr. K. Narendra [8]-[9] presenta un
estudio formal sobre identificación y control de sistemas
dinámicos empleando redes neuronales con memoria en la
entrada. Dado que el sistema real es desconocido, se debe
asumir que corresponde a un tipo determinado, y que un
modelo parametrizado basado en (3) puede en teoría
representar el comportamiento de entrada – salida de
cualquier sistema de ese tipo. La estructura de modelo de
identificación implementada se muestra en la Figura 3.
Figura 3. Estructura de identificación implementada.
Sea X(k) el vector de entradas hacia la red neuronal, la
cual almacenará mediante sus parámetros internos, la
dinámica del sistema a identificar. En este modelo, las
entradas de la red neuronal son la entrada del sistema real
u(k), las entradas Xn+m-1(k) que representan estados
anteriores de la misma señal de entrada u(k); y la salida
del sistema, representada como entrada a la red neuronal
por X1(k) y sus respectivos valores en estados anteriores,
Xn(k). El número de entradas retardadas a considerar
depende directamente del orden estimado del sistema a
identificar. La capacidad de la red neuronal de almacenar
un comportamiento dinámico realmente es otorgada a
través de la presentación de estados anteriores, tanto de la
entrada del sistema a identificar, como de su salida. Esto
se conoce como memoria a la entrada (tapped delay).
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 195
Como se verá en el apartado de diseño, el modelo
seleccionado es el de una red neuronal tipo perceptrón
multicapa con algoritmo de entrenamiento Levenberg-
Marquardt Backpropagation [7] y [18]. Los elementos
arquitectónicos de la red son variables. Las ecuaciones
relativas a los algoritmos de entrenamiento, se encuentran
codificadas en la NNT de MATLAB.
5. Diseño del Neuro-Identificador de Sistemas
A continuación se presentan las fases de diseño e
implementación de la herramienta desarrollada.
5.1. Diseño General
El diseño del Neuro-Identificador de Sistemas, ha sido
realizado considerando que el producto final debe ser una
herramienta de uso sencillo, con una interfaz gráfica de
usuario que permita el acceso a todas las funcionalidades
en consonancia con la estrategia de identificación, y con
elementos software y hardware de buen rendimiento
computacional. El diseño ha sido subdividido en dos
grandes etapas que pueden apreciarse en la Figura 4.
Figura 4. Diseño del Neuro-Identificador de Sistemas.
La etapa de software comprende la configuración del
origen de datos del modelo, esto es, la configuración de
las tarjetas de adquisición de datos con las que el usuario
captura los datos experimentales, o bien la selección y
configuración de un modelo MATLAB/Simulink® para
ensayos basados en simulación. Dicha etapa contempla,
en el mismo orden del esquema de identificación
mediante redes neuronales visto en la Figura 2, opciones
para llevar a cabo cada una de las fases de dicho esquema,
así como también las operaciones típicas sobre archivos
asociados al NIS, y la ayuda. La interfaz gráfica ha sido
desarrollada bajo el módulo GUIDE™, de MATLAB®.
Para la etapa de hardware, se ha utilizado un computador
portátil como elemento de procesamiento y
almacenamiento, y una tarjeta de adquisición de datos
junto a un equipo terminal de interconexión entre las
señales eléctricas provenientes del sistema a identificar y
la tarjeta mencionada. El software permite seleccionar y
configurar los parámetros principales de la tarjeta de
adquisición: frecuencia de muestreo, canales de entrada y
salida, y tiempo de adquisición. El NIS está provisto de
una interfaz con funciones de la Data Acquisition
Toolbox™ de MATLAB®, lo que permite dar prioridad
en el software, a las interrupciones causadas por la tarjeta
de adquisición de datos al sistema operativo embebido en
el computador portátil.
5.2. Diagrama de Flujo del Software
El diagrama de flujo del software y sus distintos módulos
se muestran en la Figura 5.
En el diagrama de flujo presentado en la Figura 5 se
aprecian los seis módulos principales que integran el
software de la herramienta implementada. Los módulos se
encuentran delimitados por un recuadro que representa la
interfaz gráfica de usuario principal, o GUI principal.
El bloque función Selección Origen de Datos del Modelo,
permitirá seleccionar la fuente de los datos del sistema
que se requiera identificar; existen dos posibilidades:
origen de los datos desde un modelo Simulink, y origen
de los datos desde una Tarjeta de Adquisición de Datos
(DAQ). Para el primer caso, se desplegará una ventana
que permite seleccionar y cargar un modelo Simulink
cualquiera creado por el usuario. Si por el contrario se
escoge la opción de origen desde DAQ, se desplegará una
ventana que permite seleccionar el modelo de tarjeta, y
una ventana que permite desplegar la información del
dispositivo, en tiempo de ejecución del software.
El bloque Captura de Datos (1) puede ejecutar dos vías
distintas, dependiendo del origen de datos seleccionado en
el bloque anterior. En el caso de origen de datos desde
modelo Simulink, la captura de datos realiza la acción de
ejecutar la simulación del modelo seleccionado por el
usuario. Para el segundo caso, cuando el origen de datos
es una DAQ, la captura de datos despliega una nueva
ventana de Adquisición de Datos, que luego debe ser
parametrizada para su ejecución.
El bloque Acondicionamiento de Señales (2) permite,
mediante una interfaz gráfica, aplicarle un
acondicionamiento con Spline Cúbica tras ingresar un
factor de atenuación, a las variables adquiridas en la etapa
anterior. A través de éste método, es posible eliminar
señales espurias no deseadas, adquiridas por lo general
mediante una DAQ. Esta técnica permite eliminar el
efecto de cuantización o discretización de las señales
muestreadas, a efectos de aplicar asunciones propias de
sistemas dinámicos en tiempo continuo.
El bloque Configuración de Red Neuronal Artificial (3)
permite seleccionar la estructura de identificación que el
usuario requiere utilizar para identificar un determinado
sistema dinámico; luego, una ventana permitirá
seleccionar y parametrizar la arquitectura de la red
neuronal artificial. El conjunto de entrenamiento de la red
neuronal es conformado por un vector de muestras de la
entrada del sistema a identificar, y un vector de muestras
de la salida del sistema a identificar. Este conjunto de
entrenamiento se constituye automáticamente vía
software.
El bloque Identificación de Sistemas (4) permite ejecutar
el entrenamiento de la red neuronal, mostrando en tiempo
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 196
real la curva de error de la clasificación del conjunto de
entrenamiento realizada por la red.
El bloque Validación (5) genera un bloque Simulink que
representa a la red neuronal previamente entrenada. Luego
se carga un modelo Simulink para validar y comparar el
desempeño de la red neuronal con datos reales de
validación del sistema identificado. El modelo permite
también realizar una prueba escalón a la red neuronal.
Por último, el bloque Aproximación de Función de
Transferencia (6) realiza un procesamiento gráfico de la
curva de reacción del sistema identificado según las
ecuaciones presentadas en la sección 2.1 de este artículo,
grafica dicha curva y estima los parámetros necesarios
para construir una función de transferencia de
P.O.M.T.M. o una función de transferencia de segundo
orden.
Figura 5. Diagrama de flujo del software del NIS.
5.3. Hardware de Adquisición y Procesamiento de
Datos
La Figura 6 muestra el hardware para adquisición de datos
utilizados, así como también el hardware requerido para el
almacenamiento, procesamiento y ejecución del NIS.
Figura 6. Hardware del NIS.
El hardware de adquisición (Fig. 6 - A) está conformado
por la tarjeta de adquisición DAQ Card 6062E, cuya
máxima frecuencia de muestreo es 500 kS/s. El hardware
de estímulo de señales de excitación para las plantas a ser
identificadas, es un generador de señales programable del
fabricante Yokogawa, modelo FG300, cuya máxima
frecuencia de salida para señales programadas por diskette
de 31/2
es 15 kHz. El hardware de procesamiento (Fig.6 -
B), almacenamiento y ejecución del software es un
computador portátil del fabricante Síragon, modelo
Canaima 3050P, con procesador Intel Pentium M 2.1
GHz., 1 Gb de RAM y sistema operativo Microsoft
Windows XP. Los requerimientos de software para la
ejecución del NIS son: MATLAB 7.0 o superior, Drivers
NI-DAQ.
5.4. Acabado Final
El aspecto definitivo de la ventana principal del software
de la herramienta desarrollada se muestra en la Figura 7.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 197
Figura 7. Ventana principal del software.
Este software sirve como Interfaz Gráfica de Usuario para
la parametrización de la herramienta NIS; esto es, su
hardware y el conjunto de ecuaciones a fin de realizar la
identificación de sistemas dinámicos según las fases de
modelado neuronal. Un conjunto de menús adicionales
permiten realizar operaciones sobre archivo, acceder a la
ayuda de la herramienta, y parametrizar el hardware de
adquisición de datos.
III. RESULTADOS Y DISCUSIÓN
Para validar el correcto funcionamiento de la herramienta
diseñada y evaluar su desempeño general, se identificaron
sistemas bajo el entorno Simulink, y se identificaron
circuitos electrónicos de laboratorio.
1. Identificación de Sistemas en Entorno
MATLAB/Simulink®
La Figura 8 muestra el diagrama de bloques, con un
sistema cuya función de transferencia ha sido
seleccionada arbitrariamente; dicho sistema ha sido
identificado mediante obtención de datos de su entrada y
salida, mediante el osciloscopio de Simulink. El sistema
se encuentra en un lazo cerrado, y fue excitado con una
señal aleatoria. Esta prueba ha permitido validar el
funcionamiento de los módulos software que conforman a
la herramienta NIS.
Figura 8. Sistema desconocido – modelo Simulink.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 198
Las señales de entrada y salida de la planta, que fueron
muestreadas utilizando el osciloscopio de Simulink, se
muestran en las Figuras 9 y 10.
Figura 9. Entrada muestreada de la planta – modelo
Simulink.
Figura 10. Salida muestreada de la planta – modelo
Simulink.
La cota de error alcanzada por el algoritmo de
entrenamiento Levenberg – Marquardt Backpropagation,
aplicado a la arquitectura de red neuronal establecida para
la identificación del circuito de primer orden, en este caso
ha sido 3.85194 x 10-10
en 1551 épocas de entrenamiento.
La Figura 11 muestra el gráfico de validación del modelo
de red neuronal, donde se somete a la misma señal
aleatoria, tanto a la planta como a la red neuronal artificial
previamente entrenada, en condición de lazo abierto.
La Figura 12 muestra la respuesta de la planta y de la red
neuronal en lazo abierto, ante una entrada escalón de
amplitud 1. El error en la aproximación se puede asumir,
considerando que la obtención de un modelo empírico con
un error inferior al 20% es tolerable en la mayoría de los
casos. Para reducir el error se hace necesario ejecutar el
entrenamiento de la red neuronal en un mayor número de
épocas, o bien ajustar parámetros del algoritmo de
entrenamiento como la tasa de aprendizaje.
Figura 11. Respuesta de la red neuronal y del sistema ante
la misma entrada aleatoria.
Figura 12. Respuesta de la red neuronal y del sistema ante
entrada escalón.
Las Figuras 13 y 14 muestran respectivamente, la función
de transferencia aproximada por el Neuro-Identificador y
la salida del modelo Simulink.
Figura 13. Función de transferencia aproximada por el NIS.
0 10 20 30 40 50 60 70 80 90 100-10
-8
-6
-4
-2
0
2
4
6
8
10
Plant Input
0 10 20 30 40 50 60 70 80 90 100-6
-4
-2
0
2
4
6
0 10 20 30 40 50 60 70 80 90 100-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8Neural Network Output
Plant Output
0 10 20 30 40 50 60 70 80 90 1000
0.5
1
1.5
2
2.5
3
3.5
4
Neural Network Output
Plant Output
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 199
Figura 14. Salida del sistema Simulink y salida
aproximada por el NIS.
2. Identificación de una Planta de Primer Orden
La Figura 15 muestra el circuito de primer orden que ha
sido identificado mediante obtención de datos
experimentales en laboratorio. Esta prueba ha permitido
probar el NIS completo: su software y su hardware.
Las señales de entrada y salida de la planta, que fueron
muestreadas utilizando el hardware de adquisición de
datos, se muestran en la Figuras 16 y 17. La frecuencia de
muestreo de las señales fue seleccionada excitando la
entrada del circuito y observando hasta que punto la
frecuencia atenuaba la salida de la planta. En este caso, la
frecuencia de muestreo ha sido de 80 Hz.
Figura 15. Circuito de primer orden.
Figura 16. Entrada muestreada del circuito de primer
orden.
Figura 17. Salida muestreada del circuito de primer
orden.
0 10 20 30 40 50 60 70 80 90 100-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Plant Output
Aprox. Plant Output
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-0.2
-0.15
-0.1
-0.05
0
0.05
0.1
0.15
0.2
0.25
Plant Input
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-0.1
-0.05
0
0.05
0.1
0.15
0.2
0.25
Plant Output
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 200
La cota de error alcanzada por el algoritmo de
entrenamiento Descenso de Gradiente, aplicado a la
arquitectura de RNA establecida para la identificación del
circuito de primer orden, ha sido 2.98 x 10-6
en 10000
épocas de entrenamiento. Para reducir el error se hace
necesario ejecutar el NIS en una arquitectura de cómputo
de mayor velocidad, a fin de que el algoritmo converja
más rápidamente.
La Figura 18 muestra una entrada de excitación aleatoria,
mientras que la Figura 19 muestra el gráfico de validación
del modelo de red neuronal, donde se somete a la misma
señal aleatoria, tanto a la planta como a la red neuronal
artificial previamente entrenada, en condición de lazo
abierto.
Figura 18. Entrada de validación para el modelo obtenido.
Figura 19. Respuesta de la red neuronal y del circuito ante
la misma entrada aleatoria.
La Figura 20 muestra la respuesta de la planta y de la red
neuronal en lazo abierto, ante una entrada escalón.
Figura 20. Respuesta de la red neuronal y de la planta, en
lazo abierto, ante entrada escalón.
Las Figuras 21 y 22 muestran respectivamente, la función
de transferencia aproximada por el Neuro-Identificador y
la salida real del circuito de primer orden.
Figura 21. Función de transferencia aproximada por el NIS
– caso circuito de primer orden.
Figura 22. Salida del circuito de primer orden y salida de la
planta aproximada por el NIS.
Cuantitativamente, el grado de confiabilidad del modelo
se ha evaluado mediante un factor de correlación
cuadrática multivariable. En probabilidad y estadística, la
correlación indica la fuerza y la dirección de una relación
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-5
-4
-3
-2
-1
0
1
2
3
4
5Validation Input
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-4
-3
-2
-1
0
1
2
3
4
Aprox. Plant Output
Real Plant Output
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-0.2
0
0.2
0.4
0.6
0.8
1
1.2
Real Plant Output
Aprox. Plant Output
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
Real Plant Output
Aprox. Plant Output
Input
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 201
lineal entre dos variables aleatorias. Se considera que dos
variables cuantitativas están correladas cuando los valores
de una de ellas varían sistemáticamente con respecto a los
valores homónimos de la otra: si tenemos dos variables (A
y B) existe correlación si al aumentar los valores de A lo
hacen también los de B y viceversa. Se ha utilizado la
ecuación:
1
ˆ
11
1
2
1
2
2
n
i
i
n
i
i
y
Y
Y
R (14)
Que expresa la fuerza de la relación lineal entre el
conjunto de datos de salida del modelo aproximado,iY , y
el conjunto de datos de salida del sistema o planta real, iY ,
ante una misma entrada cualquiera. El cuadrado del factor
de correlación únicamente indica que es una expresión
cuadrática. La ecuación ha sido ajustada de forma tal que,
indistintamente del sentido que arroje la correlación, el
factor siempre sea positivo e inferior o igual a la unidad,
donde la unidad representa una correlación total. Valores
superiores a 0.96 en el factor de correlación, indican
claramente que el modelo aproximado está correlado con
el modelo real. Así, para el modelo de primer orden
aproximado se tiene:
9670.02yR (15)
Que, junto a la correspondencia visual mostrada en las
gráficas anteriores, confirma la validez del modelo
identificado con el NIS.
IV. CONCLUSIONES
1. El Neuro-Identificador de Sistemas hace uso efectivo
de la metodología empleada para la identificación
mediante Redes Neuronales Artificiales.
2. La herramienta implementada permite, mediante el
ajuste de pocos parámetros, identificar sistemas
dinámicos LTI - SISO. A través del experimento
realizado, se demuestra que es válido utilizar el
modelado neuronal en la identificación de sistemas
LTI que se encuentren en un lazo de control
realimentado.
3. En relación al desempeño, se observa que el error
cuadrático medio obtenido en la fase de entrenamiento
de la red neuronal debe ser inferior a 10-10
para
obtener un modelo que permite obtener correlaciones
cuadráticas multivariables superiores a 0.96.
4. Por último, se demuestra que es posible después de
obtener el modelo de red neuronal que representa la
dinámica del sistema LTI, realizar pruebas escalón y,
aplicando técnicas de modelado empírico de procesos
sobre la red neuronal previamente entrenada,
aproximar una función de transferencia.
V. REFERENCIAS
1. Gil R. Páez D., “Identificación de Sistemas Dinámicos utilizando Redes Neuronales RBF”, Revista
Iberoamericana de Automática e Informática
Industrial, vol. 4, núm. 2, Comité Español de
Automática, Madrid, España, pp. 32-42.
2. Sarmiento S., “Identificación Empírica de Modelos”, UNEXPO Vicerrectorado Puerto Ordaz, Puerto Ordaz,
Venezuela, Marzo, 2003. pp 173-188.
3. Ogata K., “Modern Control Engineering”, Third Edition. Prentice Hall, 1998. 997 p.
4. Contreras R., “Tuning of Governance System of a 805 MVA Generator Unit at Guri Plant After 25 Years of
Service”, 1st Venezuelan Congress on Networks and
Electrical Energy, Anzoátegui, Venezuela. November,
2007. pp. 1-9.
5. Hangos K. M., Bokor J., Szederkényi G., “Analysis
and Control of Nonlinear Process Systems”, Springer-
Verlag London Limited, 2004.
6. Zambrano A., Pinto L., “Aplicación de las Redes Neuronales Artificiales en Procesadores Digitales de
Señales: Caracterización de Sensores Infrarrojos”,
Revista Universidad, Ciencia y Tecnología, vol. 13,
UNEXPO Vicerrectorado Puerto Ordaz, Puerto Ordaz,
Venezuela, pp. 20-27.
7. Demuth H., Beale M., Hagan M., “Neural Network
Design”, PWS Publishing Company, Boston, EUA,
1996.
8. Narendra, K. S., Parthasarathy, K., “Backpropagation
in Dynamical Systems containing Neural Networks”,
Technical Report 8905, Centre for Systems Science,
Department of Electrical Engineering, Yale
University, 1989.
9. Narendra, K. S., Parthasarathy, K., “Identification and Control of Dynamical Systems Using Neural
Networks,” IEEE Transactions on Neural Networks,
Vol. 1, No. 1, pp. 4-27, 1990.
10. Kuschewsky G. J., Hui S., Zak S.H., “Application of feedforward neural networks to dynamical system
identification and control”, IEEE Transactions on
Control Systems Technology, Vol. 1, No. 1, 1993, pp.
37-49.
11. Chi S.R., Shoureshi R., Tenorio M., “Neural Networks for System Identification”, IEEE Control Systems
Magazine, No. 10, 1990, p.p. 31-34.
12. Chen S., Billings S.A., Grant P.M., “Nonlinear System Identification using Neural Networks”, International
Journal of Control, Vol. 51, No. 6, 1990, p.p. 1191-
1214.
13. Poggio T., Girosi F., “A Theory of Networks for Approximation and Learning”, Artificial Intelligence
Memo No. 1140, Massachusetts Institute of
Technology, 1989.
14. Sanner R.M., Slotine J.E., “Stable Adaptive Control and Recursive Identification using Radial Gaussian
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 202
Networks”, Proceedings of 30th
on Decision and
Control, Brighton, England, 1991.
15. Nechyba M., Xu Y., “Neural Network Approach to Control System Identification with Variable
Activation Functions”, The Robotics Institute,
Carnegie Mellon University, Pittsburg, EUA, 2000.
16. Cañete J., “Modeling and Control using Neural Networks”, Malaga University, PhD Program on
Mechatronics Engineering, Málaga, Spain. April,
2008.
17. Troncone N., “Introducción a las Redes Neurales”. Trabajo de Ascenso, UNEXPO Vicerrectorado Puerto
Ordaz. Puerto Ordaz, Venezuela. Diciembre, 2002. pp
10-50.
18. The Mathworks Inc., “MATLAB 7.0 Neural Networks Toolbox Help Notes”, May, 2006.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 203
MODELADO CON VARIABLES ALEATORIAS EN SIMULINK
UTILIZANDO SIMULACION MONTECARLO
Velásquez, Sergio1 Velásquez, Ronny
1
(Recibido enero 2012, Aceptado junio 2012)
1 Dpto. de Ingeniería Electrónica, UNEXPO Vicerrectorado Puerto Ordaz
Resumen: Este artículo presenta el Modelado Con Variables Aleatorias En Simulink Utilizando Simulación
Montecarlo, muchos modelos de sistemas reales contienen elementos que precisan o admiten un modelado
estadístico, Sistemas de comunicaciones, Sistemas de conmutación, Sistemas sensores, Modelado toma forma
definiendo, Variables aleatorias que rigen ciertos comportamientos del sistema Procesos estocásticos para
modelar variación de entradas en el tiempo, como lo son las fluctuaciones en la bolsa de valores e ciertos
productos. Se deben definir métodos para generar muestras de variables aleatorias y muestras de procesos
estocásticos. Entre ellos está el método de Montecarlo, el modelo implementado mostro la capacidad proponer
precios optativos al precio de mercado ante cambios en el precio de un producto. Las simulaciones permitieron
conocer con mayor exactitud la versatilidad del Método ante otros Métodos usados, prediciendo con gran exactitud
las fluctuaciones de precios ocurridas en el producto de prueba.
Palabras clave: Simulink/ MonteCarlo/ Vainilla/ Gaussiano/ Modelo.
MODELING WITH RANDOM VARIABLES IN SIMULINK
USING MONTECARLO SIMULATIONS
Abstract: This article presents the model with random variables in Monte CarloSimulation Using Simulink, many
models of real systems contain elements that require or permit a statistical modeling, communication
systems,switching systems, sensor systems, modeling takes definite shape, random variables governing certain
stochastic processes system behavior modelinginputs change over time, as are the fluctiaciones in the stock market
andsome products. You must define methods to generate samples of random variables and stochastic samples.
Among them is the Monte Carlo method, the implemented model showed the ability to propose optional pricing to
the market price to changes in the price of a product. The simulations allowed to know more precisely the
versatility of the method to other methods used, predicting with great accuracy the price fluctuations that occurred
in the trial product.
Keywords: Simulink/ MonteCarlo/ Vanilla/ Gaussian/ Model.
I. INTRODUCCION
Simulación de sistemas dinámicos, donde se supone que
conocemos el valor exacto de todos los parámetros del
modelo no representa adecuadamente el mundo real. La
mayoría de las veces el diseñador de un sistema quiere
saber lo que ocurre cuando uno o más componentes están
sujetos a la incertidumbre.
El modelado de la incertidumbre cubre dos temas
relacionados: variables aleatorias y los procesos
estocásticos. Las variables aleatorias pueden modelar la
incertidumbre en los experimentos en un solo evento se
produce, lo que resulta en un valor numérico para algunos
observables. Un ejemplo de esto ser el valor de un
parámetro (o varios parámetros) especificado en el diseño.
En el proceso de construcción del sistema, estos pueden
cambiar al azar debido a la fabricación u otros errores.
Simulink ofrece los bloques que se pueden utilizar para
modelar variables aleatorias con las dos distribuciones
estándar de probabilidad: uniforme y de Gauss o normal.
Procesos estocásticos, en contraste con variables
aleatorias, son funciones del tiempo o alguna otra variable
independiente (o variables). La matemática de estos
procesos es un poco más complicada debido a la
interrelación entre el azar y la variable independiente.
En este artículo se analiza el uso de Simulink para
modelar los dos tipos de incertidumbre. Se presenta los
dos tipos de variables aleatorias disponibles en Simulink y
se muestra cómo crear otras distribuciones de
probabilidad para su uso en los fenómenos de modelado
que son más complejas. Se hace llegar las ideas de
variables aleatorias para el más simple de procesos
estocásticos, donde en cada uno de los tiempos de la
muestra en un sistema discreto se selecciona una nueva
variable aleatoria. Finalmente, se muestran los procesos
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 204
de tiempo discreto, que concurren a los procesos de
tiempo continuo en el límite donde los intervalos de
tiempo son cada vez más pequeños. [1].
II. DESARROLLO
La forma más sencilla de incertidumbre que se podría
necesitar para el modelo son los valores de los parámetros
de una simulación. Estas incertidumbres de los
parámetros pueden ser los errores debidos a las
tolerancias de fabricación, las incertidumbres en los
valores físicos, debido a errores de medición y los errores
en los parámetros del modelo por el desgaste del sistema.
Simulaciones de Monte Carlo utilizan los parámetros
entre las distribuciones de probabilidad conocida. Los
parámetros son entonces variables aleatorias, por lo que
cada simulación más simple incertidumbres uno que tenga
que modelo son los valores de los parámetros de una
simulación.
Estas incertidumbres de los parámetros pueden ser los
errores debidos alas tolerancias de fabricación, las
incertidumbres en los valores físicos, debido a errores de
medición y los errores en los parámetros del modelo por
el desgaste del sistema. Simulaciones de Monte Carlo
utilizan los parámetros entre las distribuciones de
probabilidad conocida.
Los parámetros son entonces variables aleatorias, (por lo
que cada uno tiene una estructura de simulación.)
1. El azar
Es una causalidad presente en diversos fenómenos que se
caracterizan por causas complejas y no lineales.
Dependiendo del ámbito al que se aplique, se pueden
distinguir cuatro tipos de azar:
1.1. Azar en Matemáticas.
En matemáticas, pueden existir series numéricas con la
propiedad de no poder ser obtenidas mediante un
algoritmo más corto que la serie misma. Es lo que se
conoce como aleatoriedad. La rama de las matemáticas
que estudia este tipo de objetos es la teoría de la
probabilidad. Cuando esta teoría se aplica a fenómenos
reales se prefiere hablar de estadística.
1.2. Azar en la Física.
Los sistemas de la física pueden incluir procesos
deterministas y también indeterministas, es decir
azarosos. En los sistemas indeterministas no se puede
determinar de antemano cuál será el suceso siguiente,
como sucede en la desintegración de un núcleo atómico.
Esta dinámica, azarosa, es intrínseca a los procesos que
estudia la mecánica cuántica, es decir aquellos
subatómicos. Dentro de los procesos deterministas,
también se da el azar en la dinámica de sistemas
complejos impredecibles, también conocidos como
sistemas caóticos.
1.3. Azar en Biología.
Las mutaciones genéticas son generadas por el azar. Las
mutaciones se conservan en el acervo genético,
aumentando así las oportunidades de supervivencia y
reproducción que los genes mutados confieren a los
individuos que los poseen. Normalmente las
características de un organismo se deben a la genética y al
entorno, pero también las recombinaciones genéticas son
obra del azar.
1.4. Azar como encuentro accidental
Esta situación se considera azar porque los procesos que
coinciden son independientes, no hay relación causal
entre ellos, aunque cada uno tenga una causa que actúe de
modo necesario. Así, un macetero cae por una causa
necesaria: la gravedad; pero es azaroso que en su
trayectoria coincida con un peatón.
2. La probabilidad
La teoría de la probabilidad es la parte de las matemáticas
que estudia los fenómenos aleatorios. Estos deben
contraponerse a los fenómenos determinísticos, los cuales
son resultados únicos y/o previsibles de experimentos
realizados bajo las mismas condiciones determinadas, por
ejemplo, si se calienta agua a 100 grados Celsius a nivel
del mar se obtendrá vapor. Los fenómenos aleatorios, por
el contrario, son aquellos que se obtienen como resultado
de experimentos realizados, otra vez, bajo las mismas
condiciones determinadas pero como resultado posible
poseen un conjunto de alternativas, por ejemplo, el
lanzamiento de un dado o de un dardo.
3. Variable aleatoria
Una variable es aleatoria si su valor está determinado por
el azar. En gran número de experimentos aleatorios es
necesario, para su tratamiento matemático, cuantificar los
resultados de modo que se asigne un número real a cada
uno de los resultados posibles del experimento. De este
modo se establece una relación funcional entre elementos
del espacio muestral asociado al experimento y números
reales.
Una variable aleatoria (variable aleatoria) X es una
función real definida en el espacio muestral asociado a un
experimento aleatorio, Ω
Ω (1)
Se llama rango de una variable aleatoria X y lo
denotaremos RX, al conjunto de los valores reales que ésta
puede tomar, según la aplicación X. Dicho de otro modo,
el rango de una variable aleatoria es el recorrido de la
función por la que ésta queda definida:
Ω (2)
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 205
3.1. Distribución de probabilidad
La distribución de probabilidad de una variable aleatoria
X, también llamada función de distribución de X es la
función FX(x), que asigna a cada evento definido sobre X
una probabilidad dada por la siguiente expresión:
(3)
y de manera que se cumplan las siguientes tres
condiciones:
1.
2. Es continua por la derecha.
3. Es monótona no decreciente.
La distribución de probabilidad de una variable aleatoria
describe teóricamente la forma en que varían los
resultados de un experimento aleatorio. Intuitivamente se
trataría de una lista de los resultados posibles de un
experimento con las probabilidades que se esperarían ver
asociadas con cada resultado.
4. Proceso estocástico
En estadística, y específicamente en la teoría de la
probabilidad, un proceso estocástico es un concepto
matemático que sirve para caracterizar una sucesión de
variables aleatorias (estocásticas) que evolucionan en
función de otra variable, generalmente el tiempo. Cada
una de las variables aleatorias del proceso tiene su propia
función de distribución de probabilidad y, entre ellas,
pueden estar correlacionadas o no.
Cada variable o conjunto de variables sometidas a
influencias o impactos aleatorios constituye un proceso
estocástico.
Un proceso estocástico se puede definir equivalentemente
de dos formas diferentes:
Como un conjunto de realizaciones temporales y un
índice aleatorio que selecciona una de ellas.
Como un conjunto de variables aleatorias Xt indexadas
por un índice t, dado que t pertenece a T, con .
T puede ser continuo si es un intervalo (el número de sus
valores es ilimitado) o discreto si es numerable
(solamente puede asumir determinados valores). Las
variables aleatorias Xt toman valores en un conjunto que
se denomina espacio probabilístico. Sea Ω un
espacio probabilístico. En una muestra aleatoria de
tamaño n se observa un suceso compuesto E formado por
sucesos elementales :
Ω (4)
de manera que .
El suceso compuesto es un subconjunto contenido en el
espacio muestral y es un álgebra de Boole B. A cada
suceso le corresponde un valor de una variable aleatoria
V, de manera que V es función de :
Ω (5)
El dominio de esta función o sea el campo de variabilidad
del suceso elemental, es el espacio muestral, y su
recorrido, o sea el de la variable aleatoria, es el campo de
los números reales. Se llama proceso aleatorio al valor en
(A,A) de un elemento Ω , donde para
todo es una variable aleatoria del valor en
(A,A).
Si se observa el suceso en un momento t de tiempo:
Ω (6)
V define así un proceso estocástico.
Si es una filtración, se llama proceso aleatorio
adaptado, al valor en (A,A), de un elemento , donde es una variable aleatoria -medible del valor en (A,A). La función
(7)
se llama la trayectoria asociada al suceso .
5. El método de Montecarlo
El método de Montecarlo es un método no determinístico
o estadístico numérico, usado para aproximar expresiones
matemáticas complejas y costosas de evaluar con
exactitud. El método se llamó así en referencia al Casino
de Montecarlo (Principado de Mónaco) por ser “la capital
del juego de azar”, al ser la ruleta un generador simple de
números aleatorios. El nombre y el desarrollo sistemático
de los métodos de Montecarlo datan aproximadamente de
1944 y se mejoraron enormemente con el desarrollo de la
computadora.
El uso de los métodos de Montecarlo como herramienta
de investigación, proviene del trabajo realizado en el
desarrollo de la bomba atómica durante la Segunda
Guerra Mundial en el Laboratorio en EE.UU. Este trabajo
conllevaba la simulación de problemas probabilísticos de
hidrodinámica concernientes a la difusión de neutrones en
el material de fisión. Esta difusión posee un
comportamiento eminentemente aleatorio.
En la actualidad es parte fundamental de los algoritmos de
Raytracing para la generación de imágenes 3D.
En la primera etapa de estas investigaciones, John von
Neumann y Stanislaw Ulam refinaron esta ruleta rusa y
los métodos "de división" de tareas. Sin embargo, el
desarrollo sistemático de estas ideas tuvo que esperar al
trabajo de Harris y Herman Kahn en1948. [2].
Aproximadamente en el mismo año, Enrico Fermi,
Nicholas Metropolis y Ulam obtuvieron estimadores para
los valores característicos de la ecuación de Schrödinger
para la captura de neutrones a nivel nuclear usando este
método.
El método de Montecarlo proporciona soluciones
aproximadas a una gran variedad de problemas
matemáticos posibilitando la realización de experimentos
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 206
con muestreos de números pseudoaleatorios en una
computadora. El método es aplicable a cualquier tipo de
problema, ya sea estocástico o determinista. A diferencia
de los métodos numéricos que se basan en evaluaciones
en N puntos en un espacio M-dimensional para producir
una solución aproximada, el método de Montecarlo tiene
un error absoluto de la estimación que decrece como
en virtud del teorema del límite central.
6. Teorema del Límite Central
El Teorema del Límite Central o Teorema Central del
Límite indica que, en condiciones muy generales, si Sn es
la suma de n variables aleatorias independientes, entonces
la función de distribución de Sn «se aproxima bien» a una
distribución normal (también llamada distribución
gaussiana, curva de Gauss o campana de Gauss). Así
pues, el teorema asegura que esto ocurre cuando la suma
de estas variables aleatorias e independientes es lo
suficientemente grande
Sea la función de densidad de la distribución
normal definida como
(8)
con una media µ y una varianza σ2. El caso en el que su
función de densidad es , a la distribución se le
conoce como normal estándar.
Se define Sn como la suma de n variables aleatorias,
independientes, idénticamente distribuidas, y con una
media µ y varianza σ2 finitas (σ
2≠0):
(9)
de manera que, la media de Sn es n·µ y la varianza n·σ2,
dado que son variables aleatorias independientes. Con tal
de hacer más fácil la comprensión del teorema y su
posterior uso, se hace una estandarización de Sn como
(10)
para que la media de la nueva variable sea igual a 0 y la
desviación estándar sea igual a 1. Así, las variables Zn
convergerán en distribución a la distribución normal
estándar N (0,1), cuando n tienda a infinito. Como
consecuencia, si Φ (z) es la función de distribución de
N(0,1), para cada número real z:
(11)
Donde Pr( ) indica probabilidad y lim se refiere a límite
matemático.
III. RESULTADOS Y DISCUSIÓN
Se ha realizado un experimento numérico en el que se han
hecho corridas múltiples de generadores de números
aleatorios (Figura 1), creando la función de densidad de
probabilidad para los resultados y se ve que el resultado
es gaussiano como predice la teoría. Esto es exactamente
lo que el análisis de Monte Carlo se supone que debe
hacer. En las situaciones donde se utiliza, las matemáticas
necesarias para desarrollar la distribución de probabilidad
son tan complejas que este método es la única manera de
lograr el entendimiento necesario.
Figura 1. Corridas múltiples de generadores de números aleatorios
En la simulación anterior, generar 100 millones de
variables aleatorias para crear el histograma (50 millones
de variables en MATLAB antes de empezar el modelo, y
50 millones de variables en todos los intervalos de tiempo
en el modelo).
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 207
Figura 2. Modelo en Simulink para comprobación de Teorema de Límite Central usando simulación de MonteCarlo.
El resultado de la ejecución de este modelo con n =
10.000 se muestra en la Figura 3. Tenga en cuenta que la
distribución es casi exactamente gaussiana, con media
cero y varianza como las demandas teorema de límite
central. Por lo tanto, hemos hecho un experimento
numérico en el que se ha hecho corridas múltiples de
generadores de números aleatorios, y se crea la función de
densidad de probabilidad para los resultados y se observa
que el resultado es gaussiana como predice la teoría.
Figura 3. Histograma Resultado, Ilustrando Simulación de Monte Carlo y el Teorema del Límite
Central (distribución de probabilidad)
En las situaciones donde se utiliza, las matemáticas
necesarias para desarrollarla distribución de probabilidad
son tan complejos que este método es la única manera de
lograr el entendimiento necesario.
Es importante ver cómo los parámetros se establecieron
en el cuadro de diálogo para la distribución binomial. Se
utilizó la "banda limitada White Noise", que genera una
variable aleatoria gaussiana en cada paso de tiempo, y
luego se extrajeron de esta una variable aleatoria que es
uno cuando el signo es positivo y -1 si es negativo.
Se utiliza el sgn (signo) box de la Biblioteca de
Matemáticas de Simulink. Se Añade los elementos en el
vector resultante para crear una variable aleatoria que se
encuentra entre y , por lo que se trata de una
distribución binomial. El cuadro de diálogo para la banda
limitada de bloquear el ruido blanco tiene el valor de la
semilla aleatoria establecido en
La semilla debe ser un vector de valores diferentes para
que cada uno de los n / 2 variables aleatorias generadas es
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 208
independiente. A partir de esta discusión, usted debería
ser capaz de ver la forma de crear una simulación que
contiene variables aleatorias, ya sea usando los
generadores de números aleatorios en Simulink o
comandos usando MATLAB para generar números
aleatorios. Sin embargo, se podría pensar en el ejemplo de
que las únicas opciones para las variables aleatorias son
distribuciones uniformes o de Gauss.
Figura 4. Precios Activos en el Mercado de la Vainilla
Al realizar el experimento del método en una Cartera de
simulación (Monte Carlo) utilizando la función
herramientas financieras se llamo a la simulación de la
cartera para simular escenarios de 10000. [3].
Por supuesto, la correlación se conservan se asumió un
horizonte de 6 días hábiles * 22, es decir, seis meses de
vencimiento en el precio de la vainilla y se hizo una
predicción según la información obtenida. [4].
Aplicando el método de Montecarlo se genero el siguiente
histograma, donde observamos el precio día de la vainilla.
De igual manera se genera la apreciación para el precio
anual del mismo vista en la Figura 6.
Todo esto para generar un panorama de pronóstico de
precio en el mercado para la vainilla en un horizonte de
un año hábil.
Figura 5. Precio de la vainilla a diario con pasos de 3 meses
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 209
Figura 6. Precio de la vainilla por año con pasos de 3 meses
Figura 7. Opción de precio de la vainilla por año con pasos de 3 meses
De igual manera el método de Montecarlo muestra su
efectividad al ser comparado con otros métodos más
elaborados [5] y poco prácticos al momento de un
entendimiento simple de las simulaciones [6] como lo
muestra la Figura 8.
Además se puede apreciar como el intervalo de
confidencia absoluta disminuye en el método de
Montecarlo simple [7] y el método de Montecarlo con
control de variable como lo muestra Figura 9.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 210
Figura 8. Comparación de los métodos en el problema del precio de la vainilla
Figura 9. Intervalo de confianza absoluta para los diferentes métodos
IV. CONCLUSIONES
Las funciones de densidad de probabilidad usadas para la
obtención de resultados generan resultados gaussianos
como predice la teoría. Demostrando que Matlab
reproduce exactamente el análisis de Monte Carlo se
supone que debe hacer. En las situaciones donde se
utiliza, las matemáticas necesarias para desarrollar la
distribución de probabilidad son tan complejas que este
método es la única manera de lograr el entendimiento
simple necesario para analizar los modelos desarrollados.
Para el experimento del mercado del precio vainilla se
demostró la efectividad del método en la apreciación y
pronostico de precios, además, de su versatilidad y su
eficacia contra otros métodos como lo muestran las Figura
8 y 9.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 211
V. REFERENCIAS
1. Dagum, Camilo y Estela M. Bee de Dagum.
Introducción a la Econometría. México: Siglo XXI
editores, 2008.
2. Grinstead, Charles M. y J. Laurie Snell. «Central
Limit Theorem.» Grinstead, Charles M. y J. Laurie
Snell. Introduction to Probability. AMS, 1997. 325-
360.
3. http://www.bolsa.es/. http://www.bolsa.es/. 12 de 11
de 2010. 03 de 02 de 2011 <http://www.bolsa.es/>.
4. Landro, Alberto. Elementos de Econometría de los
Fenómenos Dinámicos. Buenos Aires: Ediciones
Cooperativas, 2009.
5. Peña Sánchez de Rivera, Daniel. Fundamentos de
Estadística . Alianza Editorial, 2008.
6. Ricardo Vicente Solé, Susanna C. Manrubia. Orden y
caos en sistemas complejos: fundamentos. Edicions
UPC, 2001.
7. Ropero Moriones, Eva. Manual de estadística
empresarial . Delta Publicaciones, 2009.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 212
NOTA TÉCNICA
ENTORNO DE SIMULACIÓN PARA SISTEMAS DE
COMUNICACIONES INALÁMBRICOS DE ALTA CAPACIDAD
USANDO MATLAB
Candotti, Keila M1 Mavares, Dimas T
2.
(Recibido diciembre 2011, Aceptado mayo 2012) 1 Dpto. de Ingeniería de Ingeniería Electrónica. UNEXPO Vicerrectorado Barquisimeto
2 Egresada de la Maestría en Ingeniería Electrónica, UNEXPO
[email protected], [email protected]
Resumen: En este artículo, se presenta un entorno de simulación desarrollado para un sistema MIMO
multiportadora y de portadora única. El entorno permite simular el proceso de banda base de sistemas que
involucren técnicas de acceso a la capa física tales como CDMA, OFDMA y técnicas de diversidad en transmisión
como OSTBC y V-BLAST. Es posible incluir distintas técnicas de modulación, codificación de canal,
multicanalización y técnicas de acceso múltiple. Mediante la interfaz de usuario del programa, se puede observar
gráficamente el rendimiento del sistema a través de la curva de la tasa de bits errados (BER) en relación a la
energía de bit por densidad de ruido (Eb/No). Como medio de validación de la herramienta, se compararon las
simulaciones con resultados publicados en la literatura para SC-CDMA, sistemas de multiplexación espacial y
sistemas OFDM, encontrando buena correspondencia.
Palabras clave: Sistemas de Comunicaciones/ MIMO/ OFDM/ CDMA/ Simulación de Sistemas de
Comunicaciones.
SIMULATION ENVIRONMENT FOR HIGH CAPACITY
WIRELESS COMUNICATION SYSTEMS USING MATLAB
Abstract: In this paper, a simulation environment for multicarrier and single carrier MIMO systems is presented.
The environment allows simulating the baseband stage of systems involving physical layer access techniques, such
as CDMA and OFDMA, and transmitting diversity techniques, such as OSTBC and V-BLAST. It is possible to
include different modulation techniques, as well as channel coding, multiplexing and multiple access techniques.
Through the GUI, graphical results are shown in terms of bit error rate (BER) against bit energy per noise (Eb/No).
As validation of the tool, simulations were compared with results available in the literature for SC-CDMA, spatial
multiplexing, and OFDM systems, finding a good correspondence.
Keywords: Communication Systems/ MIMO/ OFDM/ CDMA/ Simulation of Communication Systems.
I. INTRODUCCIÓN
Los sistemas de comunicaciones inalámbricos tienen
características particulares dependiendo de la técnica de
acceso que usen, el ancho de banda, la frecuencia de
operación y el uso o no de diversidad, entre otros
aspectos. En el caso particular de las comunicaciones
inalámbricas, tanto los sistemas de 3G (tercera
generación) como los de 4G (cuarta generación), son
exigentes en cuanto a satisfacer los requerimientos de alto
volumen de información. Para lograr este objetivo, es
imprescindible aprovechar los recursos de tiempo y ancho
de banda. Las técnicas de acceso al medio, de
multiplexación espacial y de múltiples entradas y salidas
(MIMO) a través del uso de múltiples antenas en
transmisión y en recepción, juegan un papel fundamental
en alcanzar las capacidades requeridas por los sistemas
4G.
La simulación de sistemas es una importante herramienta
utilizada para la caracterización y análisis de los procesos
en diferentes disciplinas de la ingeniería. Esta estrategia
permite hacer investigación con relativamente pocos
equipos y materiales, además le brinda la oportunidad al
investigador de alcanzar un alto nivel de comprensión
acerca del sistema simulado. Con respecto a los sistemas
de comunicaciones, permanentemente se desarrollan
nuevos entornos de simulación [1][2][3]. En el contexto
de los sistemas de comunicaciones inalámbricas, la
complejidad de las técnicas de acceso como CDMA
(acceso múltiple por división de código) requiere disponer
de herramientas que simulen su comportamiento, como en
[4], en donde se presenta un simulador que implementa
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 213
diversos tipos de modulación para diferentes sistemas
CDMA, utilizando códigos de esparcimiento como
ortogonales. Por otra parte, el uso de múltiples antenas
transmisoras y receptoras ofrece la posibilidad de obtener
altas tasas de transmisión con respecto a un sistema de
antena única. En este contexto, en [5] se simula el
rendimiento de la técnica de multiplexación espacial V-
BLAST (espacio tiempo de capas verticales de la Bell
Labs) a través del algoritmo descrito en [6], para ocho
antenas transmisoras y doce antenas receptoras logrando
mejorar la eficiencia espectral del sistema.
Para lograr el uso eficiente del espectro en las redes
inalámbricas 4G, los sistemas OFDM (multiplexación
por división ortogonal de frecuencia) se plantean como la
principal alternativa para dar soporte a este tipo de
sistemas. Esta tecnología permite la transmisión de datos
en subportadoras a diferentes frecuencias, así como la
cancelación de la ISI (interferencia entre símbolos) con la
adición del CP (prefijo cíclico). En [7] se presenta la
simulación de un sistema OFDM bajo el estándar IEEE
802.16, implementando Matlab®. Se utiliza inserción de
pilotos, inserción de guardas y la adición de prefijo
cíclico, se modela la fuente de datos, el
modulador/transmisor OFDM, el canal multitrayecto, el
demodulador/receptor OFDM y se realiza la medición de
la BER.
En el contexto de los sistemas de comunicaciones,
algunos componentes se pueden simular utilizando el
toolbox de comunicaciones de Matlab®. Sin embargo,
para considerar sistemas más complejos, se requiere la
programación de otras funciones adicionales. En este
trabajo se presenta un entorno de simulación bajo
Matlab® para sistemas OFDM, sistemas CDMA, sistemas
con multiplexación espacial V-BLAST y sistemas MIMO
usando OSTBC (código ortogonales espacio-tiempo por
bloques). La herramienta permite la simulación del
proceso de banda base utilizando distintas técnicas de
modulación, codificación de canal, multicanalización y
acceso múltiple. Desde la interfaz de usuario o desde el
command window de Matlab® se puede observar
gráficamente como es el rendimiento de determinado
sistema a través de la curva de la BER en relación a
Eb/No.
El presente artículo se organiza como sigue. En la
siguiente sección se presenta el desarrollo del trabajo, el
cual se divide en apartados. En el apartado 1 se describen
las tecnologías implementadas en la simulación. En el
apartado 2, se establece la metodología a seguir para
realizar las simulaciones, dentro de la misma se definen
los sistemas a estudiar. En el apartado 3 se presenta el
resultado de las simulaciones a través de las curvas de la
BER respecto a Eb/No para los diferentes sistemas.
Finalmente, en la sección III se presentan las
conclusiones.
II. DESARROLLO
1. Aspectos Teóricos
1.1. Acceso Múltiple por División de Código:
La técnica CDMA es una tecnología digital de
transmisión que permite a un número de usuarios acceder
a un canal de radiofrecuencia, asignando un código
diferente a cada usuario. La capacidad del sistema
dependerá de muchos factores. Cada dispositivo que
utiliza CDMA está programado con un pseudocódigo, el
cual se usa para extender una señal de baja potencia sobre
un espectro de frecuencias amplio. La estación base
utiliza el mismo código para desensanchar y reconstruir la
señal original. Los códigos asociados a otros usuarios
permanecen extendidos, indistinguibles del ruido de
fondo.
Dentro de la tecnología CDMA, existen dos familias de
códigos ampliamente empleadas, los códigos PN
(pseudoaleatorios) y los códigos ortogonales. Los códigos
PN son secuencias pseudoaleatorias generadas por un
registro de desplazamiento realimentado. Los más
utilizados se generan a través de un registro de
desplazamiento de línea. Las secuencias Walsh son los
códigos ortogonales más comúnmente utilizados para el
ensanchamiento del espectro y para la separación de
canales o de usuarios en sistemas W-CDMA [8].
1.2. Multiplexión Ortogonal por División de
Frecuencias
OFDM es una técnica que consiste en enviar la
información modulada sobre un conjunto de portadoras de
diferentes frecuencias. Normalmente se realiza el
procesamiento correspondiente a OFDM tras pasar la
señal por un codificador de canal con el objetivo de
corregir los errores producidos en la transmisión. Debido
al problema técnico que supone la generación y la
detección en tiempo continuo de los cientos de
portadoras equiespaciadas que forman una palabra
OFDM, los procesos de modulación y demodulación se
realizan en tiempo discreto mediante la IDFT
(Transformada Inversa de Fourier Discreta) y la DFT
(Transformada de Fourier Discreta) respectivamente.
En OFDM, la data se distribuye sobre un generalmente
largo número de portadoras que son espaciadas en
determinados rangos de frecuencias. Este espaciado
provee la ortogonalidad en esta técnica, al permitir la
recepción de cada subportadora sin interferencia por parte
de las restantes subportadoras. En la Figura 1 se muestra
un diagrama de bloques de un sistema OFDM. En el
transmisor, la señal es definida en el dominio de la
frecuencia. Cada portadora OFDM corresponde a un
elemento del espectro de la transformada de Fourier.
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 214
Figura 1. Diagrama esquemático de un sistema OFDM.
Con el objetivo de evitar la interferencia íntersimbólica
causada por la dispersión de retardo del canal
multitrayecto, se introduce un intervalo de guarda. En el
receptor se utiliza un ecualizador para corregir las
variaciones de amplitud y fase introducida por el canal.
El intervalo de guarda puede consistir de información
nula, es decir, de ausencia de señal. En ese caso, sin
embargo, es posible que se genere el problema de una
interferencia entre portadoras (ICI). La ICI es un tipo de
interferencia generada por una subportadora sobre alguna
otra subportadora. En presencia de ICI, la señal OFDM
puede perder la ortogonalidad entre subportadoras. Para
evitar tanto la ICI como la ISI, el intervalo de guarda se
obtiene extendiendo cíclicamente la palabra OFDM en el
periodo de guarda [9].
1.3. Multiplexación espacial
Foschini et. al. [6] propusieron el uso del multiplexación
espacial mediante la arquitectura espacio-tiempo por
capas de la Bell Labs (BLAST) para explotar los sistemas
de múltiples antenas. El objetivo de la técnica de
multiplexación espacial, a diferencia de la codificación
espacio-temporal, es maximizar la tasa de transmisión, es
decir, la eficiencia espectral. En esta técnica se transmiten
flujos de información independientes por cada antena,
ocupando todos ellos el mismo ancho de banda y el
mismo “slot” temporal. Gracias a la decorrelación entre
canales producida por el multicamino y al conocimiento
del canal en el receptor, es posible separar los distintos
flujos de información. Así en un sistema M×N, M
símbolos independientes se transmiten simultáneamente
en un periodo de símbolo, luego la tasa del código para
una longitud de trama unitaria es M.
2. Materiales y Métodos:
Como primer paso del procedimiento establecido, se
realizó una revisión del toolbox de comunicaciones de
Matlab®. Como resultado, se obtuvo un listado de
funciones ya disponibles utilizables en el proyecto, como
por ejemplo:
- randint: generación de números aleatorios.
- normrnd: genera vectores o matrices con una
distribución normal.
- convenc: código convolucional.
- poly2trellis: genera la estructura trellis a partir del
polinomio generador que utiliza la función convenc para
codificar.
A continuación, se definieron los sistemas a simular con
sus respectivos diagramas de bloques y de flujo: SISO
(única entrada – única salida) de portadora única, SISO-
OFDM, MIMO-OFDM con códigos ortogonales espacio-
tiempo (OSTBC) y espacio-frecuencia (OSFBC), SISO-
CDMA y V-BLAST. Se construyó el código de los
programas necesarios para cada bloque de los sistemas
mencionados. Para la simulación del canal radio, se
construyó una función en lenguaje C como un archivo
ejecutable de Matlab® para obtener la convolución de la
señal transmitida con la respuesta impulsiva del canal
multitrayecto variante en el tiempo. Posteriormente, se
diseñó una interfaz de usuario que permite ejecutar el
programa de una forma amigable.
3. Resultados y discusión
El entorno de simulación aquí presentado permite estudiar
sistemas SISO de portadora única, SISO-OFDM, SISO-
CDMA, V-BLAST y MIMO-OFDM con OSTBC y
OSFBC, donde se implementó específicamente el código
de Alamouti y el código ortogonal esporádico de tasa ¾
para cuatro antenas transmisoras [10]. En cada uno de
estos sistemas, se puede utilizar cualquiera de los
siguientes sistemas de modulación: BPSK, QPSK, 8PSK,
16PSK, 16QAM y 64QAM. Como sistema de
codificación de canal se puede incluir codificación
convolucional. Como canal radio se consideran canales
multitrayecto definidos en la literatura, o con perfil
potencia – retardo (PDP) definido por el usuario, con la
sola limitación de que la estadística de cada multitrayecto
obedezca a la distribución de Rayleigh. El ruido aditivo se
tomó como blanco. En general, los resultados son
presentados a través de curvas de la BER en función de
X0,1
X1,1
.
.
.
.
XN-1,1
CP D/A
I
D
F
T
M
U
X
.
.
.
.
.
.
g(;t) A/D + CP
D
E
M
U
X
D
F
T
.
.
.
.
.
.
y0,1
y1,1
.
.
.
.
yN-1,1
ñ(t)
S[k] S(t) r(t) r[k]
TRANSMISOR RECEPTOR CANAL
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 215
Eb/No, pero es posible utilizar las funciones del entorno
para considerar otras figuras de mérito. Adicionalmente,
se incluye una rutina asistente al diseño de un sistema
OFDM.
A continuación, se presentan los resultados de algunas
simulaciones realizadas con el entorno de simulación. El
objetivo de esta exposición es la de mostrar algunas de las
capacidades y la versatilidad del entorno construido. En la
Figura 2 se muestran los resultados de la simulación para
un sistema SISO-OFDM sin entrelazado y un sistema
SISO-OFDM con entrelazado. Se observa un mejor
rendimiento del sistema cuando se utiliza el entrelazado,
notando una disminución de la BER. La simulación se ha
realizado con un canal correlado (utilizando un filtro
Doppler) con una profundidad del desvanecimiento
medida en número de muestras del canal (100 muestras
para un intercalado de 100 bits). La profundidad del
entrelazado se calcula como el producto de la profundidad
del desvanecimiento y el número de bits por símbolo. En
este caso, el número de bits por símbolo es igual a uno
para modulación BPSK.
Figura 2. Rendimiento de un Sistema SISO-OFDM sin entrelazado y un SISO-OFDM con entrelazado.
La implementación de códigos de bloque ortogonales en
Matlab se realizó tanto con OSTBC como con OSFBC.
En caso de utilizarse dos antenas transmisoras con el
código espacio-tiempo de Alamouti, se transmiten dos
señales simultáneas desde dos antenas en un periodo de
símbolo, en el siguiente periodo de símbolo se transmite
las mismas dos señales pero codificadas. La codificación
también se puede hacer en espacio-frecuencia pero en
lugar de dos periodos de símbolos adyacentes se usarían
dos subportadoras adyacentes [11]. En la codificación
espacio-tiempo, el canal se mantiene constante durante
dos intervalos de tiempo, mientras que en la codificación
espacio frecuencia, el canal es constante en dos
subportadoras sucesivas. En la figura 3 se muestran los
resultados de la simulación para ambos sistemas usando el
código de Alamouti. Se observa la misma curva de la
BER respecto a Eb/No para ambos tipo de codificación
ortogonal en presencia de un canal plano.
En la Figura 4 se muestra el rendimiento de un sistema
SISO-OFDM para diferentes longitudes del prefijo
cíclico, un sistema CDMA utilizando un receptor RAKE
con códigos PN u ortogonales, y un sistema V-BLAST
con detección a través de cancelación sucesiva de
interferencias con forzado a cero. El canal utilizado para
la simulación presentada en esta figura fue un SUI tipo IV
de [12] con un τrms (dispersión de retardo) de 1257 ns,
típico de ambientes externos. En el caso de los sistemas
OFDM, se puede observar que la BER aumenta al reducir
la longitud del CP, debido a la introducción de ISI. Se
muestran también resultados relativos a un sistema SISO-
CDMA utilizando códigos de esparcimiento ortogonales o
pseudoleatorios, así como un receptor RAKE, en
presencia de ocho usuarios. Se puede observar la
variación del rendimiento al utilizar diferentes tipos de
códigos de esparcimiento. Adicionalmente, se pueden
observar resultados relativos a un sistema V-BLAST con
dos antenas transmisoras y cuatro antenas receptoras.
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 216
Figura 4. Rendimiento de diferentes tipos de sistemas.
III. CONCLUSIONES
1. Se construyó un entorno de simulación para sistemas
de comunicaciones inalámbricos, multiportadora o
de portadora única, con una o más antenas
transmisoras o receptoras, el cual permite simular
técnicas de modulación, de acceso y de diversidad
ampliamente utilizadas en la actualidad.
2. Utilizando esta herramienta, es posible simular
sistemas SISO de portadora única, SISO-CDMA,
SISO-OFDM, MIMO-OFDM y V-BLAST, tomando
como figura de mérito la tasa de bits errados.
3. El entorno de simulación se desarrolló bajo Matlab®
y puede ser utilizado en forma de comandos desde la
línea de comandos de Matlab® o desde una interfaz
Figura 3. Rendimiento de sistemas MISO y MIMO con OSTBC y OSFBC Alamouti
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 217
de usuario.
IV. REFERENCIAS
1. Tsirakakis, G. and Clarkson, T. Simulation tools for
multilayer fault restoration. IEEE
Communications Magazine, vol 47, issue 3, pp. 128-
134. March 2009.
2. Gao Y., Zhang X., Dacheng Y. and Jiang Y. Unified
simulation evaluation for mobile broadband
technologies. IEEE Communications Magazine, vol
47, issue 3, pp. 142-149. March 2009.
3. Kasch, W., Ward, J. and Andrusenko, J.
Wireless network modeling and simulation
tools for designers and developers. IEEE
Communications Magazine, vol 47, issue 3, pp. 120-
127. March 2009.
4. Barbancho, P. A. y Entrambasaguas, M. J.
Simulador CDMA para comunicaciones móviles.
Trabajo de Grado de Ingeniería. Universidad de
Málaga. Ingeniería de Telecomunicación. España.
2000.
5. Yapici, Y. V-BLAST/MAP: A new symbol
detection algorithm for MIMO channels. Master
Thesis. Institute of Engineering and Science of
Bilkent University. Turkey. 2005.
6. Wolniansky, P. y Foschini, G.V-BLAST: An
architecture for realizing very high data rates
over the rich-scattering wireless channel. Bell
Lab. Tech. J.,vol. 1,N. 2, pp. 41-59, 1996.
7. Hasan, M. Performance evaluation of
WIMAX/IEEE 802.16 OFDM physical layer.
Master Thesis. Helsinki University of Technology.
Espoo. Finland. 2007.
8. Molisch, F. A. Wireless Communications. Editorial
John Wiley & Sons. Inglaterra 2006.
9. Van, N. R. y Prasad, R. OFDM for Wireless
Multimedia Communications. Artech House
Editorial. Boston. 2000.
10. Tarokh V., Jafarkhani H., and Calderbank A. Space-
time block coding for wireless communications:
performance results. IEEE Journal on Selected
Areas in Communications, vol. 17, pp. 451–460,
Mar. 1999.
11. Mavares, D., and Torres, R. Space-time code
selection for transmit antenna diversity systems. IEEE Transactions on Vehicular Technology, vol.
57, no1, Jan 2008. pp. 620-629.
12. Hari. K. Interim channel models for G2 MMDS
fixed wireless applications. IEEE 802.16 working
group meeting, Tampa Fl, Nov 2000.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 218
NORMAS DE PUBLICACIÓN
“Universidad, Ciencia y Tecnología” (UCT), es una
publicación, indizada y arbitrada, que se edita en cuatro
números anuales que constituyen un volumen, siendo
marzo, junio, septiembre y diciembre los meses de
publicación. La revista está destinada a dar a conocer,
dentro y fuera del país, las realizaciones científicas y
tecnológicas de la UNEXPO, así como las que se realicen
en otras universidades y centros de investigación
industrial en el país y en el exterior, en las especialidades
de Ingeniería Eléctrica, Ingeniería Electrónica, Ingeniería
Metalúrgica, Ingeniería Mecánica, Ingeniería Industrial,
Bioingeniería, Ambiente, Ciencias de la Ingeniería,
Mecatrónica, Telecomunicaciones, Rural, Ferroviaria,
Energética e Hidráulica y áreas conexas.
1. Condiciones Generales
Las contribuciones técnicas que se publiquen deberán
estar enmarcadas en los requisitos fijados por la presente
norma y aceptadas por el Comité Editorial.
Los trabajos publicados en UCT son de su propiedad, con
las excepciones que se estipulan en el Convenio de
Publicación y no podrán ser reproducidos por ningún
medio sin la autorización escrita del Editor.
Los autores deberán indicar nombre y apellido, título
académico, lugar de trabajo, cargo que desempeñan y
dirección completa, incluyendo teléfono, fax y correo
electrónico.
2. Contribuciones
El Comité Editorial acepta seis tipos de contribuciones
para publicación: Artículos Técnicos, Artículos de
Ingeniería Aplicada, Comunicaciones, Revisiones, Notas
Técnicas y Cartas al Editor
2.1. Artículos Técnicos
Son aquellas contribuciones que además de informar
novedades y adelantos en las especialidades que abarca
UCT, son el resultado de un trabajo de investigación, bien
sea bibliográfico o experimental, en el que se han
obtenido resultados, se discutieron y se llegaron a
conclusiones que signifiquen un aporte innovativo en
Ciencia y Tecnología.
2.2. Artículos de Ingeniería Aplicada
Son el resultado de trabajos de grado (Especialización,
Maestría y Doctorado) o de investigación en el ámbito
universitario e industrial, bien sea experimental y/o no
experimental, que signifiquen un aporte tecnológico para
la resolución de problemas específicos en el sector
industrial.
2.3. Comunicaciones
Son reportes de resultados originales de investigaciones
de cualquier campo de las ciencias básicas o aplicadas,
dirigidas a una audiencia especializada. Podrán ser hasta
de ocho (8) páginas.
2.4. Revisiones
Son artículos solicitados por invitación del Comité
Editorial y comentan la literatura más reciente sobre un
tema especializado
2.5. Notas Técnicas
Son aquellas contribuciones producto de investigaciones
destinadas a informar novedades y/o adelantos en las
especialidades que abarca UCT. Podrán presentarse en
una extensión máxima de diez (10) páginas, incluyendo
un máximo de 10 figuras y tablas, las que deberán
cumplir las condiciones que para ellas se establece en el
ítem 5.
2.6. Cartas al Editor
Son aquellas que reportan una idea sin entrar en detalles.
El Comité Editorial se reserva el derecho de seleccionar
los Artículos Técnicos y los Artículos de Ingeniería
Aplicada consignados para publicación, después de
consultar por lo menos a dos árbitros.
Los artículos remitidos para su publicación tienen que ser
inéditos. No serán aceptados aquellos que contengan
material que haya sido reportado en otras publicaciones o
que hubieran sido ofrecidos por el autor o los autores a
otros órganos de difusión nacional o internacional para su
publicación.
3. Presentación
Todas las contribuciones deberán prepararse en
procesador de palabras Microsoft Office Word® tipeadas
a una sola columna, a espacio sencillo, en papel tamaño
carta, tipo de letra Times New Roman, tamaño 10,
justificado, con un espaciado (6 puntos) entre párrafos, sin
sangría y con márgenes de por lo menos 2,5 cm.
Anexando su versión digital.
Los Artículos Técnicos y los de Ingeniería Aplicada
deberán tener una extensión máxima de 15 páginas,
incluyendo un máximo de 10 ilustraciones (figuras +
tablas) (Ver ítem 5)
4. Composición
Los Artículos Técnicos y de Ingeniería Aplicada deberán
ordenarse en las siguientes secciones: Título en español,
Nombre completo de los autores, Resumen en castellano y
palabras clave, Titulo en inglés, Resumen en inglés
(Abstract) y “Key words”, Introducción, Desarrollo,
Conclusiones, Referencias Bibliográficas.
a) Título en español. Debe ser breve, preciso y
codificable, sin abreviaturas, paréntesis, fórmulas ni
caracteres desconocidos, que contenga la menor cantidad
de palabras que expresen el tema que trata el artículo y
pueda ser registrado en índices internacionales. El autor
deberá indicar también un título más breve para ser
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 219
utilizado como encabezamiento de cada página.
b) Nombre completo de los autores. Además de indicar
nombre y apellido de los autores, en página aparte se
citará título académico, lugar de trabajo, cargo y dirección
completa, incluyendo teléfono, fax y correo electrónico.
c) Resumen en castellano y palabras clave, señalando
en forma concisa los Objetivos, Metodología, Resultados
y Conclusiones más relevantes del estudio, con una
extensión máxima de 200 palabras. No debe contener
abreviaturas ni referencias bibliográficas y su contenido
se debe poder entender sin tener que recurrir al texto,
tablas y figuras. Al final del resumen incluir de 3 a 10
palabras clave que describan el tema del trabajo, con el fin
de facilitar la inclusión en los índices internacionales.
d) Título, Resumen y Palabras clave en inglés
(Abstract y key words). Es la versión en inglés de Título,
Resumen y Palabras Clave en castellano.
e) INTRODUCCIÓN. En ella se expone en forma
concisa el problema, el objetivo del trabajo y se resume el
fundamento del estudio y la metodología utilizada. Se
debe hacer mención además al contenido del Desarrollo
del artículo.
f) DESARROLLO. Se presenta en diversos capítulos.
Métodos y Materiales: donde se describe el diseño
de la investigación y se explica cómo se llevó a la
práctica, las especificaciones técnicas de los
materiales, cantidades y métodos de preparación.
Resultados: donde se presenta la información y/o
producto pertinente a los objetivos del estudio y los
hallazgos en secuencia lógica
Discusión de resultados: donde se examinan e
interpretan los resultados y se sacan las conclusiones
derivadas de esos resultados con los respectivos
argumentos que las sustentan.
g) CONCLUSIONES. En este capítulo se resume, sin los
argumentos que las soportan, las conclusiones extraídas
en la Discusión de los Resultados, expresadas en frases
cortas, sucintas.
h) REFERENCIAS BIBLIOGRÁFICAS (o
simplemente REFERENCIAS). Debe evitarse toda
referencia a comunicaciones y documentos privados de
difusión limitada, no universalmente accesibles. Las
referencias deben ser citadas y numeradas
secuencialmente en el texto con números arábigos entre
corchetes. (Sistema Orden de Citación) Al final del
artículo se indicarán las fuentes, como se expresa a
continuación, en el mismo orden en que fueron citadas en
el texto, según se trate de:
Libros: Autor (es) (apellido e iniciales de los nombres),
título del libro, número de tomo o volumen (si hubiera
más de uno), número de edición (2da en adelante), lugar
de edición (ciudad), nombre de la editorial, año de
publicación, número(s) de página(s).
Artículos de revistas: Autor(es) del artículo (apellido e
iniciales de los nombres), título del artículo, nombre de la
revista, número del volumen, número del ejemplar, fecha
de publicación, número(s) de página(s).
Trabajos presentados en eventos: Autor(es), (apellido e
iniciales de los nombres), título del trabajo, nombre del
evento, organizador del evento, lugar, fecha, número(s) de
página(s).
Publicaciones en medios electrónicos: si se trata de
Información consultada en Internet, se consignarán todos
los datos como se indica para libros, artículos de revista y
trabajos presentados en eventos, agregando página Web y
fecha de consulta; si se trata de otros medios electrónicos,
se indicarán los datos que faciliten la localización de la
publicación.
En cualquiera de los casos, si los autores fueran más de
tres, citar solamente al primero y añadir a continuación “et
al”.
5. Ilustraciones. Incluir en el texto un máximo de 10
(diez) ilustraciones (Figuras + Tablas)
5.1. Figuras
Todos los gráficos, dibujos, fotografías, esquemas
deberán ser llamados figuras, numerados con números
arábigos en orden correlativo, con la leyenda explicativa
que no se limite a un título o a una referencia del texto en
la parte inferior y ubicadas inmediatamente después del
párrafo en que se citan en el texto.
Las figuras deben ser en original, elaboradas por los
autores. No se aceptan figuras escaneadas. Las fotografías
deben ser nítidas y bien contrastadas, sin zonas demasiado
oscuras o extremadamente claras.
5.2. Tablas
Las tablas deberán numerarse con números romanos y
leyendas en la parte superior y ubicarse también
inmediatamente después del párrafo en que se citan en el
texto. Igual que para las figuras, las leyendas deberán ser
explicativas y no limitarse a un título o a una referencia
del texto.
6. Unidades
Se recomienda usar las unidades del Sistema Métrico
Decimal. Si hubiera necesidad de usar unidades del
sistema anglosajón (pulgadas, libras, etc.), se deberán
indicar las equivalencias con el Sistema Métrico Decimal.
7. Siglas y abreviaturas
Si se emplean siglas y abreviaturas poco conocidas, se
indicará su significado la primera vez que se mencionen
en el texto y en las demás menciones bastará con la sigla o
la abreviatura.
8. Fórmulas y Ecuaciones
Los artículos que contengan ecuaciones y fórmulas en
caracteres arábigos deberán ser generadas por editores de
ecuaciones actualizados con numeración a la derecha.
Top Related