Post on 04-Feb-2018
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 1/22
ANTECEDENTES
Las primeras explicaciones teóricas sobre el cerebro y el pensamiento fueron dadas
por algunos filósofos griegos, como Platón y Aristóteles, quienes fueron apoyados después por Descartes y filósofos empiristas.
Alan Turing, en 1!", fue el primero en estudiar el cerebro como una forma de #er el mundo de la computación, pero quienes primero concibieron algunos fundamentos de la
computación neuronal fueron $arren %c&ulloc' y $alter Pitts, (stos dos in#estigadores
propusieron un modelo matem)tico de neurona. (n este modelo cada neurona estaba dotadade un con*unto de entradas y salidas. &ada entrada est) afectada por un peso. La acti#ación
de la neurona se calcula mediante la suma de los productos de cada entrada y la salida es
una función de esta acti#ación.
Después otras teor+as in+ciales fueron expuestas por Donald ebb, quien en 1-definió dos conceptos muy importantes y fundamentales que 'an pesado en el campo de las
redes neuronales
• (l aprendi/a*e se locali/a en las sinapsis o conexiones entre las neuronas.
• La información se representa en el cerebro mediante un con*unto de neuronas
acti#as o inacti#as.
Pero solo 'asta 10 2ran3 4osenblatt comen/ó el desarrollo del Perceptrón, esta esla red neuronal m)s antigua5 utili/)ndose 'oy en d+a para aplicación como identificador de
patrones. (ste modelo era capa/ de generali/ar, es decir, después de 'aber aprendido unaserie de patrones pod+a reconocer otros similares, aunque no se le 'ubiesen presentado en elentrenamiento.
%)s adelante en 10 $idro6 desarrolló la Teor+a sobre la Adaptación 7euronal y
el Adaline 8Adaptati#e Linear 7euron9 y el %adaline 8%ultiple Adaline9. (s la primeraaplicación de las redes a problemas reales filtros adaptati#os para eliminar ecos en las
l+neas telefónicas.
:tep'en ;rossberg en 1" reali/ó una red A#alanc'a, que consist+a en elementos
discretos con acti#idad que #ar+a en el tiempo que satisface ecuaciones diferenciales
continuas, para resol#er acti#idades como reconocimiento continuo de 'abla y aprendi/a*ede los bra/os de un robot.
asta 1<= el crecimiento se frenó pero surgieron luego in#estigaciones sobre redes
como la de %ar#in %ins3y y :eymour Papert, después >ames Anderson desarrolló elAsociador Lineal, en >apón ?uni'i3o 2u3us'imi3a y Teu#o ?o'onen que se centraron en
4edes 7euronales para el reconocimiento de patrones5 en @:A >o'n opfield también
reali/ó importantes in#estigaciones.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 2/22
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 3/22
Las 4edes 7euronales Artificiales, 47A 8Artificial 7eural 7et6or3s9 est)n
inspiradas en las redes neuronales biológicas del cerebro 'umano. (st)n constituidas por
elementos que se comportan de forma similar a la neurona biológica en sus funciones m)s
comunes. (stos elementos est)n organi/ados de una forma parecida a la que presenta elcerebro 'umano.
Las 47A al margen de HparecerseH al cerebro presentan una serie de caracter+sticas propias del cerebro. Por e*emplo las 47A aprenden de la experiencia, generali/an de
e*emplos pre#ios a e*emplos nue#os y abstraen las caracter+sticas principales de una serie
de datos.
• Aprender adquirir el conocimiento de una cosa por medio del estudio, e*ercicio o
experiencia. Las 47A pueden cambiar su comportamiento en función del entorno.
:e les muestra un con*unto de entradas y ellas mismas se a*ustan para producir unas
salidas consistentes.
• ;enerali/ar extender o ampliar una cosa. Las 47A generali/an autom)ticamente
debido a su propia estructura y naturale/a. (stas redes pueden ofrecer, dentro de un
margen, respuestas correctas a entradas que presentan pequeas #ariaciones debidoa los efectos de ruido o distorsión.
• Abstraer aislar mentalmente o considerar por separado las cualidades de un ob*eto.
Algunas 47A son capaces de abstraer la esencia de un con*unto de entradas queaparentemente no presentan aspectos comunes o relati#os.
Enfoque Biológico:
La neurona es la unidad fundamental del sistema ner#ioso y en particular delcerebro.
&ada neurona es una simple unidad procesadora que recibe y combina seales desdey 'acia otras neuronas. :i la combinación de entradas es suficientemente fuerte la salida de
la neurona se acti#a. La siguiente figura muestra las partes que constituyen una neurona.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 4/22
(l cerebro consiste en uno o #arios billones de neuronas densamente
interconectadas.
(l axón 8salida9 de la neurona se ramifica y est) conectada a las dendritas 8entradas9
de otras neuronas a tra#és de uniones llamadas sinapsis. La eficacia de la sinapsis esmodificable durante el proceso de aprendi/a*e de la red.
Elemento Procesador:
(n las 4edes 7euronales Artificiales, 47A, la unidad an)loga a la neurona
biológica es el elemento procesador,P( 8process element9. @n elemento procesador tiene
#arias entradas y las combina, normalmente con una suma b)sica. La suma de las entradases modificada por una función de transferencia y el #alor de la salida de esta función de
transferencia se pasa directamente a la salida del elemento procesador.
La salida del P( se puede conectar a las entradas de otras neuronas artificiales 8P(9
mediante conexiones ponderadas correspondientes a la eficacia de la sinapsis de las
conexiones neuronales.
La siguiente figura representa un elemento procesador de una red neuronal artificial
implementada en un ordenador.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 5/22
@na red neuronal consiste en un con*unto de unidades elementales P( conectadas de
una forma concreta. (l interés de las 47A no reside solamente en el modelo del elementoP( sino en las formas en que se conectan estos elementos procesadores. ;eneralmente los
elementos P( est)n organi/ados en grupos llamados ni#eles o capas. @na red t+pica consiste
en una secuencia de capas con conexiones entre capas adyacentes consecuti#as.
(xisten dos capas con conexiones con el mundo exterior. @na capa de entrada,
buffer de entrada, donde se presentan los datos a la red, y una capa buffer de salida quemantiene la respuesta de la red a una entrada. (l resto de las capas reciben el nombre de
capas ocultas. La siguiente figura muestra el aspecto de una 4ed 7euronal Artificial.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 6/22
Arquitecturas de Redes Neuronales Artificiales:
La arquitectura de las redes neuronales artificiales 'ace referencia a la organi/ación
y disposición de las neuronas en la red formando capas de procesadores interconectadosentre s+ a tra#és de sinapsis unidireccionales.
Las arquitecturas neuronales pueden clasificarse atendiendo a distintos criterios
a9 :egCn el nCmero de capas
4edes 7euronales %onocapas se corresponde con la red neuronal m)s sencilla
ya que tiene una capa de neuronas que proyectan las entradas a una capa de
neuronas de salida donde se reali/an diferentes c)lculos, se establecen
conexiones laterales. @na aplicación t+pica de este tipo de redes es como
memorias asociati#as y clusteri/aciones.
4edes 7euronales %ulticapas es una generali/ación de la anterior existiendo uncon*unto de capas intermedias entre la entrada y la salida 8capas ocultas9. La
capa a la que pertenece la neurona puede distinguirse mediante la obser#ación
del origen de las seales que recibe y el destino de la seal que genera. (ste tipo
de red puede estar total o parcialmente conectada.
b) Según el fujo de datos en la red
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 7/22
Redes Neuronales Unidireccionales o de Propagación Hacia
Adelante (Feedorard)! en esta red la propagación de las
se"ales se produce en un sentido sola#ente$ no e%istiendo la
posibilidad de reali#entaciones$ es decir$ la inor#ación circula
en un único sentido$ desde las neuronas de entrada &acia lasneuronas de salida de la red' ógica#ente estas estructuras no
tienen #e#oria'
Redes Neuronales de Propagación Hacia Atrs (Feedbac*)! esta
red +iene caracteri,ada por la e%istencia de la,os de
reali#entación' -stos la,os pueden ser entre neuronas de
dierentes capas$ neuronas de la #is#a capa (cone%iones
laterales) o$ #s sencilla#ente$ entre una #is#a neurona' as
redes de propagación &acia atrs .ue presentan la,os cerrados
se deno#inan siste#as recurrentes' -sta estructura recurrente
la &ace especial#ente adecuada para estudiar la din#ica de
siste#as no lineales'
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 8/22
c9 :egCn el tipo de respuesta de la red
4edes 'eteroasociati#as. (stas redes al asociar información de entrada con
información de salida, precisan al menos de dos capas, una para captar y retener
la información de entrada y otra para mantener la salida con la información
asociada.(n cuanto a su conecti#idad existen redes 'eteroasociati#as con conexiones
'acia delante o feedfor6ard, redes con conexiones 'acia atr)s o feedbac3 y
redes con conexiones laterales. 4edes utili/adas para tareas de clasificación,
redes empleadas para la asociación de patrones, etc.
4edes autoasociati#as. (ste tipo de redes asocia una información de entrada con
el e*emplar m)s parecido de los almacenados conocidos por la red5 :e pueden
implementar con una sola capa de neuronas. (n cuanto a la conecti#idad en este
tipo de redes existen conexiones laterales entre las neuronas y en algunos casos
conexiones autorrecurrentes. :uelen emplearse en tareas de filtrado deinformación, para anali/ar las relaciones de #ecindad entre los datos
considerados 8clustering9 y para resol#er problemas de optimi/ación
d9 :egCn el grado de conexión
4edes 7euronales Totalmente &onectadas en este caso todas las neuronas de
una capa se encuentran conectadas con las de la capa siguiente 8redes no
recurrentes9 o con las de la anterior 8redes recurrentes9.
4edes Parcialmente &onectadas en este caso no se da la conexión total entre
neuronas de diferentes capas.
odelos de Redes Neuronales Artificiales:
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 9/22
(n todo modelo artificial de neurona se tienen cinco elementos b)sicos
a9 &on*unto de entradas 8I *9. (stas pueden ser pro#enientes del exterior o de otras
neuronas artificiales.
b9 Pesos sin)pticos o con*unto de conexiones 8$ i*9. Determinan el comportamiento dela neurona. 4epresentan el grado de comunicación entre la neurona artificial * y la
neurona artificial i.
(l peso sin)ptico define la fuer/a de una conexión sin)ptica entre dos neuronas, la
neurona presin)ptica i y la neurona postsin)ptica *. Los pesos sin)pticos puedentomar #alores positi#os, negati#os o cero. (n caso de una entrada positi#a, un peso
positi#o actCa como excitador, mientras que un peso negati#o actCa como in'ibidor.
(n caso de que el peso sea cero, no existe comunicación entre el par de neuronas.
%ediante el a*uste de los pesos sin)pticos la red es capa/ de adaptarse a cualquier
entorno y reali/ar una determinada tarea.
c9 :umador o regla de propagación 8i9. :e encarga de sumar todas las entradas
multiplicadas por los respecti#os pesos sin)pticos, es decir, integra la información
pro#eniente de las distintas neuronas artificiales y proporciona el #alor del potencial postsin)ptico de la neurona i.
d9 2unción de acti#ación no lineal 8Ai9. Pro#ee el estado de acti#ación actual de laneurona i en base al potencial resultante y al estado de acti#ación anterior de la
neurona. :in embargo, en la mayor+a de los modelos se suele ignorar el estado
anterior de la neurona, definiéndose el estado de acti#ación en función del potencial
resultante para limitar la amplitud de la salida de la neurona.
e9 2unción de :alida 8Ei9. 4epresenta el #alor de la salida actual de la neurona i, en
base al estado de acti#ación de la neurona.
Las entradas y salidas de una neurona pueden ser clasificadas en dos grandes
grupos, binarias o continuas. Las neuronas binarias 8digitales9 sólo admiten dos #alores posibles. (n general en este tipo de neurona se utili/an los siguientes dos alfabetos
JG,1K o J1,1K. Por su parte, las neuronas continuas 8analógicas9 admiten #alores dentro
de un determinado rango, que en general suele definirse como 1, 1M.
La selección del tipo de neurona a utili/ar depende de la aplicación y del modelo
a construir.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 10/22
/0
/1
/j
2 Hi
3i0
3i1
3ij
Ai 4i
-ntradas
PesosRegla de Propagación
Función de Acti+aciónFunción de Salida
7(@4N7A i
(xiste una serie de modelos de redes neuronales artificiales, algunos de ellos son
• Perce!trón: (s la red m)s antigua creada por 2ran3 4osenblatt en 10 para el
reconocimiento de caracteres impresos con una des#enta*a que no puede reconocer
caracteres comple*os.
• Bac"!ro!agation: (s la red m)s popular, con numerosas aplicaciones con éxito,
facilidad de aprendi/a*e y muy potente. 2ue creada por Paul $erbos, Da#id Par3er
y Da#id 4umel'art entre los aos 1-1<05 para la s+ntesis de #o/ desde texto,
control de robots, predicción y reconocimiento de patrones. :us limitaciones son
que necesita muc'o tiempo para el aprendi/a*e y muc'os e*emplos.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 11/22
• #o!field: Puede implementarse en OL:F 8integración a muy gran escala9 y f)cil de
conceptuali/ar, fue creada por >o'n opfield en 1<= para la reconstrucción de
patrones y optimi/ación con la limitante en cuanto a capacidad y estabilidad.
• emoria asociati$a %idireccional: (s una red de arquitectura y aprendi/a*e
simple, creada por Bart ?os3o en 1<0 para las memorias 'eteroasociati#a de
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 12/22
acceso por contenido con la des#enta*a en cuanto a la capacidad de almacenamiento
y que los datos deben ser codificados.
• Neocognitron: (s una red insensible a la traslación, rotación y escala. 2ue creada
por 2u3usima entre los aos 1<1<- para el reconocimiento de caracteresmanuscritos. :us limitaciones son que requiere muc'os elementos de proceso,
ni#eles y conexiones.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 13/22
Estructura de las Redes Neuronales Artificiales:
Las neuronas artificiales se combinan en estructuras que est)n compuestas por un
con*unto de capas. De esta manera, la información se encuentre distribuida a lo largo de las
sinapsis de la red, d)ndole a este sistema cierta tolerancia a fallos. :e pueden distinguir tres
tipos de capas
a9 Ca!a de entrada: 4eciben información pro#eniente de las fuentes externas de la
red, que pueden pro#enir desde sensores o de otros sectores del sistema. ActCacomo buffer de entrada, almacenando la información bruta suministrada a la red o
reali/ando un sencillo preproceso de la misma.
b9 Ca!a oculta: :on aquellas cuyas entradas y salidas se encuentran dentro del
sistema, es decir son internas de la red no tienen contacto con el exterior. :on las
que reciben información desde otras neuronas artificiales. (n ellas es donde se
reali/a la representación de la información almacenada. Pueden estar
interconectadas de distintas maneras, lo que determina *unto con su nCmero las
distintas tipolog+as de redes. Principalmente son las encargadas de extraer, procesar
y memori/ar la información.
c9 Ca!a de salida: Transfieren la información recibida de la red 'acia el exterior o
fuera de la red. ActCa como interfa/ o buffer de salida, almacenando la respuesta de
la red para que pueda ser le+da.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 14/22
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 15/22
los #alores deseados y los obtenidos en la salida de la red5 es decir en
función del error cometido en la salida.
Aprendi/a*e por refuer/o. (n el aprendi/a*e por refuer/o el entrenamiento se
reali/a sin conocer exactamente la salida deseada para una determinada
entrada. (xiste una relación de entradasalida a tra#és de un proceso de éxitoo fracaso, produciendo una seal 8seal de refuer/o9 que mide el buen
funcionamiento del sistema.
Los pesos se a*ustan en base a la seal de refuer/o bas)ndose en un
mecanismo de probabilidades. H:i una acción tomada por el sistema de
aprendi/a*e es seguida por un estado satisfactorio, entonces la tendencia del
sistema a producir esa particular acción es refor/ada. (n otro caso, la
tendencia del sistema a producir dic'a acción es disminuidaH. La función del
super#isor es m)s la de un cr+tico que la de un maestro.
Aprendi/a*e estoc)stico. Durante el entrenamiento de la red se reali/an
cambios aleatorios e los #alores de los pesos de las conexiones de la red y se
e#alCa su efecto a partir de la salida deseada y de distribuciones de
probabilidad.
• A!rendi'a(e no su!er$isado: (l aprendi/a*e no super#isado se caracteri/a
porque la red no recibe influencia externa para a*ustar los pesos de las
conexiones entre sus neuronas. La red no conoce ninguna relación entre las
entradas y las salidas que debe generar, por ello, suele decirse que estas redes
son capaces de autoorgani/arse. (l éxito de este tipo de aprendi/a*e se logra
buscando en el con*unto de datos de entrada, caracter+sticas, regularidades,
correlaciones o categor+as que se puedan establecer entre ellos.
c9 :egCn su modo de operación. &uando se 'abla del modo de operación de una red
neuronal se est) 'aciendo referencia a la manera en que la red neuronal procesa los
est+mulos externos y crea la respuesta de salida. Puede considerarse a una red
neuronal como perteneciente a una de dos grandes categor+as, como lo son las redesest)ticas y las din)micas.
• Redes est)ticas: :on redes que toman problemas resueltos para construir
sistemas que toman decisiones y que a dem)s pueden reali/ar clasificaciones,
tomando aquellos problemas que no tienen solución computacional e
implementado algoritmos para su solución.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 16/22
Las redes est)ticas producen un mapa de datos a datos y es por ello que se
utili/an como aproximadores uni#ersales de funciones. Debido a su modo de
funcionamiento, estas redes tienen una capacidad limitada para sinteti/ar
funciones dependientes del tiempo en comparación con lo que exponen las redes
din)micas.
(ntre este tipo de redes encontramos la red Perceptron y las redes multicapa,
con las cuales se resuel#en los problemas de clasificación de patrones no
separables linealmente.
• Redes din)micas: :on las utili/adas para sinteti/ar un comportamiento
din)mico, es decir algo que e#oluciona en el tiempo, para lo cual se alimenta la
red con muestras pasadas por todas las #ariables in#olucradas en la solución del
problema.
(ste tipo de redes responde de manera diferente ante diferentes secuencias deentradas, 'aciendo uso de manera impl+cita o expl+cita de la #ariable tiempo.
(ste aspecto las 'ace en principio m)s idóneas que las redes est)ticas para la
s+ntesis de funciones en las que apare/ca de alguna manera el par)metro tiempo.
Algunas 4edes din)micas por naturale/a son las redes recurrentes tipo opfield
8D779 y las redes recurrentes tipo multicapa 8D77%9.
• Otras redes neuronales: :on redes que se caracteri/an por no tener un par
entrada salida asociado, sino que extraen caracter+sticas de las entradas sin que
se cono/ca la salida. (stas redes asocian una respuesta a una entrada en
particular mediante un procedimiento simple, (ntre este tipo de redes
encontramos las red de ?o'onen, las memorias asociati#as bidireccionales
BA% y la red de funciones radiales.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 17/22
#ERRAIENTAS * TECNO&O+IAS
(l resurgimiento de la computación neuronal en los Cltimos aos se 'a producido
por el desarrollo teórico de nue#os modelos matem)ticos del comportamiento del cerebro y
por el desarrollo de nue#as tecnolog+as que ya est)n siendo utili/adas en una gran #ariedadde aplicaciones comerciales.
(ntre los a#ances o desarrollos tecnológicos que permiten la reali/ación de lacomputación neuronal destacan los programas soft6are de simulación, los aceleradores
'ard6are, los c'ips de silicio y los procesadores ópticos.
Simuladores Soft,are: constituyen una de las formas m)s #ers)tiles con las que se
pueden implementar redes neuronales. (stos programas constituyen todo un sistema dedesarrollo y reali/ación de prototipos de redes neuronales. (stos programas se utili/an para
disear, construir, entrenar y probar redes neuronales artificiales para resol#er problemascomple*os y problemas del mundo real.
Los primeros simuladores soft6are se e*ecutaban en ordenadores de grandes prestaciones y el a#ance de los ordenadores personales en capacidad de procesado y
capacidad de memoria 'ace posible que exista una serie de simuladores soft6are de
grandes prestaciones que corren sobre ordenadores personales. (ntre otros paquetessoft6are se incluye 7eural $or3s, 7euralyst, (xplore 7et y ?6o6ledge 7et.
Aceleradores #ard,are: la naturale/a paralela de la computación neuronal se presta a reali/ar diseos concretos y a medida de dispositi#os f+sicos, aceleradores
'ard6are, que aceleren la e*ecución de los c)lculos. Los aceleradores 'ard6are para los
sistemas de computación neuronal son dispositi#os f+sicos constituidos por diferentes
procesadores interconectados que ayudan a la reali/ación y e*ecución del comportamientode las 47A. @na de las #enta*as de los aceleradores 'ard6are diseados espec+ficamente
para la computación neuronal es el aumento de la #elocidad de procesado. (sta
caracter+stica permite la utili/ación de las 47A en aplicaciones de tiempo real.
4obert ec't7ielsen desarrolló el acelerador 'ard6are %ar3 FFF que constaba de
<1GG procesadores y traba*aba como un periférico de un OAI. La mayor+a de las casas
comerciales dedicadas al diseo de las 47A 'an desarrollado diferentes tar*etas basadas enlos diferentes procesadores existentes, diseadas para traba*ar en el entorno de un
ordenador personal P& y presentando un progresi#o ratio de actuali/aciones de
interconexiones por segundo.
C-i!s de Silicio Ntro de los campos de la in#estigación en el mundo de las 47A al
margen de los simuladores soft6are y aceleradores 'ard6are, es la integración de todos loscomponentes de computación neuronal en un c'ip de silicio. @n e*emplo concreto es el
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 18/22
c'ip (lectronic 7eural 7et6or3 8((79 de la compa+a ATRT que contiene =0"
transistoresneuronas y m)s de 1GG.GGG resistenciassinapsis. Actualmente este c'ip est)siendo utili/ado para aplicaciones de compresión del anc'o de banda de im)genes de #+deo
para poder ser transmitidas por una l+nea telefónica. (xisten muc'as compa+as y centros
de in#estigación que est)n traba*ando en el desarrollo de circuitos integrados que reali/an
computación neuronal. La mayor+a de las aplicaciones de estos c'ips est) siendo lasimulación de procesos sensiti#os como la #isión de im)genes y la audición de sonidos.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 19/22
AP&ICABI&IDAD
(l principal rasgo de esta tecnolog+a es que 'a sido aplicada a un inmenso con*untode problemas, pertenecientes a di#ersas )reas del conocimiento, muc'os de los cuales
parec+an ser demasiado complicados de resol#er en modelos teóricos o para los cuales se
carec+a de un modelo matem)tico apropiado.
ay muc'os tipos diferentes de redes neuronales, cada uno de los cuales tiene una
aplicación particular m)s apropiada. Las redes neuronales 'an encontrado muc'asaplicaciones con éxito en la #isión artificial, reconocimiento de textos manuscritos, en la
simulación de centrales de producción de energ+a, en la detección de explosi#os, en la
identificación de blancos de radares, en el procesado de seales e im)genes, reconocimientode #o/ y caracteres, sistemas expertos, an)lisis de im)genes médicas, control remoto,
control de robots, inspección industrial, en exploración cient+fica se utili/an redesneuronales en los #e'+culos de in#estigación espacial, en la biometr+a para distinguir
personas segCn patrones corporales tales como su 'uella, rostro, pupila y otros, la detecciónde células cancerosas, lesiones neurológicas y cardiacas, prospecciones geológicas,
predicción de audiencias tele#isi#as, para *ugar a diferentes *uegos 8a*edre/, bac3gammon,
bridge9, compresión de datos, predicciones meteorológicas, o comprobación de fallos enequipos. (ntre otros.
Tesis .DO
• Para el ao =GG, los estudiantes Luis Antonio &ordero y (noes &arolina %edina de
la @ni#ersidad de Nriente 7Ccleo An/o)tegui, desarrollaron el proyecto titulado
/Desarrollo de una A!licación que Permita E$olucionar Redes NeuronalesArtificiales !ara Resol$er Pro%lemas de Clasificación0 , para optar al t+tulo de
Fngeniero en &omputación. (ste proyecto se reali/ó con el propósito de desarrollar
un soft6are que le brinde al usuario una solución expresada como una 4ed
7euronal Artificial que puede ser obtenida de dos formas Algoritmo ;enético y
Algoritmo Bac3propagation5 que el usuario puede elegir que método usar. (sta
aplicación se reali/ó utili/ando tecnolog+as de soft6are libre, rigiéndose por eldecreto !!G, el cual dispone que La Administración PCblica 7acional deber)
emplear prioritariamente :oft6are Libre desarrollado con (st)ndares Abiertos, en
todos sus :istemas, Proyectos y :er#icios Fnform)ticosQ. (l desarrollo del proyecto
estu#o dirigido por la metodolog+a N%T 8Nb*ect %odeling Tec'nique9, la cual
utili/a el an)lisis y el diseo orientado a ob*etos por medio del Lengua*e de
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 20/22
%odelado @%L. Para construir el soft6are se utili/ó >AOA como lengua*e de
programación.
• Para el ao =GG, los estudiantes Eubras3a ?arina %ontaa Torres y ;iuseppe
Daniele :ifontes Lopardo de la @ni#ersidad de Nriente 7Ccleo An/o)tegui,
desarrollaron el proyecto titulado /Desarrollo de una A!licación !ara elReconocimiento 1acial mediante Redes Neuronales Artificiales0, para optar al
t+tulo de Fngeniero en &omputación. (ste proyecto se reali/o con el propósito de el
usuario podr) indicar los rostros que la aplicación debe memori/ar durante el
aprendi/a*e, también podr) seleccionar algunos par)metros de las redes neuronales,
como son el nCmero de capas y el nCmero de neuronas empleadas por cada capa y
el factor de aprendi/a*e, una #e/ configurados todos estos par)metros se podr) dar
inicio al entrenamiento de las redes neuronales perceptrón multicapa y función de
base radial, una #e/ finali/ado el entrenamiento se genera un arc'i#o con todos los
pesos, umbrales y dem)s resultados obtenidos durante el entrenamiento, necesarios
para que las redes logren el reconocimiento, este arc'i#o es denominado memoria y
se actuali/a cada #e/ que se encuentra una me*or solución a un problema, por lo
tanto, se puede entrenar tantas #eces como se desee en busca de una me*or solución.
@na #e/ que las redes neuronales artificiales se encuentren entrenadas estas ser)n
capaces de identificar o #erificar con un alto grado de acierto los su*etos aprendidos.
(l an)lisis y diseo de la aplicación fue reali/ado utili/ando el lengua*e gr)fico
@%L 8@nified %odeling Language9. Para el desarrollo de esta aplicación se utili/ó
el lengua*e de cuarta generación >a#a 1." y la 'erramienta >&reator Pro O!.
• Para el ao =GG1, los estudiantes 4osa Lérida Lunar 2ern)nde/ y Antonio Da :il#a%oreira de la @ni#ersidad de Nriente 7Ccleo An/o)tegui, desarrollaron el proyecto
titulado /Dise2o de un Sistema Basado en Redes Neuronales !ara el Control deun 3e-4culo0 para optar al t+tulo de Fngeniero en &omputación. (ste proyecto se
reali/ó con el propósito de disear un sistema que permita el control de un #e'+culo
basado en 4edes 7euronales. (l sistema consta de dos subsistemas uno en ba*o
ni#el encargado de controlar la circuiter+a o 'ard6are del #e'+culo y otro en alto
ni#el que lle#a el control basado en el algoritmo Bac3propagation de 4edes
7euronales. (ste proyecto utili/ó para el subsistema de control del 'ard6are el
Lengua*e (nsamblador y para el subsistema de control neuronal los diagramas de
Lengua*e @nificado para el %odelado de ob*eto 8@%L9, y se define con una
Programación Nrientada a Nb*etos con el Lengua*e de Programación Borland &SS.
• Para el ao 1, los estudiantes :arb*it :ing' ?aur y 2ran3lin Esaccis Betancourt
de la @ni#ersidad de Nriente 7Ccleo An/o)tegui, desarrollaron el proyecto titulado
/Simulador de Redes Neurales Com!etiti$as con A!rendi'a(e no Su!er$isadodel Ti!o SO 5 ART60 para optar al t+tulo de Fngeniero en &omputación. (ste
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 21/22
proyecto se reali/ó con el propósito de modelar 4edes 7euronales competiti#as de
aprendi/a*e no super#isado del tipo :N% 8:elf Nrgani/ing %ap9 y A4T1
8Adaptati#e 4esonance T'eory9, con la finalidad de e#aluar su aplicación en la
solución de problemas de categori/ación o agrupamiento. (l aspecto m)s resaltante
de este simulador es un Asistente para 4edes 7euronales5 este asistente gu+a al
usuario a tra#és del diseo de la red, 'aciendo sugerencias durante el proceso y
encapsulando muc'os detalles. (l simulador fue diseado para operar en ambiente
%:$indo6s con código de != bits y fue desarrollado ba*o una arquitectura
Nrientada a Nb*etos y codificado en el Lengua*e de Programación &SS.
• Para el ao 1-, la estudiante %elisendra Tre*o Padrino de la @ni#ersidad de
Nriente 7Ccleo An/o)tegui, desarrolló el proyecto titulado /Dise2o e Im!lantaciónde un Simulador de una Red Neuronal Bac"!ro!agation0, para optar al t+tulo de
Fngeniero en &omputación. (ste proyecto se reali/ó con el propósito de simular e
implementar el algoritmo Bac3propagation, puede simular redes de 'asta cinconi#eles y utili/ar una de tres funciones de acti#ación 8t'res'old, sigmoide y tangente
'iperbólica9. 2ue desarrollado en el Lengua*e de Programación &.
7/21/2019 Rna Informe
http://slidepdf.com/reader/full/rna-informe 22/22