Post on 19-Dec-2015
REPÚBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO
DE TECNOLOGÍA DE
ADMINISTRACIÓN INDUSTRIAL
AMPLIACIÓN BARCELONA
Elaborado por:
YARWIN MARTINEZ
CI. 25.572.604
Barcelona, Abril 2015
INTRODUCCIÓN
En las últimas décadas se han vistió en cambios profundos en el ámbito
empresarial debido fundamentalmente al avance de la tecnología. La
presencia de nuevos paradigmas en el tratamiento de la información que
generan las empresas denominado "Gestión del Conocimiento" al igual que
el procesamiento masivo de esta información, una marcada tendencia hacia
la globalización de los mercados, al riesgo y la incertidumbre en la toma de
decisiones empresariales etc., han contribuido a dicho avance. Todo esto
enmarcado por un mundo cada vez más complejo donde el viejo mundo de
las certezas ya no existe y donde el ser competitivo y sostenible en el tiempo
se constituye en un reto imperativo para la supervivencia de las empresas.
En este contexto, el avance de la tecnología y de los nuevos paradigmas no
debe limitarse a simular las funciones para el procesamiento manual de la
información, sino que estas herramientas deben ser un soporte fundamental
para el logro de los objetivos de la gestión empresarial traducida en
decisiones adecuadas, eficaces y oportunas.
Los cambios mencionados anteriormente se pueden extender al campo
de las decisiones empresariales, especialmente al campo de las finanzas, las
cuales no se han escapado a estos cambios y nuevos paradigmas. Así se
pueden observar profundas transformaciones que van desde las “finanzas
tradicionales” en las que los estudios se han enmarcado sobre una base
fundamentalmente descriptiva, contable e institucional, a las “finanzas
modernas” que buscan explicar los fenómenos financieros e indicar el
camino para la toma de decisiones financieras. Estas explicaciones se basan
en la construcción de modelos cuantitativos que utilizan el lenguaje científico,
un razonamiento adecuado y verificaciones empíricas. Las investigaciones
más recientes en el campo de las finanzas están incidiendo más en el
estudio de los aspectos cualitativos, en lo que se ha dado en llamar como “el
paradigma de la sicología financiera”. Este paradigma intenta explicar el
comportamiento de los inversionistas, tema que encuentra grandes
limitaciones cuando se aborda enteramente con los modelos racionales
planteados por las finanzas tradicionales y modernas.
Con el propósito de abordar estos nuevos paradigmas se han
desarrollado recientemente las técnicas de la Inteligencia Artificial, las cuales
han dejado en claro la necesidad de contar con soportes de ayuda
poderosos para tomar decisiones en la actividad empresarial. Estos soportes
deben ser capaces de considerar la información cualitativa y a partir de ella
diseñar e implementar modelos estadísticos y computacionales que asistan a
los decisores en la resolución de los diversos problemas empresariales.
En la actualidad, la Inteligencia artificial se está aplicando a numerosas
actividades realizadas por los seres humanos y se destacan entre otras las
siguientes líneas de investigación científicas: La robótica, la visión artificial,
técnicas de aprendizaje y la gestión del conocimiento. Estas dos últimas
aplicaciones de la inteligencia artificial son las que más directamente se
aplican al campo de las finanzas, debido a que en este campo existe una
fuerte motivación orientada a la construcción de sistemas de información que
incorporen conocimiento, y que permitan a los decisores de las
organizaciones tomar decisiones eficientes y oportunas en el ámbito de la
gestión financiera empresarial.
A continuación se describe las técnicas más destacadas de la
Inteligencia artificial aplicadas al campo de la gestión financiera empresarial:
Los sistemas expertos, las redes neuronales, los algoritmos genéticos y la
lógica difusa. Estas técnicas pueden combinarse para obtener una solución
más adecuada del problema en estudio.
INTELIGENCIA ARTIFICIAL Y SUS APLICACIONES EN LA GESTION DE
RIESGOS
INTELIGENCIA ARTIFICIAL
La Inteligencia Artificial trata de conseguir que los ordenadores simulen
en cierta manera la inteligencia humana. Se acude a sus técnicas cuando es
necesario incorporar en un sistema informático, conocimiento o
características propias del ser humano.
IMPORTANCIA DE LA INTELIGENCIA ARTIFICIAL
A medida que el mundo se vuelve más complejo, debemos usar
nuestros recursos materiales y humanos con más eficiencia, y para lograrlo,
se necesita la ayuda que nos ofrecen los computadores.
Existe la falsa impresión de que uno de los objetivos de la inteligencia
artificial es sustituir a los trabajadores humanos y ahorrar dinero. Pero en el
mundo de los negocios, la mayoría de personas está más entusiasmada ante
las nuevas oportunidades que ante el abatimiento de costos. Además, la
tarea de reemplazar totalmente a un trabajador humano abarca de lo difícil a
lo imposible, ya que no se sabe cómo dotar a los sistemas de IA de toda esa
capacidad de percibir, razonar y actuar que tienen las personas. Sin
embargo, debido a que los humanos y los sistemas inteligentes tienen
habilidades que se complementan, podrían apoyarse y
ejecutar acciones conjuntas:
En la agricultura, controlar plagas y manejar cultivos en forma más
eficiente.
En las fábricas, realizar montajes peligrosos y actividades tediosas
(labores de inspección y mantenimiento).
En la medicina, ayudar a los médicos a hacer diagnósticos, supervisar la
condición de los pacientes, administrar tratamientos y preparar estudios
estadísticos.
En el trabajo doméstico, brindar asesoría acerca de dietas, compras,
supervisión y gestión de consumo energético seguridad del hogar.
En las escuelas, apoyar la formación de los estudiantes, especialmente
en aquellas materias consideradas complejas.
Ayudar a los expertos a resolver difíciles problemas de análisis o a
diseñar nuevos dispositivos.
Aprender de los ejemplos para explorar bases de datos en busca de
regularidades explotables.
Proporcionar respuestas a preguntas en lenguaje natural usando datos
estructurados y texto libre.
La inteligencia artificial aplicada es la contraparte de ingeniería de la
ciencia cognoscitiva y complementa sus perspectivas tradicionales. La
ciencia cognoscitiva es una mezcla de psicología, lingüística y filosofía.
La metodología y terminología de la inteligencia artificial está todavía en
vías de desarrollo. La inteligencia artificial se está dividiendo y encontrando
otros campos relacionados: lógica, redes
neuronales, programación orientada a objetos, lenguajes formales, robótica,
etc. Esto explica por qué el estudio de inteligencia artificial no está confinado
a la matemática, ciencias de la computación, ingeniería, o a la ciencia
cognoscitiva, sino que cada una de estas disciplinas es un potencial
contribuyente.
Una característica fundamental que distingue a los métodos de
Inteligencia Artificial de los métodos numéricos[3] es el uso
de símbolos no matemáticos, aunque no es suficiente para distinguirlo
completamente. Otros tipos de programas como los compiladores[4] y
sistemas de bases de datos, también procesan símbolos y no se considera
que usen técnicas de Inteligencia Artificial.
El comportamiento de los programas no es descrito explícitamente por
el algoritmo. La secuencia de pasos seguidos por el programa es
influenciado por el problema particular presente. El programa especifica
cómo encontrar la secuencia de pasos necesarios para resolver un problema
dado (programa declarativo). En contraste con los programas que no son de
Inteligencia Artificial, que siguen un algoritmo definido, que especifica,
explícitamente, cómo encontrar las variables de salida para cualquier
variable dada de entrada (programa de procedimiento).
El razonamiento basado en el conocimiento, implica que estos
programas incorporan factores y relaciones del mundo real y del ámbito del
conocimiento en que ellos operan. Al contrario de los programas para
propósito específico, como los de contabilidad y cálculos científicos; los
programas de Inteligencia Artificial pueden distinguir entre el programa de
razonamiento o motor de inferencia y base de conocimientos dándole la
capacidad de explicar discrepancias entre ellas.
Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de
Inteligencia Artificial los programas no pueden trabajar con este tipo de
problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a
metas como en planificación, o el diagnóstico de tareas en un sistema del
mundo real: con poca información, con una solución cercana y no
necesariamente exacta.
La Inteligencia Artificial incluye varios campos de desarrollo tales como:
la robótica, usada principalmente en el campo industrial; comprensión de
lenguajes y traducción; visión en máquinas que distinguen formas y que se
usan en líneas de ensamblaje; reconocimiento de palabras y aprendizaje de
máquinas; sistemas computacionales expertos.
Los sistemas expertos, que reproducen el comportamiento humano en
un estrecho ámbito del conocimiento, son programas tan variados como los
que diagnostican infecciones en la sangre e indican un tratamiento, los que
interpretan datos sismológicos en exploración geológica y los que configuran
complejos equipos de alta tecnología.
Tales tareas reducen costos, reducen riesgos en la manipulación
humana en áreas peligrosas, mejoran el desempeño del personal inexperto,
y mejoran el control de calidad sobre todo en el ámbito comercial.
IMPORTANCIA DE LA INTELIGENCIA ARTIFICIAL EN LA GERENCIA
EMPRESARIAL
En el momento actual la Inteligencia Artificial se aplica a numerosas
actividades humanas, y como líneas de investigación más explotadas
destacan el razonamiento lógico, la traducción automática y comprensión del
lenguaje natural, la robótica, la visión artificial y, especialmente, las técnicas
de aprendizaje y de ingeniería del conocimiento. Estas dos últimas ramas
son las más directamente aplicables al campo de las finanzas pues, desde el
punto de vista de los negocios, lo que interesa es construir sistemas que
incorporen conocimiento y, de esta manera, sirvan de ayuda a los procesos
de toma de decisiones en el ámbito de la gestión empresarial.
En el ámbito específico del Análisis Contable, según Ponte, Sierra,
Molina y Bonsón (1996) la Inteligencia Artificial constituye una de las líneas
de actuación futura más prometedoras, con posibilidades de aplicación tanto
en el ámbito de la investigación como en el diseño de sistemas de
información inteligentes, que no solamente proporcionen datos al decisor
sino que recomienden el mejor curso de actuación a seguir.
De entre todos los paradigmas y estrategias de la Inteligencia Artificial,
actualmente dos tienen el mayor interés para las aplicaciones en la empresa:
los sistemas expertos y las redes neuronales artificiales. Estos sistemas se
pueden combinar, por lo que una solución práctica es utilizar sistemas mixtos
que incorporan un módulo de sistema experto con sus reglas junto a otros
módulos neuronales y estadísticos.
LA INTELIGENCIA ARTIFICIAL Y EL ANÁLISIS DE LA SOLVENCIA
EMPRESARIAL
El análisis de la solvencia empresarial ha sufrido una gran evolución a lo
largo de los últimos 20 años, debido a factores tales como el aumento en el
número de quiebras, la desintermediación creciente que se observa en
los mercados financieros, la disminución de los tipos de interés o el
desarrollo de nuevos instrumentos financieros. Todo ello ha impulsado el
desarrollo de nuevos y más sofisticados métodos de análisis de la solvencia,
y entre este tipo de sistemas ocupan un papel destacado aquellos que están
basados en técnicas de Inteligencia Artificial.
La determinación de la solvencia futura de una empresa puede ser
entendida en la mayoría de los casos como una operación de clasificación,
es decir, dada una información inicial o conjunto de atributos asociados a
una empresa, y extraídos en su mayor parte de los estados contables de la
misma, lo que pretende el analista es tomar la decisión de clasificar a esa
empresa dentro de una categoría concreta de riesgo financiero, de entre
varias posibles[10]. Aplicando la clásica división que hizo Simon de los
procesos de decisión entre estructurados y no estructurados, es claro que
esa decisión es de tipo no estructurado ya que no existe un procedimiento
definido para abordarla, siendo necesario el juicio y la propia evaluación del
decisor. Tal y como señalan diversos autores Ball y Foster, Martín Marín, no
existe una teoría comúnmente aceptada que explique el fenómeno del
fracaso empresarial, por lo que a priori no es posible establecer qué variables
financieras ni qué valores en las mismas determinan la futura solvencia o
insolvencia de una firma.
Debido a lo anterior, el estudio de la solvencia implica una investigación
selectiva dentro de un espacio de alternativas inmenso pues, como se ha
comentado, no existe un procedimiento que conduzca de forma inequívoca a
la solución óptima. Por lo tanto, la selección ha de estar basada en reglas
prácticas o heurísticas[14], debiendo fijarse también un criterio de suficiencia
para determinar cuando las soluciones encontradas son satisfactorias. Todo
ello concuerda plenamente con el paradigma de la racionalidad limitada, que
gobierna los procesos de decisión en el ámbito económico. Ese análisis
heurístico se ha implementado tradicionalmente a través de la aplicación de
técnicas estadísticas, tales como el análisis multidiscriminante lineal o los
diversos modelos de variable de respuesta cualitativa (logit, probit, etc.).
Sin embargo todas estas técnicas presentan limitaciones, pues parten
de hipótesis más o menos restrictivas, que por su propia naturaleza la
información económica, y en especial los datos extraídos de los estados
financieros de las empresas, no van a cumplir, perjudicando así los
resultados. La aplicación de técnicas procedentes del campo de la
Inteligencia Artificial surge como un intento de superar esta limitación, pues
estas últimas no parten de hipótesis preestablecidas y se enfrentan a los
datos de una forma totalmente exploratoria, configurándose
como procedimientos estrictamente no paramétricos.
En los epígrafes restantes se revisan las aplicaciones al campo del
análisis de la solvencia de los diversos sistemas de Inteligencia Artificial. Las
principales diferencias entre las mismas radican en la forma en la que
abordan el proceso de elicitación, que es la fase en la cual se extrae el
conocimiento de las fuentes elegidas y, en este sentido, O’Leary indica que
los sistemas inteligentes pueden construirse a partir de dos enfoques:
Introducir en el ordenador el conocimiento que un(os) experto(s) humano(s)
ha(n) ido acumulando a lo largo de su vida profesional, obteniéndose así lo
que se conoce como sistema experto.
El principal problema que ocasiona este enfoque consiste en que el proceso
de captación de la información ha de hacerse mediante entrevistas al experto
o bien observando directamente su comportamiento a través de un análisis
de protocolos. Esto ocasiona un cuello de botella en el desarrollo de las
aplicaciones, por lo que para solucionarlo surge el enfoque indicado en el
siguiente acápite.
Elaborar programas de ordenador capaces de generar conocimiento a través
del análisis de los datos empíricos y, en una fase posterior, usar ese
conocimiento para realizar inferencias sobre nuevos datos. Fruto de este
enfoque surgen diversos procedimientos, conocidos como Machine
Learning[17] (Aprendizaje Automático) o Data Mining[18] (Explotación de
Datos), que van a permitir la transformación de una base de datos en una
base de conocimiento. Las técnicas aplicables pertenecen en su mayor parte
a dos bloques principales:
Las que buscan el conocimiento a través de un proceso consistente en
anticipar patrones en los datos. Las diversas arquitecturas de Redes
Neuronales Artificiales van encaminadas a este propósito.
Aquellas consistentes en inferir reglas de decisión a partir de los datos de la
base. Para ello existen diversos algoritmos de inducción de reglas
y árboles de decisión.
GESTION DE RIESGO
El físico británico Stephen Hawking alertó sobre los peligros de la
inteligencia artificial. El físico considera que los esfuerzos en crear este tipo de
tecnología avanzada puede poner en riegos la supervivencia de los seres
humanos.
Para el científico, de 72 años, « el desarrollo de la inteligencia artificial
podría significar el fin de la raza humana», si los sistemas artificiales llegaran a
superar en inteligencia a las personas.
Los robots «podrían llegar a tomar el control y se podrían rediseseñar a sí
mismos» para desbancar a los humanos, dijo el físico en una entrevista con la
cadena BBC.
Hawking ofreció hoy una rueda de prensa en Londres para presentar un
nuevo software que le permitirá comunicarse con mayor velocidad que hasta
ahora.
Humanos suprimidos por robots
El autor de libros como «Una breve historia del tiempo» padece desde hace
más de 50 años una esclerosis lateral amiotrófica (ELA) que ha reducido casi
por completo su movilidad. Gracias a un nuevo sistema desarrollado por la
compañía Intel, Hawking podrá comunicarse con mayor fluidez y multiplicar por
diez su productividad, según él mismo explicó.
En ese contexto, el científico subrayó que los sistemas inteligentes que se
han desarrollado hasta ahora han resultado útiles para la humanidad, si bien
advirtió sobre la posibilidad de que en el futuro puedan suponer un peligro.
«Los humanos, que están limitados por la evolución biológica, no podrían
competir y quedarían suprimidos» por los robots, analizó Hawking.
El físico habló además de los peligros que a sus ojos puede acarrear
internet y resaltó que las compañías de telecomunicaciones deben «hacer más»
para «contrarrestar las amenazas» que pueden propagarse a través de la red.
«La dificultad está en cómo hacerlosin sacrificar la libertad y la privacidad»,
reflexionó Hawking
Hawking no es el primero que expresa su preocupación por la inteligencia
artificial. Elon Musk, CEO de Tesla, ha dicho en varias ocasiones que esta
tecnología puede suponer un riesgo. «Con la inteligencia artificial estamos
invocando al demonio» ó « puede ser más peligrosa que las armas nucleares»
han sido algunas de sus calificaciones.
A medida que la tecnología ha ido avanzando, y los dispositivos que nos
rodean (desde coches a relojes, pasando por refrigeradores y termostatos) han
ido ganando en “inteligencia”, un temor ha ido creciendo en algunos seres
humanos, que en dicho avance han visto también una amenaza. Se trata, claro,
de la rebelión de las máquinas, un escenario apocalíptico en el que, alcanzado
el umbral de la autoconsciencia, y desarrollados los mecanismos necesarios
para “evolucionar”, las máquinas decidirían que “ya está bien” de permanecer
sometidas a lo dictado por el ser humano, especialmente si eso atenta contra
intereses mayores. No es baladí que el padre del concepto de cerebro
positrónico, Isaac Asimov, lo fuera también de las tres leyes de la robótica, que
aún hoy en día siguen siendo empleadas no sólo en todo tipo de creaciones de
ciencia ficción, sino en planteamientos teóricos de cómo deben comportarse las
formas de vida artificial. Dicho conjunto de reglas, que son de obligado
cumplimiento para cualquier robot (entiéndase como tal un dispositivo
electrónico con capacidad de toma de decisiones), tienen la finalidad de proteger
a los seres humanos, por encima de cualquier otro criterio:
1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un
ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si
estas órdenes entrasen en conflicto con la 1ª Ley
3. Un robot debe proteger su propia existencia en la medida en que esta protección
no entre en conflicto con la 1ª o la 2ª Ley.
Sin embargo, y al igual que ocurre con el cerebro positrónico, un enfoque
científico de los postulados de Asimov los deja un poco “cojos” y,
consecuentemente, ese “seguro de vida” que supondría la aplicación de normas
proteccionistas para con los seres vivos, queda en entredicho. Así, no es de
extrañar que determinadas voces, algunas de ellas fuera de cualquier tipo de
duda, planteen que existen riesgos. Tal es el caso de Stephen Hawking, que ha
afirmado en un editorial en The Independent, que el desarrollo de la inteligencia
artificial puede ser el mayor logro de la humanidad… pero también el último.
Lo único que nos puede salvar de esos posibles riesgos es, claro,
conocerlos, y para tal fin es necesario que se dediquen muchos esfuerzos de
investigación (y económicos, claro está), tanto a las pocas entidades (tanto
públicas como privadas) que ya están trabajando en este sentido, pues sólo
identificando los riesgos y preparando una respuesta para los mismos, se podrá
actuar llegado el momento. Por ejemplo, un aspecto particularmente
preocupante es el relacionado con los trabajos. A día de hoy, bastantes
actividades que hasta hace poco tiempo eran llevadas a cabo por humanos,
ahora están en manos de máquinas. Sin embargo, esto podría crecer de manera
exponencial, a medida que la inteligencia de las máquinas fuera “superior”. E,
incluso antes que eso, en el corto plazo, otro aspecto que preocupa seriamente
a Hawking es el de las armas inteligentes:
“In the near term, world militaries are considering autonomous-weapon
systems that can choose and eliminate targets; the UN and Human Rights Watch
have advocated a treaty banning such weapons.”
Es decir, que los militares podrían estar pensando (y trabajando) en
sistemas totalmente autónomos, capaces de elegir objetivos y destruirlos.
Naciones Unidas y Derechos Humanos (Human Rights Watch) han planteado
tratados para la prohibición (antes incluso de que existan) de este tipo de armas,
pero ya es sabido que no son pocos los países que no reconocen a ambas
entidades o que, incluso en el caso de hacerlo, no llevan a rajatabla todas sus
propuestas.
Termina su editorial Hawking, enumerando las instituciones que sí que están
trabajando en la identificación de los posibles riesgos (Cambridge Centre for the
Study of Existential Risk, Future of Humanity Institute, Machine Intelligence
Research Institute y Future of Life Institute), entidades todas sin ánimo de lucro.
Y, al final, una invitación de la que todos somos partícipes: All of us should ask
ourselves what we can do now to improve the chances of reaping the benefits
and avoiding the risks. Todos nosotros debemos preguntarnos qué podemos
hacer para mejorar las posibilidades de aprovechar las las ventajas y, al
tiempo, evitar los riesgos. Quizá sea necesaria una conciencia global sobre
dichos riesgos. A día de hoy, investigadores especializados en inteligencia
artificial, afirman quela tecnología todavía está “muy verde”, lo que nos deja un
margen de maniobra más que suficiente. Sin embargo, tampoco dudan en
plantear la posibilidad de una rápida evolución de la misma, sobre todo si la
investigación empieza a recibir más fondos, algo más que factible dadas las
circustancias actuales. No es algo a pasar por alto, en cualquier caso. Los
riesgos planteados por Hawking tienen una base muy sólida, así que más nos
vale empezar a pensar en cómo adelantarnos a ellos. Cualquier descuido al
respecto puede tener consecuencias inimaginables.
El avance rápido de la tecnología en los últimos 50 años ha hecho
cambiar el mundo. Las computadoras “dominan” la vida moderna de las
vastas regiones del planeta, apoyando las funciones clave de los gobiernos
mundiales y la economía, aumentando la precisión en la asistencia sanitaria,
el control de identidad y facilitar las formas de comunicación. El Centro para
el Estudio de Riesgo Existencial (RSME), será el encargado de estudiar los
potenciales peligros de la tecnología para la raza humana como los avances
en biotecnología, la nanotecnología junto al cambio climático y hasta la
inteligencia artificial. El nuevo centro ha sido fundado por el filosofo Huw
Price, el científico Martin Rees y el ingeniero de software Jaan Tallinn, que
plantean los riesgos del nivel de “extinción” para nuestra especie.
“En algún momento de este siglo o del siguiente podemos estar ante
uno de los grandes cambios en la historia de la humanidad o incluso de
nuestra historia cósmica, cuando la inteligencia se escapa de los límites de la
biología”, dijo Huw Price, profesor de filosofía y un de los tres fundadores de
la RSME. Además señaló que la inteligencia artificial general (IAG) no se
debe tomar a la ligera y hay que pensar en la posibilidad de que podría
tratarse de una “caja de Pandora”.
El interés de Price sobre el riesgo de la inteligencia artificial se deriva
de un encuentro casual con Jaan Tallinn, un antiguo ingeniero de software y
uno de los fundadores de Skype, que al igual que Google y Facebook se ha
convertido en una de las piedras angulares de la edad digital. Tallinn afirma
que es más probable morir a causa de un accidente relacionado con la
inteligencia artificial que de cáncer o enfermedades del corazón. Según
Tallinn, las maquinas controlan el futuro después de 4 millones de años de
evolución humana. Pero según Price, dijo que predecir la naturaleza exacta
de los riesgos es muy complicado, y que la tecnología avanzada puede ser
una amenaza en un momento donde los ordenadores comienzan a dirigir los
recursos hacia sus propios objetivos, a expensas de las preocupaciones
humanas como la sostenibilidad del medio ambiente. También reconoció que
muchas personas creen que este proyecto es inverosímil, pero insistió en
que los riesgos potenciales son demasiado serios para mirar a otro lado. La
universidad dijo el domingo que la apertura del nuevo centro está prevista
para el próximo año.
Riesgos
Para muchos la singularidad debe acontecer antes del 2030. El tiempo
que resta antes de que se llegue a ese fenómeno se acelera con la
utilización de máquinas para apoyar tareas de diseño, mejoras de diseño y
fabricación de nuevos inventos.
Una vez llegado al punto en que se cree una inteligencia superior a la
humana, se entraría en una etapa post humana que probablemente
conduzca a la extinción de la humanidad o a su subordinación a esos nuevos
entes inteligentes.
Los defensores de la singularidad están conscientes de las amenazas
que esta implica y consideran los siguientes riesgos existenciales:
Inteligencia artificial mal programada.
Mal uso de la nanotecnología.
Mala utilización de la biotecnología.
Uso generalizado de las prótesis (convirtiéndose en un robot)
Tecnologías autónomas que se escapan de las manos (máquinas que se
auto construyen a si mismas)
En cambio, los defensores de la singularidad asumen que es necesario
tomar el control de la evolución humana y acelerar el progreso tecnológico.
Proponen la sustitución de una especie humana obsoleta por otra especie
“superior” con poderes ilimitados y que por medio de las tecnologías
emergentes o convergentes (Nanotecnología, Biotecnología, Infotecnología y
Cognotecnología - NBIC) puedan alcanzar la posthumanidad.
El siglo XXI enfrenta el dilema de si controla el progreso tecnológico y lo
mantiene como una infraestructura subordinada a los humanos o estimula el
desarrollo autónomo del progreso tecnológico y con él los riesgos que este
representa.
La idea de una singularidad, Vinge la sustenta sobre la ley de
Moore que dice que la capacidad de los microchips de un circuito integrado
se duplicará cada año y medio, lo cual traerá un crecimiento exponencial de
la potencia del hardware de las computadoras y de mantenerse este
crecimiento acelerado conducirá inevitablemente a que las máquinas le den
alcance y luego superen la capacidad del cerebro para procesar la
información y según un gráfico elaborado por Hans Moravec, la paridad entre
el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a
las máquinas ultra inteligentes.
Vinge define una máquina ultra inteligente como una máquina capaz
de superar en mucho todas las actividades intelectuales de cualquier
humano independientemente de la inteligencia de éste y está convencido de
que esa inteligencia superior será la que impulsará el progreso, el cual será
mucho más rápido e incluso superará a la actual evolución natural. Es así
que afirma que estaremos entrando en un régimen radicalmente diferente de
nuestro pasado humano, y es a este evento al que le da el nombre de
singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente
forma: Tendrá superinteligencia cualquier intelecto que se comporte de
manera vastamente superior en comparación con los mejores cerebros
humanos en prácticamente todos los aspectos y en especial estos tres:
Creatividad científica
Sabiduría en general
Desempeño científico
Esta definición deja abierta la forma como se implementa esa
superinteligencia
Una computadora digital
Una red de computadoras
Cultivo de tejidos corticales
Fusión entre computadoras y humanos
En general los teóricos del la singularidad definen la superinteligencia:
como cualquier forma de inteligencia artificial basada en la capacidad del
sistema de autoaprendizaje. Estas redes neuronales artificiales serían
capaces de superar a los mejores cerebros humanos en prácticamente
cualquier disciplina, incluyendo creatividad científica; sentido común, y
habilidades sociales. Muchos científicos han presentado el argumento de que
tanto el hardware necesario como el software requerido para la
superinteligencia serán desarrollados en las primeras décadas del siglo XXI.
A diferencia de los investigadores de la Inteligencia Artificial, que
pensaban que la mente podía ser representada por medio de algoritmos y
que esta podía ser programada totalmente en una computadora. Creen que
las máquinas dado el progreso acelerado de la potencia de su hardware
despertarán en algún momento como una inteligencia, esto nos lleva al
concepto de emergencia basado en que las máquinas serán cada vez más
veloces, tendrán más memoria y que esto emergerá en una nueva
inteligencia. El mismo concepto aplica para Internet, donde las conexiones
entre humanos y máquinas que se comportaran como neuronas dentro de
una gran red, por lo que en cualquier momento de ellas emergerá una
inteligencia (cerebro global).
La idea de priorizar el hardware sobre el software se apoya sobre los
siguientes conceptos:
La evolución de las máquinas es más rápida que la de los humanos,
mientras las máquinas sufren un crecimiento acelerado, la evolución
natural de los humanos está prácticamente detenida.
La aceleración de las tecnologías se seguirá incrementando hasta llegar
a un punto que escapa a las capacidades de los humanos (singularidad
tecnológica).
Las máquinas se irán auto construyendo a sí misma, cada vez más
perfeccionadas, más veloces, con más memorias, dotadas de mejores
algoritmos; podrán llegar a convertirse en máquinas superinteligentes que
superen a los humanos.
La inteligencia de las máquinas dada la complejidad que irán adquiriendo
y las conexiones internas (circuitos) o externas (redes) podrá despertar
como una entidad auto consciente.
La mayoría de los métodos propuestos para la creación de una
inteligencia suprahumana caen en una de estas dos categorías: en la
amplificación de la inteligencia del cerebro humano o en el desarrollo de la
inteligencia artificial. Los medios con los que se podría aumentar la
inteligencia son numerosos, e incluyen la bioingeniería, la ingeniería
genética, los fármacosnootrópicos, los asistentes inteligentes, las interfaces
directas cerebro-computadora y transferencia mental. La existencia de
múltiples caminos para una explosión de inteligencia hace que una
singularidad sea más probable, ya que para no ocurrir debe fallar en todas
sus posibilidades.
CONCLUSIONES.
En este artículo se presenta una breve revisión de las principales
técnicas de la Inteligencia Artificial y sus aplicaciones a la gestión financiera
empresarial, debido a que estas herramientas tecnológicas constituyen un
soporte muy importante para la toma de decisiones eficaces y oportunas en
la gestión empresarial.
De las técnicas de Inteligencia Artificial los sistemas expertos se
constituyen en la técnica o herramienta más tradicionalmente aplicada a la
gestión financiera empresarial debido a que permiten la implementación de
sistemas transaccionales, flexibles e innovadores para las empresas. La
gran mayoría de los sistemas expertos están basados en reglas de
clasificación que son obtenidas partiendo de la experiencia y del
conocimiento de especialistas expertos en la solución de un problema
particular. Sin embargo, recientemente se ha venido desarrollando una
nueva técnica adscrita a los Sistemas expertos y son los denominados
Sistemas Basados en Casos (Case Based Reasoning).
En la búsqueda de nuevas técnicas de Inteligencia Artificial se han
implementado estructuras auto-organizativas que simulen o imiten el
funcionamiento de la vida biológica, tal es el caso de las redes neuronales
artificiales las cuales intentan representar el conocimiento desde el estrato
más básico de la inteligencia ( el estrato físico) que es el cerebro humano.
Estas estructuras autoorganizativas se constituyen en sistemas robustos
para el tratamiento de la información, cuya potencialidad aún es objeto de
investigación. Las características fundamentales de las redes neuronales
artificiales son entre otras: La capacidad de autoaprendizaje a partir del
procesamiento de patrones, flexibilidad ante cambios en nuevos ambientes,
y la tolerancia a fallos.
Por otra parte, las redes neuronales se están combinando con otras
técnicas de reciente aparición tales como la lógica difusa y los algoritmos
genéticos, las cuales proporcionan en conjunto herramientas potentes para la
resolución de problemas complejos para los cuales el sistema algorítmico
tradicional no es eficiente.
La evolución y constante desarrollo y aplicación de estas técnicas de la
inteligencia artificial nos invitan a continuar realizando estudios empíricos que
permitan determinar en qué tipo de problemas y bajo qué condiciones estas
herramientas pueden ser una solución más eficiente que los modelos
utilizados habitualmente.
En conclusión, la aplicación de las herramientas anteriormente
mencionadas al campo empresarial, permite contar con metodologías que
sirven de soporte a los complejos procesos de análisis. Dichos procesos se
requieren en el descubrimiento de las tendencias del negocio a fin de tomar
decisiones eficientes y oportunas, y poder afrontar los retos que impone el
mundo globalizado, en donde el conocimiento y su correcta aplicación
aparecen como un factor esencial para el desarrollo de las organizaciones y
de la economía en general.
BIBLIOGRAFIA
Arias, J., Fabián M.(2005): “Pronóstico del tipo de cambio colombiano: Una
aproximación desde las redes neuronales”. Edición electrónica accesible a
texto completo en http:/www.uniandes.edu.co. Páginas:4-31.
Bracamonte R..C. y Villamizar, J.G. (2002): “Diseño e Implementación de un
sistema inteligente utilizando redes neuronales”. Tesis Uninorte. Páginas: 6-
18.
Boucier, D. y Casanova, P.(2003): “Inteligencia Artificial y Derecho”. Editorial
UOC. Páginas: 54-72.
Flores, M.(n.d): “La Inteligencia Artificial en la Gestión Empresarial”. Edición
electrónica accesible a texto
completo en http://www.monografias.com/trabajos28/inteligencia-artificial-
gestion-empresarial/inteligencia-artificial-gestion-empresarial.shtml
Giatarrano, J. Y Riley, G. (2001): “Principios y Programación”. Internacional
Thomson Editores. Páginas 1-50.
Graubard, Stephen R. (1993):“El nuevo debate sobre la inteligencia artificial-
Sistemas simbólicos y redes neuronales”. Editorial Gedisa . Primera edición.
Páginas: 29-96.
Guy, B., Pierre, L y Pomerol, J.C.(1990): “Los sistemas expertos en la
empresa”. Macrobit Corporation. Página: 9-189.
Harmon, P. y King, D. (1985): “Artificial Intelligence In business Expert
System” A Wiley Press Book . Páginas 1-21.
Hilera J. y Martínez, V. (1995): “Redes Neuronales Artificiales. Fundamentos,
Modelos y Aplicaciones ”. RA-MA/Addison Wesley Iberoamericana.