Inteligencia Artificial Y Computacional
-
Upload
maria-dovale -
Category
Technology
-
view
10.891 -
download
1
Transcript of Inteligencia Artificial Y Computacional
MARIA DOVALE
Avances
Evolución
Procesos
El hombre ha ido en un gran búsqueda de su propia superación, y poco a poco ha conseguido la meta que desde siempre ha sido la clave para lograr lo que
actualmente tenemos en nuestras manos: UNA REALIDAD QUE SOLO ERA UN SUEÑO!!!
Vivimos en un mundo jamás soñado antes, pero…
¿Acaso sabemos de donde salió lo que tenemos en nuestras manos?
La inteligencia artificial y computacional no es más que la rama de la electrónica que se encarga de imitar y modelar la inteligencia real y la
naturaleza misma a través de algoritmos matemáticos, sistemas y procesos lógicos para llegar a sustituir el comportamiento humano lo
mejor posible.
Los objetos que se crean son hechos en base a la misma naturaleza, es decir, que toma como ejemplo e inspiración los mecanismos que la
madre tierra incorpora a diario para realizar cualquier tarea y así poder emular las características de esta en los sistemas artificiales.
HISTORIA DE LA INTELIEGENCIA ARTIFICIAL
El término fue inventado en 1956, en "la conferencia de Darmouth" celebrada, en Hanover (Estados Unidos), y en ella, McCarthy, Marvin Minsky, Nathaniel Rochester y Claude E. Shannon establecieron a la inteligencia artificial como un campo independiente dentro de la informática.
John McCarthy a veces conocido afectuosamente como Tío John McCarthy, es un importante científico computacional, hizo importantes contribuciones en el campo de Inteligencia Artificial. De hecho, él fue el responsable de introducir el término “inteligencia artificial”, este concepto lo acuñó en la Conferencia de Dartmouth en 1956. McCarthy inventó el lenguaje de programación Lisp. Él ayudó a motivar la creación del Proyecto MAC en el MIT.
Alan Turing
Matemático británico nació en 1912 y falleció en 1953. Diseño el primer computador electrónico digital y funcional del mundo en la década de digital y funcional del mundo en la década de 1940. Padre de la inteligencia artificial. Creador de la conocida maquina de Tuning, del test de Tuning y de la teoría de la computabilidad
1936 - 1937
Turing publico “on computable number”, un articulo que estableció el origen de la computación. Ahí mismo describió lo que dio como nombre maquina de turing. El articulo fijo los limites de la ciencia de la computación, por que demostró que no es posible resolver problemas con ningún tipo de computador.
MAQUINA DE TURINGLa máquina de Turing es un modelo computacional, publicado por la La máquina de Turing es un modelo computacional, publicado por la
Sociedad Matemática de Londres, Turing construyó un modelo formal de computador, que podría efectuar teóricamente cualquier cálculo matemático, fue importante en el desarrollo de las computadoras digitales y dio como resultado que existían problemas que una máquina no podía resolver. La máquina de Turing es un modelo matemático abstracto que formaliza el concepto de algoritmo.
Teoría de la computabilidad
La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión que pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la computabilidad se interesa en tres preguntas:de la computabilidad se interesa en tres preguntas:
• ¿Que problemas puede resolver una máquina de Turing?
• ¿Que otros formalismos equivalen a las máquinas de Turing?
• ¿Que problemas requieren máquinas más poderosas?
1938 - 1943
De la teoría a la practica:
COLOSSUS
Con la misión supersecreta de descifrar el código militar alemán, Turing crea en Gran Bretaña, con un grupo de matemáticos el Turing crea en Gran Bretaña, con un grupo de matemáticos el COLOSSUS, una maquina de propósito especifico considerado como el primer computador digital electrónico. Desde que se completo el Colossus en 1943 hasta que termino la guerra, describió con éxito los códigos Nazis. Muchos expertos creen que Colussus fue responsable de la derrota de los Nazis.
1950 - 1954Turing entro en el campo de la Inteligencia Artificial con su articulo
“Computing Machinery and Intelligence” publicado en 1950. en el propuso una prueba concreta para determinar si una maquina era inteligente o no. Años después Turing se convirtió en el pionero de quienes defendían la posibilidad de imitar el pensamiento humano a través de la computación. Siendo al autor del primer programa para jugar ajedrez.
Prueba de TuringSe llama Prueba o Test de Turing al procedimiento desarrollado por Alan Turing para identificar la existencia de inteligencia en una máquina. expuesto en 1950 en un artículo “Computing machinery and intelligence”. siendo hoy en día una opción para los defensores de la Inteligencia Artificial.
Inteligencia Computacional es una colección de paradigmas
computacionales con inspiración biológica y lingüística, en los
cuales se incluye la teoría, el diseño, la aplicación y el desarrollo de
redes neuronales, sistemas coneccionistas, algoritmos evolutivos,
sistemas difusos y sistemas inteligentes híbridos
Recientemente, se han incluidos nuevas áreas tales como: Recientemente, se han incluidos nuevas áreas tales como:
desarrollo mental autónomo, bioinformática y bioingeniería, y
finanzas y economía computacional.
Los nuevos avances alcanzados por los investigadores indican que en un futuro
no muy lejano la interacción hombre-máquina podría ser a través del lenguaje
natural. Por otra parte, los primeros sistemas basados en interfaces sistemas basados en interfaces
tridimensionales ya están empezando a ser implementados, y todo parece indicar
que su introducción en el mercado no está muy lejana.
OBJETIVOS:
• Desarrollar técnicas que permitan a las computadoras aprender.
• Crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos.
���� ES: Un proceso de inducción del conocimiento.
MACHINE LEARLING
���� ES: Un proceso de inducción del conocimiento.
Se centra en el estudio de la complejidad computacional de los problemas, los cuales son de clase NP –Hard. (Clase de complejidad de problemas y algoritmos)
Algunos tipos de algoritmos más usados para el aprendizaje automático son: APRENDIZAJE SUPERVIZADO, APRENDIZAJE NO –SUPERVISADO, APRENDIZAJE POR REFUERZO, TRANSDUCCION, APRENDIZAJE MULTITAREA.
ALGUNOS TEMAS TRATADOS POR EL APRENDIZAJE AUTOMATICO SON:
• Redes neuronales artificiales.
• Árboles de decisión.
• Regresión en procesos Gaussianos.
• Análisis de discriminantes lineales.
• k – vecinos mas próximos.
• Perceptrón.• Perceptrón.
• Funciones de base redial.
• Máquinas de soporte vectorial.
• Algoritmo EM.
• Modelos gráficos.
• Cadenas de Marcow y Método de Monte Carlo.
• Métodos variacionales.
KNOWLEDGE ENGINEERING
Ayuda a construir aplicaciones y sistemas orientados al aprendizaje, apoyándose en metodologías instruccionales, en tecnología de computación y telecomunicaciones intentando representar el conocimiento y razonamiento humanos.
OBJETIVOS:
•Extraer el conocimiento de expertos humanos y codificarlo de manera que pueda ser procesado por un sistema.
•Analizar los métodos de aprendizaje y aplicarlos sobre computadores de manera que sea posible desarrollar un sistema capaz de aprender por si mismo.
FUZZY LOGIC
Son proposiciones que admiten varios valores de verdad
posibles y la LOGICA DIFUSA es la encargada de descifrar y
cuantificar estas incertidumbres, esta nueva lógica permite
representar de una forma matemática conceptos o conjuntos
imprecisos, tales como el frío, calor, alto, bajo, mucho, poco.
Se utiliza cuando la complejidad del proceso en cuestión es
muy alta y no existen modelos matemáticos precisos para
procesos altamente no – lineales y cuando se envuelven
definiciones y conocimiento no estrictamente definido
(impreciso o subjetivo).
La lógica difusa en la inteligencia artificial se utiliza para la
resolución de una variedad de problemas, principalmente los
relacionados con control de procesos industriales complejos y
sistemas de decisión en general. Los sistemas basados en
lógica difusa imitan la forma en que toman decisiones los
humanos, con la ventaja de ser mucho más rápidos. Estos
sistemas son generalmente robustos y tolerantes a
imprecisiones y ruidos en los datos de entrada.
ARTIFICIAL NEURAL NETWORKS
(RNA) o (ANN)Son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales.
Consiste en simular las Consiste en simular las propiedades observadas en los sistemas neuronales biológicos a través de modelos matemáticos recreados mediante mecanismos artificiales.
OBJETIVO: Conseguir que las máquinas den respuestas similares a las de un cerebro humano y que estas se caractericen por su generalización y robustez.
REACTIVE SYSTEMS
Los métodos estructurados son formalismos usados para
especificación de sistemas en tiempo real y sistemas reactivos,
estos tienen amplia difusión en la industria por ser gráficos, fáciles
de aprender de utilizar y de revisar, pero al no ser métodos
formales, no existe la posibilidad de analizar propiedades de
seguridad las cuales son muy importantes.
MULTIAGENT SYSTEMS
Un AGENTE es una ENTIDAD INTELIGENTE, es decir, en términos
computacionales: UN PROCESO DEL SISTEMA OPERATIVO, que
existen dentro de cierto contexto o ambiente y que se comunican a
través de un mecanismo de comunicación inter – proceso usualmentetravés de un mecanismo de comunicación inter – proceso usualmente
un sistema de red utilizando protocolos de comunicación.
Entonces un sistema mutiagente es un sistema distribuido en el cual
los nodos o elementos son sistemas de inteligencia artificial, o bien un
sistema distribuido donde la conducta combinada de dichos elementos
produce un resultado en conjunto inteligente.
RULE BASED SYSTEMS
Los sistemas basados en reglas trabajan mediante la
aplicación de reglas, comparación de resultados y aplicación
de las nuevas reglas basadas en situación modificada.
También pueden trabajar por inferencia lógica dirigida, bien También pueden trabajar por inferencia lógica dirigida, bien
empezando con una evidencia inicial en una determinada
situación y dirigiéndose hacia la obtención de una solución,
o bien con hipótesis sobre las posibles soluciones y
volviendo hacia atrás para encontrar una evidencia existente
(o una deducción de una evidencia existente) que apoye una
hipótesis en particular.
CASED BASED REASONING
Se ocupa del estudio de los mecanismos mentales necesarios
para repetir lo que se ha hecho o vivido con anterioridad, ya
sea por experiencia propia o por casos concretos recopiladossea por experiencia propia o por casos concretos recopilados
en la bibliografía o en la sabiduría popular. Los diversos
casos son del tipo "Si X, entonces Y" con algunas
adaptaciones y críticas segun las experiencias previas en el
resultado de cada una de dichas reglas.
EXPERT SYSTEMS
Son programas que se realizan haciendo explícito el conocimiento
en ellos que tienen información específica de un dominio concreto
y que realizan una tarea relativa a este dominio.
Trabajan con inteligencia artificial simbólica, es decir, como su
nombre lo indica a nivel de símbolos, como pueden ser ideas
imágenes conceptos, etc. Aunque debido a su naturaleza
algorítmica se usen internamente instrucciones computables y
estructuras de datos como los MOPS DE SCHANK.
BAYESIAN NETWORKS
Consta de dos componentes:
CUALITATIVO Y CUANTITATIVO
Es un modelo de pruebas mutivariado que relaciona un
conjunto de variables aleatorias mediante un grafo dirigido el
cual indica explícitamente una influencia causal.
Se basa en el teorema de BAYES y es una herramienta útil en la
estimación de probabilidades ante nuevas evidencias.
ARTIFICIAL LIFE
Es el estudio de la vida y de los sistemas artificiales que exhiben
propiedades similares a los seres vivos a través de modelos de
simulación.simulación.
Esta nueva ciencia es el punto de encuentro de otras áreas mas
tradicionales como lingüística física, matemáticas, filosofía,
computación, biología, antropología y sociología.
VIDEOGAMESForman parte del sector audiovisual y son creados para divertir.
Los videojuegos están basados en la interacción entre una persona y una entre una persona y una computadora (ordenador). Los videojuegos recrean entornos virtuales en los cuales el jugador puede controlar a un personaje o cualquier otro elemento de dicho entorno, y así conseguir uno o varios objetivos por medio de unas reglas determinadas.
EVOLUCIONARY COMPUTACION
Retoma conceptos de la evolución y la genética para resolver
problemas de optimización.
Sus raíces datan de los ALGORITMOS GENETICOS, LA
PROGRAMACION EVOLUTIVA Y LAS ESTRTEGIAS
EVOLUTIVAS
La interfaz de usuario es la forma en que los usuarios pueden comunicarse con una computadora y comprende todos los puntos de contacto entre el usuario y el equipo. Sus principales funciones son:•Manipulación de archivos y directorios •Herramientas de desarrollo de aplicaciones •Comunicación con otros sistemas. •Comunicación con otros sistemas. •Información de estado •Configuración de la propia interfaz y entorno •Intercambio de datos entre aplicaciones •Control de acceso •Sistema de ayuda interactivo.
EXISTEN 2 TIPOS DE INTERFAZ DE USUARIO:•Alfanuméricas•GráficasY pueden ser de hardware o software.
La visión artificial también es conocida como visión por computador o visión técnica el cual es un subcampo de la inteligencia artificial, su propósito es programar un computador para que entienda una escena o las características de una imagen.Objetivos:
•La detección, segmentación, localización y reconocimiento de ciertos objetos en imágenes (por ejemplo, caras humanas).
•La evaluación de los resultados (ej.: segmentación, registro).
•Registro de diferentes imágenes de una misma escena u •Registro de diferentes imágenes de una misma escena u objeto, hacer concordar un mismo objeto en diversas imágenes.
•Seguimiento de un objeto en una secuencia de imágenes.
•Mapeo de una escena para generar un modelo tridimensional de la escena; tal modelo podría ser usado por un robot para navegar por la escena.
•Estimación de las posturas tridimensionales de humanos.
•Búsqueda de imágenes digitales por su contenido.
La lingüística computacional es un campo multidisciplinar de la
lingüistica y la informática que utiliza la informática para estudiar y
tratar el lenguaje humano. Para lograrlo, intenta modelar de forma
lógica el lenguaje natural desde un punto de vista computacional.
Dicho modelado no se centra en ninguna de las áreas de la Dicho modelado no se centra en ninguna de las áreas de la
lingüística en particular, sino que es un campo interdisciplinar, en el
que participan lingüistas, informáticos especializados en
inteligencia artificial, psicólogos cognoscitivos y expertos en
lógica, entre otros.
Minería de Datos o Data Mining, se encuentra dentro del conjunto de
técnicas KDD (Knowledge Discovery in Databases). Se puede definir
como "extracción no trivial de información implícita, desconocida como "extracción no trivial de información implícita, desconocida
previamente, y potencialmente útil desde los datos", y consiste en el
conjunto de técnicas avanzadas para la extracción de información
escondida en grandes bases de datos.
Se trata de la simulación de mundos o entornos, denominados
virtuales, en los que el hombre interacciona con la máquina en
entornos artificiales semejantes a la vida real.
Existen ya programas que, mediante cámaras de vídeo y software Existen ya programas que, mediante cámaras de vídeo y software
permiten construir «puertas virtuales» que enlazan un despacho u
oficina con otro punto cualquiera del edificio (por ejemplo, un
pasillo) y permiten a los que pasan por éste, ver y hablar con los
que están en el despacho, estableciendo comunicaciones
bidireccionales arbitrarias, no previstas por el arquitecto.
El Procesamiento de Lenguajes Naturales, (PLN, o NLP; Natural
Language Processing), es una subdisciplina de la Inteligencia
Artificial y la rama ingenieril de la lingüística computacional. El Artificial y la rama ingenieril de la lingüística computacional. El
PLN se ocupa de la formulación e investigación de mecanismos
eficaces computacionalmente para la comunicación entre
personas o entre personas y máquinas por medio de lenguajes
naturales.
La robótica es una ciencia o rama de la tecnología, que estudia el
diseño y construcción de máquinas capaces de desempeñar tareas
realizadas por el ser humano o que requieren del uso de inteligencia.
Las ciencias y tecnologías de las que deriva podrían ser: el álgebra,
los autómata programables, las máquinas de estados, la mecánica o
la informática.
Tres Leyes de la Robótica son:
•Un robot no puede actuar contra un ser humano o, mediante la inacción, que un ser humano sufra daños.
•Un robot debe de obedecer las ordenes dadas por los seres humanos, salvo que estén en conflictos con la primera ley.
•Un robot debe proteger su propia existencia, a no ser que esté en conflicto con las dos primeras leyes.
Los sistemas de apoyo a la decisión (DSS) son sistemas de tipo OLAP
o de minería de datos que proporcionan información y soporte para
tomar decisiones.