Post on 21-Jan-2016
Algoritmo de pivote
De Wikipedia, la enciclopedia libre Saltar a: navegación, búsqueda
Los algoritmos de pivote (o algoritmos de cambio de base) son algoritmos de la optimización matemática, y en especial de la Programación Lineal. Dado un sistema de ecuaciones lineales cuyas variables deben adoptar valores no-negativos (esencialmente
lo mismo que un sistema de inecuaciones lineales), se busca la mejor de entre muchas soluciones alternativas, es decir, una solución óptima del sistema. En cada paso de tal búsqueda, el algoritmo transforma el sistema sin alterar su conjunto de soluciones.
Algoritmos de pivote importantes son los diversos algoritmos simplex1 2 y los algoritmos criss-cross3 .
Los algoritmos de pivote son de gran importancia para el tratamiento de inecuaciones
lineales, donde juegan un papel análogo al de la eliminación de Gauss para ecuaciones lineales. Se encuentran numerosas aplicaciones2 de sistemas de inecuaciones en áreas tan diversas como la investigación de operaciones industriales, el transporte y
distribución de bienes, en carteras de inversiones, la ingeniería estructural, la estadística, y la teoría de juegos. Frecuentemente se abordan sistemas con decenas de miles de
variables4 .
Índice
[ocultar]
1 Procedimiento general o 1.1 El problema normalizado
o 1.2 Condiciones de optimalidad o 1.3 Transformación de las ecuaciones
o 1.4 Pivotes admisibles 2 Implementación y ejemplo
o 2.1 Problemas con muchas variables
o 2.2 Una implementación directa o 2.3 Ejemplo de elección de pivotes
3 Dualidad o 3.1 Problemas duales o 3.2 Transformaciones sucesivas
o 3.3 Tratamiento conjunto 4 Herramienta interactiva
5 Literatura complementaria 6 Referencias
Procedimiento general[editar · editar código]
El problema normalizado[editar · editar código]
Todo algoritmo de pivote parte de un sistema especialmente arreglado de ecuaciones
lineales, cuyas variables todas, excepto tal vez una, deben tomar valores no-negativos. De hecho, cualquier sistema de inecuaciones o ecuaciones lineales, así como todo
problema de Programación Lineal, puede siempre reducirse a la siguiente forma diccionario1 2 :
donde los son números reales (en la práctica casi siempre números racionales). Este formato especifica que se busca valores para las incógnitas
, que satisfagan las ecuaciones e inecuaciones del sistema anterior de modo tal que la variable objetivo tome el mayor valor posible. Definiendo los conjuntos de índices
se escribirá ésto en lo que sigue de la forma más compacta
En cada iteracion de un algoritmo de pivote se destaca un conjunto de variables independientes, mientras que las restantes son variables dependientes y se expresan
como funciones lineales de las primeras. Al pasar de una iteración a la siguiente se intercambia una variable independiente por una dependiente; tales pares de variables se
denominan pivotes.
Condiciones de optimalidad[editar · editar código]
En caso de que se cumplan las siguientes dos condiciones de optimalidad,
para todo (sistema factible) y
para todo (sistema acotado),
podemos obtener una solución al problema anterior, asignando a las variables
independientes del sistema los valores . Por un lado, esto logra
que las variables dependientes adopten valores
nonegativos, tal como se pedía. Por otro lado, toda solución alternativa al problema
debe satisfacer la relación , ya que en ella las variables independientes también
deben tomar valores nonegativos.
( Por ejemplo, en el siguiente sistema,
las condiciones de optimalidad son violadas en dos lugares, ya
que y . Por un lado, los valores obtenidos al anular
las variables independientes, , no constiuyen una solución admisible
porque contienen un valor negativo, . Por otro lado, no podemos descartar la posibilidad de aumentar el valor que adopta la variable
objetivo eligiendo conjuntos de variables independientes con
. )
Transformación de las ecuaciones[editar · editar código]
En el caso habitual de que las condiciones de optimalidad no se cumplan, puede
reformularse el sistema de ecuaciones, eligiendo adecuadamente un nuevo subconjunto de entre las incógnitas, y expresando las incógnitas elegidas en función de las
incógnitas restantes. Sea un reordenamiento de las variables, es decir una función de los índices que cumpla
A partir de la partición con
,
que divide las variables del sistema en variables independientes con y las
llamadas variables básicas con , se construye entonces el sistema:
Nótese que los coeficientes existen sólo para pares de subíndices con y
con . En cada iteración, los coeficientes del sistema así modificado vuelven a examinarse para ver si satisfacen las condiciones de optimalidad
para todo (sistema factible) y
para todo (sistema acotado),
y de este modo generan una posible solución al problema. Un resultado estándar de la
Programación Lineal establece que todo problema que tiene soluciones también posee un conjunto de variables básicas que conduce a una de ellas1 2 . Si los coeficientes del
sistema satisfacen las condiciones de optimalidad, se dice que las variables básicas forman una base optimal del problema.
Pivotes admisibles[editar · editar código]
Un coeficiente no nulo del sistema de ecuaciones se llama elemento pivote,
porque permite despejar la variable independiente en lugar de la variable básica para así seguir buscando una solución al problema. Sin embargo, los algoritmos de
pivote no eligen un elemento pivote cualquiera, sino solamente los llamados pivotes
admisibles , que deben satisfacer:
O se cumple simultáneamente y (pivote de
restricción),
ó se cumple simultáneamente y (pivote de
objetivo).
( En el ejemplo anterior,
el coeficiente no optimal permite seleccionar el elemento
pivote correspondiente a un pivote admisible con intercambio de
ó también el elemento pivote correspondiente al pivote
admisible Alternativamente, el coeficiente no optimal permite
también seleccionar el elemento pivote correspodiente al pivote
admisible ó el elemento pivote con el pivote admisible
. )
La restricción a pivotes admisibles impide que en dos iteraciones sucesivas se elija el
mismo pivote. Las reglas según las cuales el pivote es elegido dependen del algoritmo de pivote particular. No obstante, debe imponerse que el algoritmo termine en un número finito de pasos, lo que no sucede con una elección de pivotes inadecuada.
Fukuda & Terlaky demostraron5 en 1999 que para todo problema con solución y para toda base inicial existe una secuencia de a lo más pivotes admisibles que
conduce a una base optimal. Lamentablemente, esa demostración no es constructiva en el sentido de que indique cuál pivote deba elegirse en cada paso.
Como se puede observar de las definiciones anteriores, una base optimal no tiene
pivotes admisibles, por lo que el algoritmo no puede ser continuado a partir de una base optimal. Por otro lado, es fácil demostrar con argumentos similares a los expuestos que
una base no optimal sin pivotes admisibles siempre pertenece a un problema sin solución; sea esto, porque el sistema de ecuaciones e inecuaciones no tiene solución alguna (problema infactible), o porque existen soluciones con un valor objetivo
arbitrariamente grande (problema no acotado).
Implementación y ejemplo[editar · editar código]
Problemas con muchas variables[editar · editar código]
La implementación computacional de problemas prácticos a menudo dista mucho de ser trivial6 . Los coeficientes de sistemas con decenas de miles de variables siempre presentan una u otra estructura, la cual debe ser aprovechada para determinar los
sistemas de iteraciones subsecuentes de manera relativamente rápida y numéricamente estable (sin mayores errores de redondeo):
Los sistemas iniciales de problemas grandes (no los sistemas transformados)
contienen una inmensa mayoría de coeficientes iguales a cero (el sistema es disperso), lo que permite ahorrar muchas operaciones aritméticas si se recurre al sistema de partida.
Muchos procedimientos se basan en una evaluación retardada, donde se calcula sólo aquellos coeficientes de un sistema que sean necesarios para determinar un
pivote, y ésto solamente en el instante en que se ocupan. Para evitar la evaluación de coeficientes superfluos tales procedimientos emplean permutaciones de las variables en el sistema de partida, factorizaciones de las
inversas de matrices básicas, una factorización de la matriz de coeficientes, y otras técnicas más. En todos estos casos suele ser necesario referirse a sistemas
de iteraciones previas a la última, por lo que las transformaciones adoptan formas bastante más complejas que la directa.
A menudo se encuentran insertas en la estructura del sistema diversas estructuras
especiales, por ejemplo de flujos en redes1 7 , y para tales estructuras especiales se ha desarrollado implementaciones particularmente eficientes.
No obstante lo anterior, hay también muchas aplicaciones que dan origen a problemas
de tamaño moderado, problemas para los cuales basta una implementación simple.
Una implementación directa[editar · editar código]
Para evitar errores de redondeo se trabaja en lo que sigue con números racionales,
eligiendo un único denominador común para todo el sistema de ecuaciones. Para encontrar un denominador así en cada paso del algoritmo no hace falta analizar los coeficientes del sistema; en caso de un sistema inicial con coeficientes enteros, en cada
iteración se cumplirá que
El numerador del elemento pivote es un denominador común para el
sistema de ecuaciones siguiente.
Al evaluar los coeficientes de un nuevo sistema el denominador común del sistema anterior quedará obsoleto, por lo que se procede a dividir los coeficientes del sistema
nuevo por el denominador antiguo, con resultados que siempre serán enteros.8
Un arreglo matricial que contiene los coeficientes de un sistema de pivote suele
llamarse tabla de pivoteo o cuadro de pivoteo. El siguiente esquema muestra cómo cambian los coeficientes del sistema de pivoteo al pasar de una iteración a la que sigue:
En ese esquema, el símbolo designa al denominador común del sistema de ecuaciones,
el símbolo designa al numerador del elemento pivote, designa cualquier coeficiente
restante en la misma fila del elemento pivote, designa cualquier coeficiente restante en la misma columna del elemento pivote, y cualquier coeficiente ajeno a la fila y a la
columna del pivote. Los coeficientes de la variable a maximizar ( ) y los
coeficientes de la columna de valores ( ) se transforman de acuerdo a las mismas reglas.
Las ilustraciones en cada paso del ejemplo siguiente muestran todas el mismo sistema de ecuaciones graficado en distintos sistemas de coordenadas. En estos gráficos,
el área bordeada de verde es el conjunto de soluciones factibles, para el
cual todas las variables toman valores no-negativos,
los ejes de coordenadas corresponden a ecuaciones de variables independientes, las demás rectas a ecuaciones de variables básicas,
la recta en rojo recorre los puntos donde la variable objetivo adopta su valor máximo,
las intersecciones de rectas correspondientes a pivotes admisibles llevan puntos rojos, el pivote seleccionado va bordeado de negro, y
el área anaranjada corresponde al ortante no-negativo de la iteración
siguiente.
Ejemplo de elección de pivotes[editar · editar código]
La siguiente estrategia de elección de pivote corresponde al algoritmo criss-cross con
pivoteo en los índices mínimos (minimal index criss-cross-algorithm). En cada paso, el pivote admisible se elegirá de acuerdo a la siguiente regla (el mínimo de un conjunto
vacío se considera igual a infinito):
1. Determinar los índices
y . 2. Si se tiene , elegir el pivote
donde . 3. Si se tiene , elegir el pivote
donde .
Se puede demostrar3 que este criterio simple (aunque no siempre eficiente) conduce siempre a una base optimal en un sistema que tenga solución.
En el siguiente ejemplo se busca valores no negativos para las variables
que maximicen la variable adicional satisfaciendo el siguiente conjunto de ecuaciones lineales:
En el sistema inicial del ejemplo, los coeficientes no optimales son , , y
todos los pivotes son admisibles. El criterio de selección, sin embargo, prescribe que despejemos en lugar de :
Cambio de la base 0 a la base 1
(para animar con Firefox, pulsar aquí y luego en la imágen, manteniendo presionado)
Con ello obtenemos:
Ahora los coeficientes no optimales son con los pivotes admisibles
, , y el coeficiente con los pivotes admisibles
, . En consecuencia, despejamos en lugar de :
Cambio de la base 1 a la base 2
(animado)
Se obtiene el sistema
El único coeficiente no optimal en este sistema es con los pivotes admisibles
, ; despejamos en lugar de :
Cambio de la base 2 a la base 3
(animado)
El sistema final es
Como este sistema satisface las condiciones de optimalidad, hemos obtenido la solución
Dualidad[editar · editar código]
Problemas duales[editar · editar código]
A todo problema de programación lineal llevado a la forma básica arriba descrita se le
puede asociar un problema dual de programación lineal. Con respecto a esa forma básica, la matriz de coeficientes del problema dual es la matriz negativa traspuesta de la
matriz de coeficientes del problema original, lo que muestra de paso que el dual del problema dual es el problema original, llamado problema primal en ese contexto.
ó, en notación compacta,
(Precaución: Al usar la forma diccionario para escribir el problema dual, no es lícito
sustituir por !)
Transformaciones sucesivas[editar · editar código]
La relación anterior entre los coeficientes de un par de problemas duales no se cumple
solamente para el sistema de partida, sino que persiste paso a paso a través de un algoritmo de pivotes, siempre y cuando el pivote elegido en cada iteración sea el mismo
en ambos problemas:
La relación de dualidad es particularmente fácil de observar en un sistema de pivoteo que tiene sólo dos variables independientes y dos variables despejadas. El sistema obtenido es el mismo si se intercambia el estado de dos de las variables y a continuación
se construye el problema dual, o si se realiza estas operaciones en orden inverso:
De esta relación de dualidad se concluye que toda base optimal para el problema primal provee también una base optimal para el problema dual. Al ejemplo anteriormente desarrollado le corresponde el problema dual
El sistema optimal de este problema es entonces
En el problema original, la variable a maximizarse toma el valor óptimo ; el valor óptimo del problema dual es el negativo de este valor: el mayor valor posible que
su variable objetivo puede adoptar es . Una posible solución óptima para el problema dual es
.
Tratamiento conjunto[editar · editar código]
Una importante consecuencia teórica de la dualidad es la siguiente: para resolver problemas de optimización lineal no se requiere un algoritmo que maximice (o minimice) una de las variables, basta para ello cualquier algoritmo capaz de resolver
sistemas de desigualdades lineales. Esto es así porque las relaciones de dualidad implican que toda base optimal para el problema primal también provee una base
optimal para el problema dual, donde el valor óptimo de la variable del problema dual es el negativo del valor óptimo de la variable del problema original. Por tanto, para pares de soluciones óptimas se tiene
Por otro lado, para pares de soluciones factibles de las cuales al menos una no es óptima se cumple
De ahí podemos concluir que las soluciones óptimas para un par de problemas duales
son exactamente las soluciones del siguiente sistema de desigualdades
donde las variables , , se hayan sustituido por las expresiones lineales correspondientes. En el caso de aplicaciones prácticas, sin embargo, esta forma de proceder sólo es competitiva si se logra aprovechar adecuadamente la estructura de datos común a los sistemas primal y dual.
Herramienta interactiva[editar · editar código]
El applet de pivoteo interactivo de Robert Vanderbei, programado en 1997, permite definir un sistema de ecuaciones lineales de tamaño reducido y realizar en ese sistema
pivoteos sobre pares arbitrarios de variables. La herramienta (en inglés) se autodenomina «Simplex Pivot Tool», pero está orientada a algoritmos de pivote totalmente arbitrarios. Para evitar redondeo, los coeficientes del sistema pueden también
verse en forma de fracciones, aunque éstas no adoptan un denominador común.
Literatura complementaria[editar · editar código]
George Dantzig (1963): Linear Programming and Extensions, Princeton
University Press, archivo pdf Vašek Chvátal (1983): Linear Programming, Freeman and Company, New York
NY, ISBN 0-7167-1587-2
Robert Vanderbei (2007): Linear Programming. Foundations and Extensions, 3a ed., Springer, ISBN 978-0-387-74387-5, archivo pdf
Referencias[editar · editar código]
1. ↑ a b c d Vašek Chvátal (1983): Linear Programming., Freeman and Company, ISBN 0-
716-71587-2 2. ↑
a b c d Robert Vanderbei (1996/2007): Linear Programming; Foundations and
Extensions, 3.ed. Springer, ISBN 978-0-387-74385-5, archivo pdf, (edición alternativa: Linear Programming; Foundations and Extensions, Kluwer, 1996, ISBN 0-7923-9804-1)
3. ↑ a b Komei Fukuda & Tamás Terlaky (1997): Criss-cross methods: A fresh view on
pivot algorithms, Mathematical Programming, 79, 369-395, archivo ps 4. ↑ Robert Vanderbei: Linear Programming. Foundations and Extensions, Kluwer, ISBN
978-0-7923-9804-2}}, capítulo 21.4: Simplex Method vs Interior-Point Methods.
5. ↑ Komei Fukuda & Tamás Terlaky (1999): On the Existence of a Short Admissible Pivot Sequences for Feasibility and Linear Optimization Problems, Pure Mathematics and Applications, vol.10, 431-447, archivo ps
6. ↑ Robert Vanderbei: Linear Programming. Foundations and Extensions (= International Series in Operations Research & Management Science. Bd. 114). 3rd edition. Springer, New York NY 2007, ISBN 978-0-387-74387-5, Kapitel 8: Implementation Issues.
7. ↑ Robert Vanderbei: Linear Programming. Foundations and Extensions (= International Series in Operations Research & Management Science. Bd. 114). 3rd edition. Springer, New York NY 2007, ISBN 978-0-387-74387-5, Kapitel 13: Network Flow Problems.
8. ↑ Erwin Bareiss (1968): Sylvester's Identity and Multistep Integer-Preserving Gaussian Elimination, Mathematics of Computation, vol.22 (102), 565-578, archivo pdf
Obtenido de
«http://es.wikipedia.org/w/index.php?title=Algoritmo_de_pivote&oldid=70798063» Categorías:
Algoritmos Optimización Álgebra lineal numérica
Menú de navegación
Herramientas personales
Crear una cuenta Ingresar
Espacios de nombres
Artículo Discusión
Variantes
Vistas
Leer Editar
Editar código Ver historial
Acciones
Buscar
Buscar
Navegación
Portada Portal de la comunidad
Actualidad Cambios recientes Páginas nuevas
Página aleatoria Ayuda
Donaciones Notificar un error
Imprimir/exportar
Crear un libro
Descargar como PDF Versión para imprimir
Herramientas
Lo que enlaza aquí Cambios en enlazadas Subir un archivo
Páginas especiales Enlace permanente
Información de la página Elemento de datos Citar este artículo
En otros idiomas
Deutsch Editar los enlaces
Esta página fue modificada por última vez el 14 nov 2013, a las 13:04.
Álgebra lineal
De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
El álgebra lineal es una rama de las matemáticas que estudia conceptos tales como vectores, matrices, sistemas de ecuaciones lineales y su enfoque de manera más formal,
espacios vectoriales y sus transformaciones lineales.
Es un área activa que tiene conexiones con muchas áreas dentro y fuera de las
matemáticas como ser el análisis funcional, las ecuaciones diferenciales, la investigación de operaciones, las gráficas por computadora, la ingeniería, etc.
La historia del álgebra lineal moderna se remonta a los años de 1843 cuando William
Rowan Hamilton (de quien proviene el uso del término vector) creó los cuaterniones; y de 1844 cuando Hermann Grassmann publicó su libro Die lineare Ausdehnungslehre
(La teoría lineal de extensión)
Índice
[ocultar]
1 Contexto general 2 Espacios vectoriales de uso común
o 2.1 Vectores en Rn o 2.2 Matrices
o 2.3 Espacio vectorial de polinomios en una misma variable 3 Generalización y temas relacionados 4 Véase también
5 Enlaces externos
Contexto general[editar · editar código]
De manera más formal, el álgebra lineal estudia conjuntos denominados espacios vectoriales, los cuales constan de un conjunto de vectores y un conjunto de escalares
(que tiene estructura de campo, con una operación de suma de vectores y otra de producto entre escalares y vectores que satisfacen ciertas propiedades (por ejemplo, que
la suma es conmutativa).(métodos cuantitativos).
Estudia también transformaciones lineales, que son funciones entre espacios vectoriales que satisfacen las condiciones de linealidad:
A diferencia del ejemplo desarrollado en la sección anterior, los vectores no necesariamente son n-adas de escalares, sino que pueden ser elementos de un conjunto
cualquiera (de hecho, a partir de todo conjunto puede construirse un espacio vectorial sobre un campo fijo).
Finalmente, el álgebra lineal estudia también las propiedades que aparecen cuando se impone estructura adicional sobre los espacios vectoriales, siendo una de las más
frecuentes la existencia de un producto interno (una especie de producto entre dos vectores) que permite introducir nociones como longitud de vectores y ángulo entre un
par de los mismos...
Espacios vectoriales de uso común[editar · editar
código]
Dentro de los espacios vectoriales de dimensión finita, son de amplio uso los tres tipos
siguientes de espacios vectoriales:
Vectores en Rn[editar · editar código]
Este espacio vectorial está formado por el conjunto de vectores de n dimensión (es decir
con n número de componentes). Podemos encontrar un ejemplo de ellos en los vectores R2 , que son famosos por representar las coordenadas cartesianas: (2,3), (3,4),...
Matrices [editar · editar código]
Artículo principal: Matriz (matemática)
Es un arreglo rectangular de números, símbolos o expresiones, cuyas dimensiones son descritas en las cantidades de filas (usualmente m) por las de columnas (n) que poseen. Los arreglos matriciales son particularmente estudiados por el álgebra lineal y son
bastantes usados en las ciencias e ingeniería.
Espacio vectorial de polinomios en una misma variable[editar · editar
código]
Un ejemplo espacio vectorial está dado por todos los polinomios cuyo grado es menor o igual a 2 con coeficientes reales sobre una variable x.
Ejemplos de tales polinomios son:
La suma de dos polinomios cuyo grado no excede a 2 es otro polinomio cuyo grado no
excede a 2:
El campo de escalares es naturalmente el de los números reales, y es posible multiplicar
un número por un polinomio:
donde el resultado nuevamente es un polinomio (es decir, un vector).
Un ejemplo de transformación lineal es el operador derivada D, que asigna a cada
polinomio el resultado de derivarlo:
El operador derivada satisface las condiciones de linealidad, y aunque es posible
demostrarlo con rigor, simplemente lo ilustramos con un ejemplo la primera condición de linealidad:
y por otro lado:
Cualquier espacio vectorial tiene una representación en coordenadas similar a , lo cual se obtiene mediante la elección de una base (álgebra) (es decir, un conjunto
especial de vectores), y uno de los temas recurrentes en el álgebra lineal es la elección de bases apropiadas para que los vectores de coordenadas y las matrices que representan las transformaciones lineales tengan formas sencillas o propiedades específicas.
Generalización y temas relacionados[editar · editar
código]
Puesto que el álgebra lineal es una teoría exitosa, sus métodos se han desarrollado por
otras áreas de la matemática: en la teoría de módulos, que remplaza al cuerpo en los escalares por un anillo; en el álgebra multilineal, uno lidia con 'múltiples variables' en
un problema de mapeo lineal, en el que cada número de las diferentes variables se dirige al concepto de tensor; en la teoría del espectro de los operadores de control de matrices de dimensión infinita, aplicando el análisis matemático en una teoría que no es
puramente algebraica. En todos estos casos las dificultades técnicas son mucho más grandes.
Véase también[editar · editar código]
Portal:Matemática. Contenido relacionado con Matemática.
Enlaces externos[editar · editar código]
Wikimedia Commons alberga contenido multimedia sobre Álgebra lineal. Álgebra lineal por Elmer G. Wiens (en inglés)
Álgebra Lineal: Conceptos Básicos Introducción al Álgebra Lineal en Contexto por José Arturo Barreto
Obtenido de
«http://es.wikipedia.org/w/index.php?title=Álgebra_lineal&oldid=71100167» Categoría:
Álgebra lineal
Menú de navegación
Herramientas personales
Crear una cuenta Ingresar
Espacios de nombres
Artículo Discusión
Variantes
Vistas
Leer Editar
Editar código Ver historial
Acciones
Buscar
Buscar
Navegación
Portada Portal de la comunidad
Actualidad Cambios recientes Páginas nuevas
Página aleatoria Ayuda
Donaciones Notificar un error
Imprimir/exportar
Crear un libro
Descargar como PDF Versión para imprimir
Herramientas
Lo que enlaza aquí Cambios en enlazadas
Subir un archivo Páginas especiales
Enlace permanente
Información de la página Elemento de datos
Citar este artículo
Otros proyectos
Commons
En otros idiomas
Afrikaans Aragonés ية عرب ال
Azərbaycanca Башҡортса
Беларуская
Български
Bosanski Català Čeština
Dansk Deutsch Ελληνικά
English Esperanto
Eesti Euskara سی ار ف
Suomi Français
贛語
Galego עברית
Hrvatski Magyar
Bahasa Indonesia Íslenska Italiano
日本語
ქართული
Қазақша
한국어
Latina Lietuvių
Latviešu
Македонски
Bahasa Melayu Nederlands Norsk nynorsk
Norsk bokmål Occitan
Polski Piemontèis Português
Română Русский
Sicilianu Srpskohrvatski / српскохрватски Simple English
Slovenčina Slovenščina
Shqip Српски / srpski Svenska
Тоҷикӣ
Türkçe Українська اردو Oʻzbekcha
Tiếng Việt
Winaray
Yorùbá
中文
粵語
Editar los enlaces
Esta página fue modificada por última vez el 30 nov 2013, a las 22:00. El texto está disponible bajo la Licencia Creative Commons Atribución
Compartir Igual 3.0; podrían ser aplicables cláusulas adicionales. Léanse los términos de uso para más información. Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una
organización sin ánimo de lucro.