Post on 08-Jun-2015
VERITAS
Editor: Jaime Villalobos Profesor de Física Moderna de la
Universidad Nacional profevillalobos@yahoo.com
Director: Luis Felipe García Estudiante de Ingeniería Industrial
Código 200665. Grupo 8, Numero 13 lfgarciaf@unal.edu.co
Diseño: John Gamboa Estudiante de Ingeniería Industrial
Código 200664. Grupo 8, Numero 12 jegamboag@unal.edu.co
Revisión: Miguel Andrés Garzón
Estudiante de Ingeniería Industrial Código 200667. Grupo 8, Numero 14
magarzonr@unal.edu.co
Ajustes: Eder Mauricio Abello Estudiante de Ingeniería Electrónica Código 261366. Grupo 8, Numero 1
emabellor@unal.edu.co
Investigadores
Cristian Camilo Higuera Estudiante de Ingeniería Electrónica Código 261399. Grupo 8, Numero 12
cchiguerac@unal.edu.co
Rodrigo Salamanca Estudiante de Ingeniería Industrial
Código 200627. Grupo 8, Numero 37 rsalamanca@unal.edu.co
Juan Diego Fique Estudiante de Ingeniería Electrónica Código: 261388. Grupo 8, Numero –
jdfiquer@unal.edu.co
UNIVERSIDAD NACIONAL DE COLOMBIA FACULTAD DE INGENIERÍA
2008
PRIMERA EDICIÓN
EDITORIAL
La revista “Veritas” es un trabajo realizado por los
estudiantes de la facultad de Ingeniería de la Universidad
Nacional de Colombia, elaborado por medio de la estrategia
de aprendizaje “Método Lea” dirigido por el profesor Jaime
Villalobos cuyo objetivo es reforzar las técnicas de
escritura adquiridas por los alumnos a lo largo de sus
estudios. Los artículos presentados a continuación no tiene
una temática específica, cada autor escogió el enfoque de
acuerdo a sus gustos, sus conocimientos y sus aplicaciones,
enfocándose en ideas y conceptos aprendidos a lo largo del
curso de Física Moderna.
Debido a que no se realizó ningún tipo de investigación
científica, absolutamente todos los artículos son trabajos
de revisión bibliográfica (Review). Cada escritor realizó
una labor de consulta entre revistas de divulgación
científica, libros, enciclopedias, entre otros, buscando que
la información presentada fuera la mas veraz posible.
Esperamos que el lector no tome estos escritos como un
trabajo de aprendices, sino como un medio del cual se
puede extraer mucha información y aprender muchos
conceptos acerca de una ciencia tan amplia como lo es la
Física, cuestionándose su manera de percibir el universo
que lo rodea. Todos los autores declaramos que la
redacción de nuestros artículos es completamente
propia; los documentos utilizados como guía se
encuentran referenciados al final del respectivo
artículo.
Autores de la revista Veritas
INDICE
1. EL BING BANG, LA PREGUNTA ACERCA DEL ORIGEN DEL
UNIVERSO (MIGUEL ANDRÉS GARZÓN) 4
2. IDEAS SOBRE EL UNIVERSO (EDER ABELLO) 7
3. ALBERT EINSTEIN Y LA REVOLUCION DE LA FISICA (LUIS
FELIPE GARCÍA) 10
4. GPS Y RELATIVIDAD: APLICACIONES Y CONSECUENCIAS
(JOHN E. GAMBOA) 13
5. DE LA CUANTIZACIÓN DE LA ENERGÍA A LA MECÁNICA
CUÁNTICA (CHRISTIAN C. HIGUERA) 17
6. DIFRACCIÓN DE RAYOS X (RODRIGO SALAMANCA) 20
7. LA VIDA DE LAS ESTRELLAS
(JUAN DIEGO FIQUE RAMIREZ) 25
4
EL BIG BANG, LA PREGUNTA ACERCA DEL ORIGEN DEL
UNIVERSO
Por lo general al tratar de proponer una respuesta para resolver alguna pregunta formulada por la curiosidad humana se
busca ir al fondo de la explicación científica, para responder a la pregunta por el origen del universo se han dado algunas
luces no muy verosímiles ni claramente evidentes acerca de lo que pudo haber pasado en ese tiempo, si eventualmente
sucedió, en realidad aunque las teorías científicas parezcan claramente sustentadas matemáticamente, con el correr del
tiempo se verán siendo atacadas por factores que se dejaron pasar o que simplemente no se conocían entonces, y que
pondrían en peligro la popularidad que tienen estas, en este caso, la certeza de que existe materia escura en una cantidad
mucho mayor a la cantidad de materia conocida es un factor muy fuerte para dudar de la teoría del Big Bang, pues sin
conocer a fondo la situación actual del universo, y en consecuencia de la materia oscura, es muy difícil determinar una
teoría congruente con la ciencia actual.
PALABRAS CLAVE: Big Bang, Materia oscura, Universo
1. Introducción
El hombre siempre ha tenido la necesidad de explorar el
lugar en donde vive, por esto ha estado atento a los cambios
que se presentan a su alrededor y se ha interesado por
conocer el comportamiento y la naturaleza de las cosas que
están en interacción con él diariamente, consecuentemente,
esto lo lleva a preguntarse acerca de su origen y su fin;
siendo esta pregunta imaginable desde la física a la luz del
origen del universo.
Con el correr de los siglos el hombre se ha desarrollado, y
en este sentido también han evolucionado sus preguntas
sobre sí mismo y lo que lo rodea, volviendo sus respuestas
más profundas y especificas, y de nuevo la pregunta acerca
del origen del universo adquiere un papel importante en el
momento de identificar su posición en él, y se han hecho
grandes esfuerzos por entender cómo se comporta.
Las diversas respuestas para la pregunta de cómo se creó el
universo han dado paso a la adopción de paradigmas, ya sea
por respuestas del tipo teológicas o con algún componente
científico en las consideraciones o en los postulados, que de
todas maneras no dejan de ser especulativos en alguna
media, grandes dependientes de la imaginación.
Por lo general el grueso de las personas de nuestro tiempo
responden a la pregunta acerca del origen del universo con
dos palabras: Big Bang, es la teoría más popular, y que mas
satisfecha ha dejado a la humanidad hasta ahora, y ha
creado una caja negra en donde la no consideración de un
principio repentino y circunstancial del universo no es
tomada en cuenta por mucho tiempo, ni en serio.
2. Preliminares, la expansión del universo
Para llegar a contestar la pregunta en discusión, primero se
tuvo que haber pensado en la situación actual del universo,
diversos estudios como los de Edwin Hubble sobre la
distancia de las estrellas, o posteriormente acerca de los
espectros de las estrellas, en los que por medio del efecto
Doppler se concluyó que el universo se está expandiendo,
ya que entre más lejana es la estrella, más grande es su
corrimiento hacia el extremo del color rojo en el espectro, a
partir de lo cual se concluye que las estrellas se están
alejando unas de las otras a una velocidad que aumenta con
las distancia, entonces el universo no puede ser estático[1].
Otros experimentos y postulados teóricos a cerca del
universo han sido considerados a lo largo de la historia de la
física, para esto, un hecho permitió dar pasos importantes en
el estudio del universo actual, son los modelos del ruso
Alexander Friedmann, el consideraba que el universo se
veía igual en todas las direcciones, y que esto ocurre
mirando desde cualquier lugar[2], eso es una aproximación
a la realidad, que fue corroborada por los experimentos de
los norteamericanos Penzias y Wilson, que por medio de un
detector de microondas, lograron captar la radiación
proveniente del universo, y pudieron ver que esta era
prácticamente uniforme en todas las direcciones.
Por lo general de cada nuevo avance se formulan cada vez
más preguntas que deben ser respondidas, ahora bien, si el
universo se está expandiendo uniformemente en todas las
direcciones, ¿esta expansión será eterna?
Tenemos tres casos, el primero es el que proponía
Friedmann, el universo se está expandiendo lentamente, y
este proceso puede ser revertido por la fuerza de gravedad;
el segundo caso el universo se expande tan rápido que la
fuerza de gravedad no lo puede detener, y en el tercer caso
el universo se expande contantemente, la velocidad con que
lo hace va disminuyendo, pero nunca llega ser cero.
De aquí se pueden concluir algunas primeras ideas acerca
del estado del universo, pero van surgiendo más
interrogantes como la proveniencia de la fuerza que hace
que el universo se expanda, y la forma en cómo se propicio
el inicio de la misma.
3. El Big Bang
Por supuesto se piensa en la idea de que todo proviene de
un punto infinitesimal de densidad infinita, que estalló con
gran fuerza formando todo lo que se conoce incluyendo el
tiempo y el espacio, esta idea, aunque satisface muchas de
las consideraciones tenidas en cuenta anteriormente, es una
5
singularidad en donde el tiempo y el espacio no existen, o
bien, si curvatura es infinita [1], por tanto no aplican los
conceptos físicos determinanticos. También se interpreta
como una singularidad de la teoría de la relatividad, en
donde esta colapsa matemáticamente.
Aun estaba fuertemente arraigado el paradigma del estado
estacionario, en donde el universo tiene un equilibro
constante de masa y densidad, esto promovió el surgimiento
de ideas como las de Bondi, Gold y Hoyle, ellos decían que
a medida que las galaxias se alejan unas de las otras, iba
apareciendo masa en los espacios interestelares para
conservar el equilibrio del estado estacionario.
La conclusión conceptual acerca del Big Bang se dio
gracias al estudio sobre las estrellas de Roger Penrose,
cuando una estrella colapsa por si misma llega a una
singularidad del espacio-tiempo llamada agujero negro,
Hawking pensó entonces que si se invierte este hecho, el
colapso es entonces una expansión, y que de manera similar
pudo haber surgido el universo, pero esto no queda aun del
todo claro.
4. Otras miradas al Big Bang
Se consideran diversos puntos de vista para mirar las cosas
de una manera holística, que permita tener un concepto más
claro, o una mayor aproximación de la realidad, y ahora con
mayor conocimiento se puede cuestionar la veracidad de
teorías propuestas con anterioridad o simplemente
proporcionar nuevas fuentes de estudio para corroborarlas,
y el Big Bang no es la excepción.
Se puede analizar el universo a partir de la métrica de
Senovilla, “que describe un universo inhomogeneo con una
fuente de fluido perfecto” [3], se cambian las ecuaciones de
Einstein al respecto, y se describe el universo como si no
hubiera tenido Big Bang, pero si con una aproximación a
que este haya ocurrido, en donde las expresiones para
energía y presión son siempre finitas, y en base a ello se
puede definir matemáticamente un parámetro para la
expansión, teniendo en cuenta la dinámica del espacio
tiempo. En la grafica 1 se puede ver la densidad de energía
en función del tiempo en el universo.
Grafica 1: densidad de energía en función del tiempo “antes
y después del Big Bang”
En la grafica 1 se tiene en cuenta el tiempo antes y después
del “Big Bang”, se ve una distribución de antes y después
de él, en donde al acercase al punto cero, la densidad sube
significativamente con un comportamiento parecido al de la
teoría del Big Bang original, este estudio pretender dar una
nueva herramienta para el estudio de las posibilidades
teóricas en la cosmología.
Hay otra manera de ver los sucesos, así como se apoyan, se
pueden atacar, y existen diversas maneras de hacerlo, como
desde la razón, José Bermejo de la Universidad de
Compostela, cuestiona la veracidad del Big Bang a partir de
postulados como los de Einstein, partiendo de ese punto se
considera la relatividad en la visión de los sucesos, por
tanto, el Big Bang es un acontecimiento de “ficción
verosímil, de tipo narrativo y no científico” [4].
No se debería dar por hecho científico, pues conocemos la
mínima parte de la materia existente en el universo,
teniendo en cuenta la existencia de materia oscura que no
emitiría algún tipo de luz o de cualquier otro tipo de
radiación, que es la manera en cómo podemos conocer lo
que ha pasado en partes para nosotros lejanas del universo.
Se propone dar una probabilidad para la verdad en el
universo, y que esta sea igual a rata entre la cantidad de
materia conocida y la cantidad de materia oscura, la cual
sería muy baja; para hechos como la captación de radiación
de fondo que se supone habría surgido en el origen del
universo, pero no hay una prueba clara de eso si no se
conoce con claridad que es la materia oscura. Así pues el
Big Bang es considerado el límite entre el lenguaje
matemático y el lenguaje cosmológico, un límite
epistemológico.
Se han mostrado dos formas de ver de una sola teoría, en la
primera se muestra un apoyo matemático y científico a la
teoría, en donde por medio de las matemáticas se tiene un
respaldo que da credibilidad científica al tema, además
puede ser de utilidad para otros científicos interesados en
tratar el tema por la misma línea, pero en la segunda se
muestra un análisis racional y con cabeza fría del asunto, en
donde se cuestiona la veracidad de la teoría en la manera en
cómo se generaliza sin tener las pruebas contundentes para
poder hacer juicios con plena seguridad, en realidad el
desconocimiento de la materia oscura es una gran dificultad
para la teoría, pero también debe considerarse que aunque
esta ya es casi un hecho científico en el afán de buscar una
respuesta satisfactoria a las preguntas que se formulan, y
que a su vez esas respuestas sean satisfactorias para todos
los casos, se buscara la manera de que la materia oscura
adquiera sentido para nosotros, y el universo pueda tener
unos “limites” claros de estudio para continuar con la
exploración de lo que nos rodea.
5. Conclusiones
Es necesario buscar buenas definiciones y concepciones de
lo que está cerca a nosotros si queremos responder
efectivamente nuestras preguntas, la veracidad de esas
respuestas se verá reflejada en la claridad de las hipótesis
planteadas y en su demostración. El Big Bang es un ejemplo
muy importante de ello, la dificultad de dar una respuesta a
la pregunta del origen del universo ha hecho que se confíe
en teorías de las cuales se tiene un apoyo experimental, pero
6
que no es contundente, así pues se espera que la teoría se
adapte a nuevos conceptos, en este caso la materia oscura, y
también que sea concreta para que no se siga divagando en
una pregunta tan vital para nuestra identificación con el
mundo.
REFERENCIAS
[1] HAWKING, Stephen. Historia del tiempo. Primera
edición. Barcelona: Editorial Critica.1988
[2] HAWKING, Stephen. La teoría del todo
[3] N. AVILAN, J. RODRIGUEZ, J. TEJEIRO. (2005):
Propiedades cosmológicas de universos sin Big Bang.
[EBSCO Academic Search Complete]. [1 Dic. 2008].
[4] BERMEJO, Jose. Una narración no es una ecuación:
principios metafísicos de la cosmología estándar. [EBSCO
Academic Search Complete] [consultado en 1 Dic. 2008].
ACERCA DEL AUTOR
Miguel Andrés Garzón Ramírez Código: 200667
Grupo: 8
Número de lista: 14
Profesión: Ingeniero Industrial
E-mail: magarzonr@unal.edu.co
Cargo: Escritor
7
IDEAS SOBRE EL UNIVERSO
IDEAS ABOUT THE UNIVERSE
Este artículo pretende dar una visión general sobre algunas teorías
actuales de la física acerca del universo. Se hará especial énfasis
sobre la teoría de cuerdas, una teoría que pretende revolucionar la
manera de concebir nuestro universo; Además se habla sobre
algunos conceptos en torno a los universos paralelos,
consecuencia de la teoría de cuerdas y conceptos como la
mecánica cuántica.
PALABRAS CLAVE: Universo, ideas, dimensión.
I. INTRODUCIÓN
a física ha recorrido un largo camino desde que
Newton formuló la teoría gravitacional para explicar el
movimiento descrito por los planetas en nuestro
sistema solar. Con la teoría de la relatividad formulada por
Albert Einstein, se estableció una relación entre el espacio
y el tiempo que revolucionó nuestra manera de comprender
el universo, proponiendo la existencia de una velocidad
límite inquebrantable en la naturaleza (A pesar de que
Einstein no pudo comprobar experimentalmente su teoría,
numerosos científicos han realizado experimentos en
aceleradores de partículas que convierten a este modelo en
uno de los mas avalados de la física moderna). Poco
después de que se formulara la teoría de la relatividad,
Niels Bohr junto con un equipo de científicos enunciaron la
teoría cuántica con el objetivo de explicar el
comportamiento de los átomos y sus partículas, cuyo
estudio se basa en calcular las probabilidades de desenlace
de un experimento determinado.
A pesar de que las 2 teorías han sido validadas por la
comunidad científica, resulta un problema tratar de
combinarlas. La relatividad general describe de una manera
muy precisa el comportamiento de objetos cuya velocidad
con respecto a un sistema de referencia se acerca a la
velocidad de la luz y la manera como se comporta el
espacio-tiempo en presencia de materia, mientras que la
mecánica cuántica se usa para describir objetos a escala
atómica. El inconveniente de la teoría de la relatividad es
que no comparte el aspecto cuántico de la teoría cuántica,
es decir, las posiciones, las energías, las cantidades de
movimiento, etc. de las partículas son continuas y
predecibles; Esto supone una gran dificultad al tratar de
analizar casos como el de los agujeros negros (recordemos
que un agujero negro es un cuerpo supermasivo que
absorbe la luz y todos los objetos que se encuentren cerca
debido a su alta fuerza gravitacional) o el origen del
universo con la teoría de la Big Bang, donde es
fundamental involucrar las nano partículas y la curvatura
del espacio-tiempo juntos.
Actualmente, uno de los retos más grandes de la física es
tratar unificar estos y otros conceptos con una teoría del
todo, que explique con un conjunto de ecuaciones todos los
fenómenos que se describen en la naturaleza. En este
momento la candidata más favorable para lograr esta labor
es la teoría de cuerdas, cuya esencia se basa en comprender
la materia como pequeñas cuerdas que vibran en un espacio
de 11 dimensiones.
II. LA TEORÍA DE CUERDAS, ¿UNA EXPLICACIÓN?
II. LA TEORÍA DE CUERDAS, ¿UNA SOLUCIÓN?
Einstein dedicó gran parte de su vida en encontrar una
teoría que unificara la fuerza gravitatoria con la fuerza
electromagnética, pero logró muy pocos avances sobre el
tema sin establecer una idea concreta. Esta idea la
retomaron los científicos Theodor Kaluza y Oskar Klein a
principios del siglo XX, proponiendo la inclusión de una
quinta dimensión suficientemente pequeña que
proporcionara la conexión entre las 2 fuerzas mencionadas.
Si nos fijamos en las ecuaciones, resulta tentador
relacionarlas debido a que ambas decaen con el cuadrado
de la distancia. Haciendo los análisis necesarios,
sorprendentemente encontramos que podemos crear una
sobre 5 dimensiones que explique la fuerza gravitatoria y
electromagnética en 4 (Bousso y Polchinski, 2006).
Basándose en esta idea, la teoría de cuerdas propone la
existencia de 11 dimensiones espaciotemporales para que
las ecuaciones sean matemáticamente coherentes, con una
L
Figura 1: Curvatura de espacio-tiempo producido por un cuerpo celeste. El movimiento satélite que gira alrededor de él es una
respuesta a la curvatura. En un agujero negro, la deformación es
extremadamente grande debido a la cantidad de masa. Tomado de:
http://www.xtec.cat/~lvallmaj/palau/einstein/corbat.jpg
8
nueva perspectiva de la materia: “Las partículas son en
realidad objetos unidimensionales, pequeñas hebras o
anillos en vibración” (Bousso y Polchinski, 2006). Estas
pequeñas cuerdas parecerán partículas puntuales a menos
que se acerquen a escalas similares a las de la constante de
Planck (1034
metros).
Nuestro mundo cotidiano se ve altamente afectado por la
geometría de estas dimensiones; Dependiendo de la forma
de las mismas, de las líneas de flujo (las líneas de flujo son
fuerzas que se representan por líneas, como las líneas de
campo magnético), entre otros parámetros, se definirá las
funciones y las constantes físicas que se regirán en el
universo. Las soluciones para las ecuaciones planteadas de
la teoría de cuerdas permiten obtener innumerables
configuraciones exóticas; Pero no todas las configuraciones
son estables; Definiremos a la energía de vacío como la
energía potencial determinada por las condiciones de los
parámetros expuestos anteriormente. Como todo sistema en
la naturaleza, las dimensiones buscarán el menor estado de
energía como una bola rueda por un valle buscando la
menor energía potencial. Siguiendo esta analogía,
supondremos un paisaje con valles y colinas donde rodará
la nuestro universo dependiendo de la energía potencial que
conserve.
Dentro de este paisaje denominado por muchos “El
paisaje de la teoría de cuerdas” el universo puede quedar
confinado dentro de un valle, denominado vacío estable. Es
más, se presume que nuestro universo está confinado dentro
de uno de estos vacíos estables debido a que las leyes de la
física no cambian. Algunos estudios llevados por la
universidad de Stanford y el InstitutoTata de Investigación
fundamental en India, han estimado que existen alrededor
de 500 asas que satisfacen la condición de vacío estable. Si
suponemos que cada asa puede tener entre 0 y 9 líneas de
flujo, habrá una posibilidad de 10500
configuraciones
posibles para un vacio estable (Bousso y Polchinski, 2006).
Entonces ¿Por qué la naturaleza ha escogido este vacío
estable y no otro? La siguiente explicación explicar este
punto e introducir la noción de universos paralelos.
III. LA MECÁNICA CUÁNTICA Y EL VACÍO ESTABLE
Por el efecto túnel sabemos que un átomo puede
atravesar una barrera de potencial mucho mayor que la
energía potencial que posee la partícula. Algo similar
ocurre con las dimensiones y su energía de vacío: Una
configuración puede cambiar de estado abruptamente
estando en un vacio estable, “rodando” hacia otro valle con
energía potencial mucho menor que la inicial, cambiando
su forma, sus estados de energía, y por consecuencia, sus
leyes físicas.
Recordemos que cada punto de nuestro espacio está
compuesto por 11 dimensiones espacio-temporales, las
cuales pueden cambiar su configuración por las razones
expuestas anteriormente. Pero este cambio no ocurre
instantáneamente; La nueva asa se expande en una burbuja
dentro de la antigua configuración. Esto supone que en
nuestro vasto universo existe una amplia gama de
configuraciones posibles, unas tan alejadas de las otras que
son imposibles detectarlas desde nuestra posición actual en
el universo; Estos nuevos arreglos generan nuevos
universos con leyes físicas distintas al nuestro (Bousso y
Polchinski, 2006).
IV. UNIVERSOS PARALELOS
Si proponemos la existencia de universos paralelos al
nuestro, podemos preguntarnos si existen sistemas
cosmológicos que contengan planetas, estrellas, y si es
posible, vida. Pero antes de irnos más allá de las fronteras
de nuestros sentidos y nuestro razonamiento, es posible que
estos existan en nuestra misma burbuja. Ya veremos por
qué.
A. Multiverso de Nivel I
El alcance de observación que nuestros instrumentos
pueden llegar a observar está delimitado por la distancia
que la luz ha logrado recorrer desde el inicio de los
tiempos. A este límite se le conoce como volumen Hubble,
estimado actualmente con un radio de 4x1026
m (Tegmark,
2006). Nuestro volumen Hubble crece un año luz cada año.
Ahora reflexionemos sobre todas las posibles
configuraciones que puede tener nuestro universo. El lector
puede llegar a pensar que es imposible que nuestro sistema
llegue a repetirse, pero observaciones recientes del espacio
han encontrado un patrón de uniformidad a escalas mayores
a 1024
metros (Tegmark, 2006). Piense que si nuestra
membrana es demasiado grande y la materia cuenta con un
número limitado de protones, neutrones, electrones, entre
otras partículas, en algún momento se habrán agotado las
Figura 2: Burbujas generadas por los cambios en la disposición en
las asas. Cada membrana delimita un universo con sus propias leyes
físicas. Tomado de: http://bp0.blogger.com/_jA2sei6dZ-g/SBt5Ht-9wjI/AAAAAAAAACM/mttayjCxeJo/s320/Multiverso.jpg
9
posibilidades y el universo debe empezar a tomar rumbos
similares.
Estudios probabilísticos estiman que su otro yo podría
estar a una distancia de 1028
metros de distancia, y a 10118
metros de nosotros podría existir un volumen Hubble igual
al nuestro (Tegmark, 2006). Debido a que estos universos
paralelos se encuentran en la misma membrana que el
nuestro, sus leyes físicas serán idénticas al nuestro, pero sus
evoluciones estarán determinadas por las condiciones
iniciales.
B. Multiverso de Nivel II
De nuestro multiverso de nivel I pasamos al nivel II, un
lugar con leyes físicas diferentes a las nuestras. Para dar
una idea general sobre las consecuencias de los cambios
abruptos en las leyes físicas pensemos por un momento que
la constante de Planck en uno de estas membranas fuera 1.
Por las ecuaciones de la mecánica cuántica como el
principio de incertidumbre de Heisenberg o la cuantización
de la energía, todos los fenómenos atómicos serán
perceptibles en escala macroscópica. Ahora cambiemos el
valor de la fuerza nuclear fuerte: Si la debilitamos lo
suficiente podemos desestabilizar el núcleo del átomo y
hacer que se destruya, negando la creación de estructuras
más complejas.
Algo similar ocurre con las dimensiones. Dependiendo
del número de dimensiones espaciales grandes ocurrirán
fenómenos similares a los descritos anteriormente. En
conclusión, muy pocas configuraciones son adecuadas para
poseer estructuras tan complejas como la nuestra, y aun
más, de vida. Este tipo de universo se encuentra en otra
membrana diferente de la nuestra, demasiado lejos de la
nuestra para que nos percatemos de su existencia (Tegmark,
2006).
C. Multiverso de Nivel III
Según la mecánica cuántica, todos los posibles resultados
de un experimento aleatorio suceden a la vez, solo que en
nuestro universo percibimos una fracción de la realidad
cuántica completa (Tegmark, 2006). Pero, ¿Tendrá alguna
relación los otros posibles desenlaces con los universos
paralelos? La relación la presenta el Multiverso de nivel III
concluyendo que todas las posibles soluciones de un
acontecimiento ocurren en algún lugar del espacio.
En realidad el nivel III no aporta mayores conceptos
sobre la forma y la ubicación de las membranas, pero limita
los acontecimientos que pueden suceder en cada una de
ellas. Esta hipótesis abre una gran perspectiva hacia la
imaginación, llevando a pensar que en alguna parte del
espacio, toda la historia de nuestro planeta, y en general, de
nuestro universo, se ha desarrollado tal cual hasta este
momento.
D. Multiverso de nivel IV
En este, el más complejo de los niveles, las leyes físicas
permiten configuraciones que desde nuestra perspectiva
pueden parecer imposibles – Como tiempos discretos –
además de ser continuamente cambiantes. Actualmente
estas ideas son solo bosquejos matemáticos que pueden
llegar a validarse debido a la relación estrecha entre la
física y la matemática.
V. CONCLUSIONES
Las teorías expuestas a lo largo de este artículo hasta
ahora se están desarrollando. Muchas de ellas se basan en
relaciones matemáticas tan simples como complicadas que
explican satisfactoriamente algunos fenómenos de la
naturaleza; Debemos tener en cuenta, sin embargo, que una
teoría que no se pueda comprobar experimentalmente solo
pasa a ser una simple metáfora respaldada por las
ecuaciones.
VI. REFERENCIAS
[1] “Espacio, tiempo y Velocidad”. Revista: Investigación y Ciencia.
Páginas: 28-38. Edición 40 (Abril – Junio 2005): Einstein.
[2] Bousso, Raphael; Polchinski, Joseph. “El paisaje de la teoría de
cuerdas”. Revista: Investigación y Ciencia. Páginas: 4-13. Edición 43
(Enero – Junio 2006): Fronteras de la física.
[3] Maldacen, Juan. “El espacio, ¿una ilusión?”. Revista: Investigación y
Ciencia. Páginas: 50-56. Edición 43 (Enero – Junio 2006): Fronteras de la física.
[4] Tegmark, Max. “Universos paralelos”. Revista: Investigación y
Ciencia. Páginas: 15-26. Edición 43 (Enero – Junio 2006): Fronteras de la física.
[5] BBC; “Universos paralelos”. Disponible en:
http://www.youtube.com/watch?v=llmoNz_O4FY (primera parte).
Consulta: Noviembre 9, 2008.
[6] Serie: “El universo elegante”. Disponible en:
http://www.youtube.com/watch?v=ZgfvO2iyNTE (primer película: El
sueño de Einstein). Consulta: Diciembre 3, 2008.
Autor:
Abello, Eder Mauricio
Código: 261366
Grupo: 8 Número de lista: 1
Profesión: Ingeniero Electrónico
E-mail: emabellor@unal.edu.co Cargo: Escritor
10
ALBERT EINSTEIN Y LA REVOLUCION DE LA FISICA
ALBERT EINSTEIN AND THE REVOLUTION OF PHYSICS
Albert Einstein fue un físico alemán cuyas ideas revolucionarias cambiaron la forma de pensar de muchos físicos de la
época. Las ideas de Einstein dieron la explicación a muchos fenómenos de la naturaleza de los cuales aun no se tenían sino
solo una vaga idea, permitieron el desarrollo de nuevas tecnologías y llevaron la física a adentrarse cada vez más y más en
los fenómenos celestes, dando explicación a muchos interrogantes como lo eran el comportamiento de los conocidos como
los agujeros negros. Este artículo enuncia algunos descubrimientos más importantes de este gran científico que llego a
convertirse en uno de los físicos mas importantes no solo de su época, e incluso hoy en día sus trabajos y hallazgos que no
han perdido validez y aun son de gran aplicabilidad en varios campos no solo de la física sino de la ciencias en general.
PALABRAS CLAVE: Einstein, Revolución, Ideas.
1. INTRODUCCION
A lo largo de la historia han existido pensadores que se
han atrevido a seguir sus creencias y pensamientos así
estos muchas veces vayan en contra de los principios ya
establecidos con anterioridad, estas ideas que en un
principio parecen provenientes de una persona carente de
cordura en muchas ocasiones resultan siendo
descubrimientos revolucionarios que trascienden a lo
largo de los años.
Si bien no todas las ideas provienen de contradecir
principios anteriores son las que provienen de ellas las
que producen un salto mas grande en la generación de
conocimiento, ya que abre las puertas a ideas aun mas
atrevidas que las anteriores que de no haber sido por ese
hallazgo, es probable que se hubieran dejado pasar hasta
ser descubiertas muchos años después o tal vez ni
siquiera fueran planteadas alguna vez. Además dan
explicación tanto a fenómenos conocidos que carecían de
un modelo o planteamiento teórico de su
comportamiento, como los nuevos descubiertos con base
en la ideas y hallazgos innovadores que se realizan.
2. EINSTEIN Y LA FISICA
El año 2005 ha sido considerado el año de la física
conmemorando los 100 años desde la aparición de
grandes pensadores publicaron sus descubrimientos
revolucionarios a lo largo de año 1905. Uno de estos
grandes pensadores fue el científico Albert Einstein y sus
hallazgos revolucionaron el mundo de la ciencia como se
conocía hasta ese entonces.
Albert Einstein fue un gran físico alemán, de
descendencia judía, cuya primer influencia en el campo
de la física fue una brújula que le regalo su padre cuando
era niño, Einstein quedo impactado por su
funcionamiento, pues al recibirla, sintió curiosidad por
saber como y porque funcionaba. Era violinista dedicado
y algunas veces afirmo que de no haber tenido éxito en su
carrera en la física, se hubiera ganado la vida tocando su
violín.
Siempre se caracterizo por ser un físico netamente
teórico, era admirable su capacidad de imaginarse todos
los fenómenos en su mente y luego ser capaz de
plasmarlos detalladamente en modelos matemáticos. Esta
capacidad, junto con su casi infinita curiosidad eran sus
grandes fortalezas y a pesar de la complejidad
matemática de sus ecuaciones él afirmaba que sus
conocimientos matemáticos no eran los mejores y que
muchas veces limitaban su desarrollo de nuevas ideas. Su
fama como físico se radico cuando en 1905 fueron
publicados en la revista “Annalen der Physik” 5 artículos
escritos por Einstein, uno de ellos era su tesis doctoral,
pero serian los otros cuatro artículos los que lo harían
famoso.
3. MOVIMIENTO BROWNIANO
El primero de estos artículos hace referencia al
movimiento browniano, que es un movimiento caótico de
partículas debido a choques entre átomos y moléculas, y
dijo afirmo que se podía analizar desde un punto de vista
estadístico. Hasta ese entonces muchos no creían que el
comportamiento de las partículas era aleatorio pero en si
no se sabia a que se debía esto, ni siquiera el mismo
Robert Brown pudo explicar este fenómeno, el lo observo
y lo planteo y de ahí se debe su nombre pero no encontró
una explicación matemática concreta ya que el tema de
las partículas era muy nuevo en ese entonces. Einstein
partió del hecho de la existencia de las partículas y como
seria su comportamiento al suspenderlas en un líquido, el
cambio de posición al hacer esto realizo una seria de
ecuaciones matemáticas que al final dieron una
explicación muy precisa del movimiento con lo cual se
puso fin a muchas discusiones sobre las partículas que se
tenían en ese entonces.
11
4. DUALIDAD DE LA LUZ
En el segundo afirmo que la luz era una emisión de
pequeños paquetes de energía a los que se llamaron
cuantos y debido a esto se abandono la teoría de la luz
como onda únicamente por la de la luz como onda y
como un haz de partículas a las cuales mas adelante se les
llamarían fotones, los cuales chocaban con algunos
metales y los cargaban eléctricamente dando explicación
al fenómeno como efecto foto-eléctrico. Pero esta
propuesta no fue tan novedosa como se podría pensar, ya
que mucho antes de de Einstein, Newton habían
afirmado que la luz era una tenia un comportamiento
corpuscular, estaba compuesta de varios paquetes de
luminosos en un gran conjunto cuya cantidad dependía
de la intensidad de la luz aplicada. Luego apareció
Huygens quien dio otra explicación de la naturaleza de la
luz, el afirmo que la luz era un onda y que se comportaba
como tal, luego de varios experimento pudo demostrar
que la luz tenia características ya que podía reflectarse,
difractarse y como comportamiento típicos de una onda,
desplazando así la explicación de Newton. Pero fue
einstein quien retomo amabas teoría y planteo una idea
totalmente revolucionaria, sobre todo en aquella época,
que las teorías no deberían ser rivales, sino por el
contrario deberían estar juntas y de esto nació lo que
actualmente se conoce como la dualidad de la luz. Por
este trabajo le fue otorgado el premio Nóbel en 1921.
5. LA RELATIVIDAD
El tercer articulo trata sobre la relatividad de la que
alguna vez hablo Galileo Galilei pero añadió dos nuevos
principios, que todo es relativo pues depende del sistema
de referencia desde donde se mire pues, y que sin
importar el sistema referencia la velocidad de la luz
siempre será una constante. Una de sus frases mas
famosas para explicar la relatividad fue la que dio en una
entrevista, esta es "Cuando un hombre se sienta con una
chica hermosa por una hora, parece que transcurre un
minuto. Pero si se sienta en una estufa caliente por un
minuto, éste es más largo que cualquier hora. Esa es la
relatividad"[1]. Fue una manera muy simple de explicar
una teoría bastante compleja, que sin duda alguna deja un
clara idea de en que consiste la relatividad. Esta tuvo
aplicabilidad no solo en la física sino también en muchas
otras áreas, todo lo que implicara realizar mediciones
desde un punto de referencia determinado implicaba la
relatividad.
6. MASA Y ENERGIA
En el cuarto articulo, esta la formula más famosa de este
científico E=mc2, donde E es energía, m la masa y c la
velocidad de la luz. Aunque las intenciones de Einstein
eran buenas y el pensó que esto traería un gran desarrollo
para la humanidad, desafortunadamente unos de los
primeros usos de esta equivalencia de masa y energía
fueron las primeras armas de destrucción masiva de las
cuales el mundo pudo apreciar su capacidad destructiva
en las ciudades de Hiroshima y Nagasaki.
7. LA RELATIVIDAD GENERAL
Figura 1: Deformación producida por la presencia de un cuerpo
celeste [5].
Mas adelante plantearía la teoría de la relatividad general,
la cual afirmaba que la gravedad como tal no existía, sino
que la masa ocupaba y deformaba el espacio-tiempo y
esta deformación era la que generaba la fuerza de
atracción entre las partículas. Esto ayudo a explicar
fenómenos tales como la orbita de los planetas del
sistema solar y explicar el funcionamiento de un agujero
negro, pues junto con su planteamiento anterior de la luz
se pudo explicar porque el agujero negro era negro, esto
se debe que la luz al tener comportamiento corpuscular,
también es atraída por la inmensa gravedad del hoyo
negro y le es imposible escapar además de la forma del
hoyo y como atraía a los elementos de sus alrededores; y
corrigió algunas deficiencias encontradas en los
planteamientos de newton. El la figura 1 se puede
apreciar un modelo tridimensional de la deformación en
el espacio tiempo generada por un plantea y como afecta
a los otros objetos alrededor de este, para este caso la
pequeña luna que recorre dicha deformación en una
forma orbital que también esta dada por la deformación.
8. LA TEORIA UNIFICADA
Finalmente en 1955 este gran científico muere a sus 76
años en Princeton, Estados Unidos, dedico la ultima parte
de si vida a la búsqueda de una teoría que unificara las
fuerzas de la naturaleza, estas eran las fuerzas a nivel
atómico y las electromagnéticas con las gravitacionales.
Lamentablemente no pudo llegar a la tan anhelada teoría
y actualmente no se ha llegado a una unificación concreta
pero actualmente se esta trabajando en la conocida como
“teoría de cuerdas”.
9. CONCLUSIÓN
Las ideas de Einstein marcaron un hito en la historia del
conocimiento, su forma diferente de ver las cosas fue la
que permitió que desarrollara teorías tan importantes en
el campo de la física que sin duda alguna lo
inmortalizaran durante mucho tiempo. Esas ideas que
surgen de ver las cosas de una forma diferente en muchas
12
ocasiones son descartadas por parecer muy absurdas y
son dejadas aun lado sin percatarse que tal vez en esas
ideas existan nuevas teorías que permitan dar saltos cada
vez más grandes en el modelamiento y explicación de lo
que sucede en el entorno.
La causa de que estas ideas se pierdan radica en gran
parte en el miedo a la crítica y desvirtuación por parte de
las personas cercanas quienes al dar un vistazo rápido no
aceptan la idea sino que por el contrario la ridiculizan y
junto con ella a la persona de la que provino. Si se
cambia esta forma de ver las ideas nuevas, muy
probablemente la humanidad logre desarrollar un
mecanismo de generación de conocimiento mucho más
efectivo del que actualmente se tiene.
10. REFERENCIAS
[1]http://www.acropoliscordoba.org/Fondo/alberteinstein
.asp
[2] TIPLER, Paul. MOSCA, Gene. Física para ciencias e
ingeniería. Quinta edición. Reverté. 2005
[3] http://www.kombu.de/einst-sp.htm
[4] Enciclopedia ENCARTA 2007
[5]http://www.iac.es/cosmoeduca/relatividad/imagenes/c
harla3imag/gravedad_640.jpg
[6] SERWAY, Raymond A., Física para ciencias e
ingeniería, Tomo II quita edición, México 2002
Autor:
García Forero, Luis Felipe
Código: 200665
Grupo: 8
Número de lista: 13
Estudiante Ing. Industrial
Cuarto semestre.
Universidad Nacional de Colombia, Sede Bogotá.
E-mail: lfgarciaf@unal.edu.co
13
GPS Y RELATIVIDAD: APLICACIONES Y CONSECUENCIAS
GPS AND RELATIVITY: USES AND CONSEQUENCES
El sistema de posicionamiento global se creó a partir de la necesidad de tener control e información sobre naves u objetos
que se encontraban en algún punto del planeta Tierra. Su funcionamiento se ligó a la medición de tiempos en la superficie y
espacio orbital terrestre (a poco más de 20.000 km de ella). Sin embargo, al no estar en una órbita geoestacionaria, el GPS
se ve afectado por variables como la velocidad y la gravitación, por lo que de acuerdo a la relatividad de Einstein la medida
del tiempo orbital iba a ser distinta a una hecha en la superficie del planeta. El presente artículo muestra por qué la
relatividad de Einstein afecta el sistema GPS y de qué manera puede solucionarse dicho efecto.
PALABRAS CLAVE: GPS, Relatividad, dilatación del tiempo.
1. INTRODUCCIÓN
La carrera espacial comenzada en el siglo XX y las
nuevas teorías de la época abrieron paso a la creación de
nuevas tecnologías. Una de ellas muy mencionada por
estos días es el sistema de posicionamiento global (GPS),
el cual ya se encuentra al alcance de ciudadanos comunes
en aparatos como los celulares.
El GPS es un sistema de navegación y tiempo,
inicialmente operado por el departamento de defensa de
USA. Éste se podría describir a partir de diferentes
segmentos en su utilización: el sistema de satélites
(segmento espacial), las estaciones terrestres (segmento
de control) y los terminales receptores (segmento de
usuarios).
El segmento espacial se trata de un grupo de 27 satélites
(24 operativos y 3 de respaldo) que orbitan a unos veinte
mil kilómetros de la superficie terrestre, los cuales
poseen relojes atómicos para la exactitud en la medición
del tiempo. Hay cuatro satélites por cada seis planos
orbitales inclinados 55° con respecto a la línea ecuatorial.
Los satélites, primeramente construidos por Rockwell
international en los años 70‟, fueron una iniciativa del
departamento de defensa de USA después de cerca de 50
años de investigación y desarrollo bélico que se
intensificó con la guerra fría. El primer satélite de prueba
GPS fue enviado a órbita el 14 de Julio de 1974, cuyo
programa fue llamado NAVSTAR. Actualmente se
encuentran operando 24 satélites, tal como se mencionó
anteriormente.
Técnicamente, éstos funcionan gracias a los paneles
solares que tienen en su exterior, los cuales permiten
obtener energía solar en los momentos en que se
encuentran posicionados frente a él, y tienen
almacenadores de energía para cuando no estén
expuestos a radiación, garantizándose así el trabajo
continuo de esta tecnología. Su período orbital es de
aproximadamente 12 horas y su vida útil de unos 7.5
años.
En cuanto a las estaciones terrestres, es allí donde se
recibe la información de los satélites para su control y
mantenimiento, y los terminales receptores son los que
indican la posición en donde se encuentran.
2. FUNCIONAMIENTO
Los satélites tienen como uso principal la localización de
un objeto, persona o nave en algún punto del planeta
Tierra, aunque se han encontrado un gran número de
creativas aplicaciones.
Para entender su funcionamiento es clave precisar que
debido a que este sistema se encuentra en órbita es
necesario aplicar principios modernos para la
sincronización del tiempo de los relojes satelitales con
los relojes terrestres, aquí es donde la relatividad de
Einstein permite la comprensión de esta nueva
tecnología.
Triangulación
Cuando se desea determinar la posición, el receptor que
se utiliza para ello localiza automáticamente como
mínimo cuatro satélites de la red, de los que recibe unas
señales indicando la posición y el reloj de cada uno de
ellos. Con base en estas señales, el aparato sincroniza el
reloj del GPS y calcula el retraso de las señales; es decir,
la distancia al satélite. Por triangulación se calcula la
posición en que éste se encuentra. Las figuras 1 y 2
muestran gráficamente esta geometría.
Fig. 1. Principios básicos para la determinación de la distancia: (1)
Triangulación desde satélites en lo básico del sistema (2) Para triangular GPS mide distancias usando el tiempo que emplea la onda (3) Para
medir el tiempo GPS necesita relojes muy exactos (4) Una vez conocida
la distancia al satélite, es necesario conocer dónde está ubicado en el espacio (5) La señales de GPS que viajan a través de la ionósfera y
atmósfera sufren un retraso
14
3. DETERMINACIÓN DEL TIEMPO Y LA
POSICIÓN
La tecnología básica para el correcto funcionamiento del
sistema son los relojes atómicos estables; es por esto que
los satélites tienen relojes de Cesio. La figura 2 muestra
las desviaciones Allan entre un oscilador de Quartz y un
reloj de Cs.
De acuerdo a la figura 2 los osciladores de Quartz tienen
un mejor desempeño de estabilidad a corto plazo,
mientras que las características del Cs son mejores a
largo plazo. Esto es, que al inicializar un reloj de Cs y
dejarlo por un día, éste tan sólo tendría un retraso de 4
nanosegundos. [6]
La necesidad de un reloj tan exacto se debe a que en la
determinación de distancias para saber la posición de una
partícula (objeto, nave, etc) en la Tierra, se tendrá que
recurrir al tiempo que se demora la señal en llegar al
satélite, tal como se mostró anteriormente.
En este orden de ideas, se podría determinar la distancia
d desde la posición del objeto al satélite con relojes
sincronizados. Conociendo el tiempo que marca el
dispositivo receptor GPS y el del satélite, por medio de la
constancia de la velocidad de la luz, se podría hallar la
distancia d:
(1)
Donde tdev es el tiempo del dispositivo y tsat el del satélite,
y c = 299792458 ms-1
. [7]
De una manera más general se podría encontrar
distancias o tiempos de un satélite a distintos puntos del
mapa, de acuerdo a la siguiente ecuación:
(2)
Donde rj es la posición de algún punto del planeta. Sin
embargo, esta solución sólo podría ser usada si los relojes
estuvieran sincronizados, es decir, si se encontraran en un
mismo marco de referencia inercial. Como no ocurre
esto, la situación es más compleja y es ahí donde la
relatividad de Einstein da un novedoso punto de vista que
permite el correcto funcionamiento de esta tecnología.
4. RELATIVIDAD APLICADA EN GPS
Debido a que los satélites se encuentran en órbitas
alrededor de la Tierra, el tratamiento cinemático que se le
debe dar a esta tecnología debe ser relativista, lo que
permitirá una corrección de los aparentes retrasos que
tienen los relojes, de gran exactitud, por estar en un
distinto marco de referencia inercial.
Para modelar una ecuación que permita hacer una
corrección relativista del tiempo, es necesario precisar
que las variables que afectan directamente el cálculo son:
la fuerza de gravitación y la velocidad de la partícula con
respecto a un marco de referencia. De esta manera,
ocurre un efecto denominado dilatación del tiempo,
primera vez mencionado por Einstein en 1905. La
solución teórica de la dilatación del tiempo justifica por
qué ocurre este efecto.
Dilatación del tiempo
La dilatación del tiempo significa que un reloj en reposo
con respecto a un observador inercial mide intervalos de
tiempo mayores que otro reloj en movimiento uniforme
con respecto al mismo observador y para el mismo
evento físico. [1] Este concepto es una consecuencia
cinemática de los postulados de Einstein:
1. Las leyes de la física son las mismas en
cualquier marco de referencia inercial.
2. La velocidad de la luz en el vacío tiene el mismo
valor c en cualquier marco de referencia
inercial. (300.000 km/s)
Fig. 4. Transmisión de la luz vista desde dos puntos de referencia
inerciales.[3]
Considérese dos marcos inerciales S‟ y S en la figura 4
donde el eje de x‟ y x coinciden. Dos orígenes son
colocados en los puntos A y B, respectivamente. El
origen A del sistema S‟ se mueve con una velocidad
constante v a lo largo del eje x hacia B. Supóngase que se
colocan dos espejos y se hace que un haz de luz viaje
entre ellos. Cada vez que un haz de luz haga un recorrido
Fig. 3. Desviaciones típicas Allan de relojes de Cs y osciladores de
Quartz, graficados como función del promedio del tiempo [6]
Fig. 2. Relaciones geométricas en el posicionamiento satelital
15
completo de ida y vuelta un reloj tomará el intervalo de
tiempo entre dos señales consecutivas, el cual es también
el tiempo necesario para que la luz efectúe su recorrido
completo entre los espejos y está dado por la relación:
(3)
Si el haz de luz es mandado en A y recibido en B
entonces el tiempo que se demora la luz en recorrer esa
distancia será:
(4)
Se sabe que:
(5)
Sustituyendo esto último en la ecuación (4):
(6)
A partir de la ecuación (3) y sustituyendo en (6) se tiene
que:
(7)
La ecuación (7) muestra matemáticamente la teoría de
Einstein. Con esto se determina que el tiempo no es
absoluto, lo que quiere decir que depende del observador
o marco de referencia.
La primera vez que se constató experimentalmente este
efecto relativista fue en 1938 por Ives y Stilwel. Ellos
hicieron un estudio del ritmo de un reloj móvil, lo cual
permitió medir el efecto doppler de la radiación emitida
por rayos catódicos, cuando son vistos directamente de
frente y de atrás. Luego en 1941 Rossi y Hall hicieron un
experimento en el que compararon la población de
muones producidos por rayos cósmicos en lo alto de una
montaña y el observador al nivel del mar. Resultados más
actuales los mostró el Max-Planck-Institut für
Kernphysik de Alemania en el 2007, cuyas conclusiones
se publicaron en la revista Nature [5].
De la misma forma, se podría denotar que:
(8)
(9)
Donde s y s‟ son las longitudes de la luz vistos desde
dos sistemas de referencia. Si se multiplica por c en la
Ec. (7) se obtiene:
(10)
Considerando, además que:
(11)
Donde f es la frecuencia y es la longitud de onda
relacionada. Si s= y s’=‟, dividiendo por c la ecuación
(10), se obtiene la corrección relativista de la frecuencia:
(12)
De acuerdo a la ecuación (7), (19) y (12):
(13)
Esta ecuación muestra el efecto causado por la relatividad
visto desde un marco inercial a otro. De la misma
manera, la relatividad general incorpora la gravitación y
luego de una compleja deducción matemática se obtiene:
(14)
Donde V es el campo gravitacional.
5. CORRECCIÓN RELATIVISTA DEL
TIEMPO
Determinado así el por qué de la existencia del retraso en
los relojes de los satélites, se desarrollaron soluciones
para corregirlos.
Lo primero que se buscó fue un marco de referencia para
construir las ecuaciones. Así, para los propósitos del GPS
se imaginó un marco inercial posicionado en el centro de
la Tierra, para sincronizar los relojes con respecto al
mismo.
En este punto es importante recalcar que se pueden
sincronizar los relojes de acuerdo a un sistema de
referencia y otro, por lo que la medida del tiempo en la
Tierra se llamará tiempo coordinado y el del satélite
tiempo propio.
De esta manera, luego de un modelamiento matemático
complejo y tomando en cuenta la solución de Einstein, se
determinó una ecuación para el incremento del tiempo
propio del satélite:
(8)
Donde es el tiempo propio. Asimismo para el
incremento del tiempo coordinado en la tierra se integra a
lo largo del recorrido que hace el reloj atómico y se
obtiene::
(9)
En las dos ecuaciones es un término que
aparece debido a que en el marco de referencia donde se
utiliza esta ecuación la unidad de tiempo está
determinada por relojes moviéndose en un campo
gravitacional espacialmente dependiente y:
(10)
Esta constante es la escala de tiempo terrestre,
determinada por la unión astronómica internacional.
(Ver [6])
Así, entonces, es posible la sincronización de los relojes
en ambos sistemas de referencia. Las correcciones
relativistas se realizan con software especializados, por lo
que es un proceso automático.
6. APLICACIONES
16
Se podría hacer una lista de aplicaciones del GPS, pues
tiene funcionalidad a nivel de ingeniería, científico y
militar. En la ingeniería, uno de los usos es el estudio
topográfico de construcciones, ya que puede medir el
movimiento de las estructuras. En la astronomía permitió
hace unos años la medida de la tasa de incremento del
período pulsar binario en el observatorio de Arecibo.
También ha sido utilizado para hacer test de gravitación y
ha comprobado la teoría de Einstein.
Usos más comunes se dan todos los días para el turismo,
ubicación en las ciudades, búsqueda de rutas para llegar a
determinados lugares, para la aviación y la navegación,
entre otros más.
Estos usos masificados generan unos 30 billones de
dólares al año.
7. OTROS SISTEMAS DE
POSICIONAMIENTO
El GPS fue creado por USA, sin embargo en otros países
desarrollados también se crearon sistemas similares. Uno
de los más importantes es el GALILEO, un proyecto de
la agencia espacial europea, con 30 satélites en órbita, el
cual produce cerca de 10 billones de Euros anuales en
servicios.
Otro sistema dominante es el GLONASS, creado por
Rusia, el cual se diferencia del GPS en que está
ligeramente a menor altitud del último y orbita unas 17
veces, mientras que el GPS lo hace 16 veces.
8. CONCLUSIONES
El sistema de posicionamiento global, tecnología que
hace parte de la era de la información, no se hubiera
llevado a cabo sin las ideas innovadoras de Einstein sobre
un universo poco convencional. Sin duda, la carrera de
conocimientos comenzada el siglo pasado ha permitido
que disfrutemos de los artefactos que la ciencia ficción ya
había imaginado. Y aunque la física ha aportado un gran
valor agregado a la industria y avance a nuestra
civilización, también ha generado una nueva forma de
seguridad internacional que hace temer de una próxima
guerra mundial. Ideas que en ciertas épocas pueden
parecer descabelladas, han llevado al ser humano al
espacio, apropiándose y aprendiendo de él, pues Einstein
entendió hace más de un siglo que la locura es creer que
se puede llegar a resultados distintos haciendo siempre lo
mismo.
9. REFERENCIAS
[1] GARCIA, Mauricio. EWERT, Jeannine. Introducción
a la física moderna. Unilibros. Departamento de física.
Universidad Nacional de Colombia.
[3] XU, Guochang. GPS, Theory, algorithms and
applications. Springer. 2003
[4] TIPLER, Paul. MOSCA, Gene. Física para ciencias e
ingeniería. Quinta edición. Reverté. 2005
[5] NATURE Magazine. SASCHA REINHARDT,
GUIDO SAATHOFF, HENRIK BUHR, LARS A.
CARLSON, ANDREAS WOLF, DIRK SCHWALM,
SERGEI KARPUK, CHRISTIAN NOVOTNY,
GERHARD HUBER,
MARCUS ZIMMERMANN, RONALD HOLZWARTH,
THOMAS UDEM, THEODOR W. HANSCH, GERALD
GWINNER. Test of relativistic time dilation with fast
optical atomic clocks at different velocities. Edición: 11
Nov. 2007.
[6] ASHBY, Neil. Relativity in the global positioning
system”. Living reviews in relativity. Disponible en:
<http://relativity.livingreviews.org/Articles/lrr-2003-1/>
[7] T. MATOLCSI. M, MATOLCSI (2008):
“Coordinate time and proper time in the GPS”. European
journal of physics. 1 Sept. 2008. On line:
<stacks.iop.org/EJP/29/1147>
[8] LETHAN, Lawrance. GPS fácil: uso del sistema de
posicionamiento global. Editorial Paidotribo. 2001.
[9] A. POKOPOV, S. MATVIENKO, A. MELESHKO,
T. SERKINA, M. ANDROSOV (2008): Relativistic
effects in global satellite navigation systems. Science
Direct. 19 Agosto 2008.
Autor:
Gamboa Guerrero, John Eduardo
Código: 200664
Grupo: 8
Número de lista: 12
Estudiante Ing. Industrial
Cuarto semestre.
Universidad Nacional de Colombia, Sede Bogotá.
E-mail: jegamboag@unal.edu.co
17
DE LA CUANTIZACIÓN DE LA ENERGÍA A LA MECÁNICA CUÁNTICA
FROM THE QUANTIZATION OF ENERGY, TO QUANTUM MECHANICS A través de la historia de la humanidad se han encontrado diferentes fenómenos, los cuales se han intentado explicar
mediante la física. A finales del siglo XIX y principios del siglo XX, se han roto paradigmas que han ayudado al avance de
la ciencia como en ningún otro tiempo se pudo hacer, pues se empieza (no es el inicio exacto pero si el más importante) con
la concepción que Max Plank le da a la energía, diciendo que esta cuantizada y que existen diferentes niveles de energía,
postulado que se corrobora años después con la descripción de la mecánica cuántica que realiza E. Schrödinger en los años
‟20.
Junto a ellos se han sumado diferentes personas, que tuvieron una concepción diferente del universo, y que gracias al
estudio de otros han ayudado al avance, como lo es la secuencia entre Hertz, Einstein, De Broglie, Heisenberg y
Schrödinger. Esta secuencia la termino en Schrödinger, que aunque no fue donde se estanco la física moderna (porque cada
día evoluciona con mayor velocidad), si es lo que mejor entendemos y son los desarrollos de los cuales se puede encontrar
alguna analogía en el mundo macroscópico, pues teorías más avanzadas que llaman a ecuaciones como la de Dirac o el
espacio de Hilbert, ya describen propiedades específicas del mundo cuántico, que al compararlo con la mecánica
newtoniana, es una locura.
PALABRAS CLAVE: Física, energía, quántica.
1. LA FISICA MODERNA
a física moderna tuvo su génesis en el momento en el
cual Max Plank propuso teóricamente y quizá sin
experimentación alguna, la cuantización de la
energía a partir de las observaciones y ecuaciones que
describían la radiación del cuerpo negro, como lo son las
leyes de Wien y de Rayleigh-Jeans, las cuales Plank
„unificó‟ y de este proceso dedujo una nueva, de la cual
él interpretó que la energía tiene ciertos niveles, que ésta
no puede tener valores intermedios, sino siempre valores
enteros.
Unos años antes que Max Plank hubiera solucionado el
problema de la radiación del cuerpo negro, con su
ecuación, que lo llevaría a deducir que la energía tiene
niveles de energía, H. Hertz descubrió el Efecto
Fotoeléctrico (EFE), el cual no pudo describir muy bien,
pues tenía ciertos paradigmas que no pudo romper, lo
cual le impidió conseguir las herramientas necesarias
para avanzar con este descubrimiento, algo que si logró
hacer Albert Einstein en 1905, al proponer la idea (que es
una transformación del postulado de Plank), que dice
“…una radicación electromagnética de frecuencia
está constituida por pequeños paquetes de energía
cada uno de los cuales porta un cuanto de energía
(fotón) cuyo valor es proporcional a la frecuencia de la
radiación.”1 Donde propone un concepto revolucionario
para su época, el cual es la dualidad en el
comportamiento físico de la luz, pues para principio de
siglo se tenía la concepción de que la luz se comportaba
únicamente como una onda, pues presentaba fenómenos
ondulatorios como lo son la reflexión o la difracción,
pero al darle un comportamiento corpuscular a la luz, a
1 EWERT J., GARCÍA M. “Introducción a la física moderna”. 3ra.
edición. 2003. p 67.
parte de entender claramente el EFE (por el cual ganó el
premio Nobel), generó una duda en el físico francés
Louis De Broglie, quien en 1924 postula que la materia,
al igual que la luz, también tiene un comportamiento
ondulatorio, pues si Einstein propuso una dualidad de la
luz, que se comporta generalmente como una onda, debía
existir una correspondencia que implicara que lo que
normalmente se comporta como partícula, pueda
describirse por medio de una onda.
Esta idea que parecía aún más descabellada que la
propuesta por Einstein en 1905 (pues pudo demostrar un
fenómeno descubierto con anterioridad), relacionaba la
longitud de onda con la velocidad, diciendo que la
cantidad de movimiento (p) es inversamente proporcional
a la longitud de onda de De Broglie (), donde el valor
que las relaciona a las dos es la constante de Plank (h).
Dos años después quedó demostrado que lo propuesto
por De Broglie, realmente existía, pues mediante los
experimentos de Davisson-Germer (1925) y G. P.
Thomson (1926), mostraron la existencia de dicha
longitud de onda.
Fig. 1 Efecto Fotoeléctrico
L
18
Partiendo de este concepto, el alemán Werner Heisenberg
en 1927, sorprende al mundo de la ciencia con su
Principio de Incertidumbre, el cual dice que es imposible
poder medir en el mismo instante la velocidad y posición
de una partícula, pues si su movimiento puede ser
descrito por una perturbación que ocupa todo el espacio,
no se podrá tener claridad sobre la ubicación de la
partícula, pues ésta está distribuida en toda la onda y su
incertidumbre es total, pero al tener más certeza de la
ubicación de la partícula, se irá perdiendo en su
velocidad, pues la forma en la cual reducimos la
incertidumbre de la posición, es reduciendo el espacio en
el cual ésta se pueda desplazar, lo que se realiza por
medio de la superposición de ondas, lo que implica que la
cantidad de movimiento se vea alterada, pues la longitud
de onda correspondiente a la partícula, la cual es una
perturbación derivada del movimiento de la partícula, es
decir por su velocidad, se reduce, lo cual hace que se
genere una mayor certeza de la ubicación de la partícula,
pero su cantidad de movimiento, que es representada por
su velocidad, se ve altamente alterada, pues se
superpusieron otras ondas, las cuales hacen que se pierda
la referencia de la longitud inicial.
Un ejemplo que puede explicar de mejor manera el por
qué es imposible la medición conjunta de la velocidad y
posición de una partícula, sería la medición de la posición
y velocidad de un electrón, pues si se desea realizar la
medición de su ubicación y saber que velocidad llevaba,
implica que se deba observar de alguna forma el electrón,
para lo cual se necesita que un fotón lo impacte, lo que
generaría que no se pueda determinar ni la velocidad ni la
posición en cierto instante, pues el choque del fotón
sobre el electrón genera un cambio en su velocidad y
posición (haciendo uso de la mecánica clásica).
El principio de incertidumbre que Heisenberg propuso,
hablando ya en términos matemáticos, que la
incertidumbre total del sistema que se tiene en la
obtención de resultados es mayor o igual a la constante
de Plank dividida entre 4, lo cual representaría que en el
mejor de los casos, es decir la incertidumbre mínima
sería de 5.271 x 10-35
. Se entiende como incertidumbre
total al producto de las incertidumbres de la posición y la
cantidad de movimiento (x•p).
Resulta redundante mencionar que la incertidumbre no
tiene caso hallarla en los objetos que podemos observar,
con los que cotidiana mente interactuamos, pues, si se
realiza se encuentra que la incertidumbre de la posición
es un valor insignificante al compararlo con las
dimensiones al objeto en mención y de igual manera
sucede con la velocidad, pues se tendrá una variación que
es imperceptible para la velocidad que lleva el objeto.
Este principio de incertidumbre, no es la base de la
mecánica cuántica, pues junto con la longitud de onda
propuesto por De Broglie son los primeros pasos que nos
ahondan en el mundo de las partículas de tamaño
atómico, como lo son los electrones, protones, entre
otros.
Parto diciendo que el que creó la mecánica cuántica fue
Heisenberg, por lo que le otorgaron el premio Nobel en
1932, pues como fue mencionado en el momento de la
entrega del premio “el uso de la mecánica cuántica ha
conducido, entre otras cosas, al descubrimiento de las
formas alotrópicas del hidrógeno”, aunque ha de resaltar
que la mecánica cuántica se puede dividir en dos, la
mecánica cuántica matricial, la cual fue propuesta en
1926 por el grupo de Götinger, que estaba conformado
por el ya mencionado W. Heisenberg, P. Jordan y M.
Born y la otra, la cual ha sido base de más estudios, la
cual es la mecánica cuántica ondulatoria de la cual es
artífice E. Schrödinger.
La teoría de la Mecánica Cuántica esta basada en los
resultados experimentales, pues debido a que es una
ciencia tan volátil, no se ha generado una teoría general
que describiera los resultados, sin siquiera tenerlos (Un
ejemplo de esto es el postulado de M. Plank).
La mecánica cuántica parte del principio de
incertidumbre de Heisenberg, que conduce a la ecuación
de Schrödinger, donde su solución es la función de onda,
la cual describe el comportamiento de la partícula en
diferentes ambientes a diferentes potenciales de energía.
La ecuación de Schrödinger parte del principio de
conservación de la energía, donde la energía cinética más
la energía potencial es igual a la energía total de la
partícula (Ec+Ep=ET), donde realizando diferentes
operaciones algebraicas y utilizando operadores que
describen un observable físico se llega a la función de
onda, la cual es (en una dimensión): (x)= Aeikx
+ Be-ikx
,
donde k, es quien describe el ambiente en el que se
mueve la partícula, pues allí es donde se encuentra la
relación entre la energía total de la partícula y el
potencial del sistema.
Esta función de onda, que también es posible visualizarla
así: (x)=Csen(kx)+Dcos(kx), muestra lo que se propone
desde de Broglie, que la partícula tiene un
comportamiento ondulatorio, pero cuando empezamos a
observar los valores de frontera, es decir en el momento
en que el potencial del sistema cambia a otro potencial,
se encuentra que dependiendo la relación de este
potencial con la energía total de la partícula se puede
encontrar diferentes reacciones de la partícula, las cuales
son:
1. Cuando el potencial es menor que la energía
total. Es este caso se tendrían dos velocidades
diferentes, una cuando la partícula se mueve en
un potencial y otra cuando este potencial
cambia, si el potencial aumenta, existe la
posibilidad en que la partícula se devuelva o
también que siga al otro potencial.
19
2. Cuando el potencial es mayor que la energía
total. Aquí la solución del sistema deja de ser en
su totalidad ondulatorio, pues la función de onda
se adecua para la región inicial, pero en el
momento en el que entra a un potencial mayor,
la solución es una función exponencial, pues lo
que describe la onda es el imaginario de la
función exponencial y al desaparecer este, la
función es una exponencial descendente, pues
esta no puede aumentar.
3. Cuando se encuentra encasillada en dos
potenciales que tienden al infinito. Este caso se
conoce como la caja de potencial
unidimensional (base de la proposición de la
caja de Schrödinger), acá existen tres regiones,
en dos de ellas la función de onda es igual a
cero, es decir no hay probabilidad de que la
partícula se encuentre allí, por lo que se va a
encontrar en una sola región. Al conocer esto se
empiezan a evaluar en los valores frontera, para
hallar el valor de las constantes, y se encuentra,
que la energía de la partícula está cuantizada,
pues k, sólo puede tomar valores enteros
positivos. Se encuentra que para estas
situaciones la solución de la ecuación de
Schrödinger es:
(x)= √ (2/a) sen (nx/a)
Fig. 2 Función de onda para los cinco primeros
niveles de energía en un cajón de
potencial unidimensional.
2. CONCLUSIONES
- El romper los paradigmas establecidos, tener
una visión diferente del comportamiento del
universo ha generado cambios trascendentales
en la física que conocemos.
- El universo cuántico, es un universo de
probabilidades y tan volátil que cualquier
interacción con él puede modificar sus
condiciones.
- La experimentación debe corroborar la teoría y
la teoría debe predecir perfectamente la teoría.
- Cada vez que evoluciona la ciencia, la forma en
la cual se describe debe evolucionar a un
velocidad similar, generando así nuevos
operadores matemáticos.
3. BIBLIOGRAFÍA
[1] EWERT J., GARCÍA M. “Introducción a la física moderna”. 3ra.
edición. 2003. Unilibros.
[2] SERWAY R. A. “Física”. 1985.
[3]
http://upload.wikipedia.org/wikipedia/commons/7/77/Photoelectric_
effect.png
[4] bandaprohibida.blogspot.com/2007/04/la-ecuacion-de-
schrdinger-en-accin.html
[5] “Explicación de la Mecánica Cuántica”. Disponible en:
http://www.youtube.com/watch?v=sJp_nWU_xzk&feature=PlayList&p=C544E98585E1E9C6&index=0
Autor:
Higuera Camargo, Christian Camilo
Código: 261399 Grupo: 7
Número de lista: 12
Profesión: Ingeniero Electrónico E-mail: cchiguerac@unal.edu.co
Cargo: Escritor
20
DIFRACCIÓN DE RAYOS X
X RAY DIFRACTION En este documento se realiza una revisión de una técnica de caracterización de materiales más conocida como difracción de
rayos X teniendo en cuenta elementos fundamentales de la misma como lo son principios físicos, funcionamiento, equipos,
componentes que conforman el equipo, como analizar la información cuantitativa y cualitativamente y se ilustran algunos
ejemplos de la caracterización y se realizan algunas conclusiones.
PALABRAS CLAVES: difracción, cristales, rayos X, longitud de onda.
I. INTRODUCCIÓN:
Los rayos X son ondas del espectro electromagnético que
fueron descubiertos en 1895 por William Röntgen, quien
estudiaba los fenómenos observados por Crookes en
tubos al vació. Observo que se producían unos rayos que
tenían una gran penetración pero eran invisibles. Más
tarde se descubrió que se originaban por la
desaceleración brusca de electrones, y que servían para
dejar marcas en películas fotográficas, experimentando
con esto, logro de forma accidental sacar la primera
radiografía, de la mano de su esposa.
Es en el año de 1912 cuando Max von Laue trabajaba en
la universidad de Munich junto con Röntgen, y
examinaba la tesis de Paul Ewald, quien modeló un
cristal como celdas periódicas de átomos con un
espaciamiento de orden de 1 Armstrong: “Esta idea hizo
concebir a Laue la hipótesis de que la pequeña distancia
entre estos planos atómicos podría ser de un orden de
magnitud similar a la hasta entonces desconocida
longitud de onda de los rayos X, con lo cual un cristal
podría provocar interferencias en los rayos X y dar así
lugar a un espectro de difracción”[4]
Las técnicas de difracción de películas y para polvo de
cristales se desarrollaron en dos países a la vez de manera
independiente entre 1915 y 1917 por Peter Debye y Paul
Cherrer en Alemania y Albert Hull en Estados Unidos.
Los difractómetros de polvo aparecieron en la década de
los 40´s junto con nuevos y modernos equipos el mayor
desarrollo en esta época en este campo se le atribuye a
William Parrish. Los difractómetros de cristales sencillos
aparecieron a mediados de 1950 bajo la batuta de
Thomas Furnas y David Harker.
La difracción de rayos X es una técnica de análisis de
materiales, muy versátil que permite realizar estudios de
los sólidos cristalinos en general, teniendo en cuenta las
fases presentes y las propiedades típicas de estas, tales
como estado, tamaño de grano, composición y defectos
estructurales. Además sirve para conocer la estructura
cristalina del material. La difracción de rayos X se puede
hacer en cerámicos, metales, materiales eléctricos y
polímeros. La difracción de rayos X se clasifica en dos
grandes grupos:
Difracción en cristales: su objetivo principal es hallar,
estudiar y entender la estructura molecular de nuevos
materiales.
Polvo: identificación de fases con el fin de conocer las
posibles aplicaciones teniendo en cuenta como varia con
la temperatura su textura y además para poder realizar a
su vez un análisis de tensión.
II. PRINCIPIOS FÍSICOS:
En general la difracción de rayos X se lleva a cabo con
un arreglo como el que se ilustra en la figura 1. Un rayo
incide en una muestra que lo refracta en dirección a un
detector que colecta el rayo.
Figura 1. Arreglo básico para realizar una XRD [5]
La intensidad de la difracción de los rayos X es una
función del ángulo 2θ, el cual esta formado por el rayo
incidente y el rayo difractado por la muestra. Las
longitudes de onda de los rayos X oscilan entre 0.7 y 2
Armstrong cuya energía igualmente varia de 6 a 17 keV.
La estructura cristalina es básicamente un arreglo de
átomos ordenado que se puede ver como una serie de
planos o capas con una distancia de separación d. Estos
planos se definen mediante los índices de Miller.
Teniendo en cuenta estos últimos se puede hallar la
distancia interplanar que está dada por la ecuación:
222 lkh
ad
(1)
Donde a es el parámetro de red.
21
Cuando un haz de de rayos X incide en un material
sólido parte de este haz se dispersa en todas las
direcciones a causa de los electrones de los átomos que se
encuentran en el trayecto, pero el resto del haz da origen
a la difracción de rayos X. Esta solo se presenta si existe
una disposición ordenada de átomos y se genera una
interferencia constructiva que sólo se da cuando se
cumple las condiciones descritas por la ley de Bragg:
dsenn 2 . (2)
Donde n es el orden de difracción ( ,...}3,2,1{n ), λ s
la longitud de onda. Si no se cumple esta ley entonces la
interferencia es de naturaleza no constructiva y la
fracción del haz difractado es de nula o muy baja
intensidad. La ley de Bragg se ilustra en la figura 2
Figura 2. Ilustración de la ley de Bragg. [5]
Cuando se presenta interferencia constructiva y el rayo
incidente es difractado por los planos atómicos y se
observa entonces un pico de difracción en los resultados
en consecuencia el detector se debe ubicar a un ángulo de
2θ y la muestra se ubica de tal manera que el ángulo entre
el plano de onda incidente y el de la muestra sea θ,
conocido como ángulo de Bragg.
Cada material sea en polvo o película difractara los rayos
X de determinada manera, con un patrón de difracción
diferente y particular. Estas muestras son por lo general
de un material intermedio, entre cristales sencillos y
polvos con una textura de fibra, en esta última todos los
planos son paralelos a la superficie del substrato, que es
elemento que ayuda a la difracción de rayos X haciendo
las veces de una película sobre la muestra, aunque su
distribución atómica se da de manera aleatoria.
En resumen la orientación de los cristales en la muestra
varía dependiendo de la textura, tendiendo siempre a
buscar la mejor orientación. El grado de esta orientación
no solo influencia las características de la muestra sino
que tiene consecuencias en las mediciones y la posible
identificación de las fases en caso de que la muestra
posea varias. Debe tenerse en cuenta que para cada cristal
o película delgada que se esté analizando existe una
familia de planos de índices (h, k, l) la cual satisface las
condiciones de difracción.
La radiación que generalmente se usa en un
procedimiento XRD contiene varias longitudes de onda
denominadas por lo general como Kα1, Kα2, Kβ las
cuales caracterizan al material, una longitud de onda
menor penetra con mayor facilidad y tiene más energía,
por otro lado una longitud de onda mayor sirve en
ocasiones para separar los picos en los factores de
difracción, en caso de que haya problemas con la corteza
del material o en caso de alta tensión en la muestra de
material. La selección de la radiación en si depende de
las características de la muestra. En la tabla 1 se muestran
valores usados de manera general de las longitudes de
onda.
Tabla 1 (longitudes de ondas de rayos X en Armstrong
para algunos materiales) [1]
Tecnología
El equipo usado para la XRD consta de un goniómetro,
que es donde se soporta el detector, que recoge los datos,
que provienen de la difracción que la muestra la cual se
halla en un soporte. Tiene un generador de rayos X que
puede ser estático o móvil. Asimismo se necesita un
computador con software necesario para procesar la
información que el colector recibe, al ser este un
procedimiento que usa ondas electromagnéticas se usan
también monocromadores y colimadores para obtener
mayor precisión en la información.
Detectores
Los más comunes son los detectores de punto estos
colectan la intensidad difractada de un ángulo a la vez, y
se mueven por el rango de ángulos que se quiere medir,
de estos hay 2 clases de centelleo y de estado sólido. Los
de estado sólido presentan una ventaja de velocidad de 3
a 4 veces en comparación con el de centelleo.
Otro tipo son los detectores lineares sensibles a la
posición (PSD‟s) utilizan un cable fino para reunir
intensidad sobre un rango angular simultáneo como se
ilustra en al figura 3 ofreciendo ventajas de velocidad
hasta de 100 veces a las de un detector de punto. Estos
detectores pueden estar fijados sobre un rango de 5 a 10°
2θ o escaneadas como un detector de punto sobre un
rango superior.
22
Los detectores de centelleo manejan de 10⁵ a 10⁷ cuentas
por segundo. Detectores de estado sólido manejan de
25,000 a 50,000 cps mientras que PSD‟s lineares
manejan 10,000 cps.
Detectores multicableados de área son PSD‟s
bidimensionales que proveen en tiempo real la
información bidimensional. Pueden reunir figuras en
minutos en lugar de las horas o días requeridos con
detectores de centelleo.
Los CCD detectores de área son la más reciente
innovación en tecnología de área detectores para
examinar pequeñas moléculas. Datos de alta calidad
pueden ser obtenidos con fuentes de tubos sellados o con
ánodos rotacionales en 2 a 6 horas. Algunas de sus
aplicaciones incluyen estudios de densidad de electrones
y transiciones de fase. Este detector ofrece lectura y
display de datos en un tiempo cercano al real, menos de 2
segundos, alta resolución espacial y alta eficiencia de
conteo de fotones.
Figura 3. Representación de un PSD [2].
.Difractometros
De manera general en la practica de XRD para láminas
policristalinas con orientación preferente y aleatoria se
usa la geometría Bragg-Brentamo que es mostrada en la
figura 4a. La fuente e sitúa a un lado del circulo y se le
ponen rejillas colimadoras para obtener un haz más
directo, hacia la muestra que esta rotando, el detector
también se sitúa sobre la circunferencia y rota al doble de
la velocidad que la muestra, así dada la ley de Bragg solo
se obtendrá información acerca de los planos (hkl)
paralelos a la superficie de la muestra.
En la figura 4b se muestra una geometría Seeman Bohlin,
la muestra también se pone sobre la circunferencia focal,
i recibe el rayo incidente a un cerito ángulo que está entre
5 y 10 grados, el detector, gira sobre la circunferencia
recogiendo información. Este método es más sensible ya
que usa un fenómeno llamado para-concentración, en el
que al estar los tres elementos sobre la circunferencia
focal la mayoría de los rayos difractados se concentran en
el detector.
Figura 4 difractómetros (a) Bragg-Brentamo (b) Seeman-
Bohlin [2]
Información analítica
En lo que concierne a la XRD la información analítica
para obtener una buena información tanto cualitativa
como cuantitativa, es de gran importancia tener cuidado
en la preparación de la muestra, para tratar de minimizar
las aberraciones en los datos obtenidos.
La mejor forma para obtener datos más acertados, es usar
las muestras lo más delgadas posibles, además de estar
bien adherida al porta-muestras, y tener la superficie cuan
regular como sea posible. Para efectos de obtención de
información cuantitativa se deben eliminar los efectos
indeseables que pueda dar el porta-muestras, y para eso
se han creado portadores mono cristalinos llamados de
fondo cero.
La información cualitativa que se toma es estadística por
tanto a más datos tomados, se tiene información más
confiable, por esto para cuestiones de tiempo se hacen
más útiles los PSD. Dicha información se toma para
hacer comparaciones con datos ya tabulados, de la
información que se requiera.
En el campo cuantitativo el análisis se refiere a la
relación entre la intensidad difractada por cierta fase y la
23
concentración de la misma. Cuando se trata de una
muestra con una sola fase para calcular la intensidad de
forma correcta se deben tener en cuenta factores como:
temperatura, polarización, absorción, configuración del
equipo entre otros.
Cuando la muestra contiene varias fases la intensidad de
una de ellas en cierta línea de intensidad se calcula de
acuerdo a la ecuación (4), donde Kia es una constante
dada para cada estructura cristalina y configuración del
equipo X es la fracción de la fase que se busca, (µ/ρ)m es
el coeficiente de absorción de masa de toda la mezcla.
Para tener resultados más acertados es mejo utilizar la
intensidad integrada, es decir el área del pico en vez de su
altura, para hacer esto se usan técnicas de acercamiento
de curvas como el acomodamiento de perfil.
(4)
Ejemplos :
La figura 5 muestra la transición del nitrato de potasio de
fase ortorrómbica a romboédrica, los datos de tomaron de
100 a 150 C, con escala de 1 C, como se ve el pico de la
transformación se da cerca a los 130 C, pero los toros que
aparecen son debidos a que al calentarse al muestra los
enlaces del material se expanden. Este experimento fue
hecho con un PSD linear de 20 a 35º de rango 2Θ, y
llevo 3,5 horas hacerlo, haber realizado el mismo
procedimiento con un detector puntual hubiera llevado 64
horas de trabajo.
Figura 5 transición de KNO3 [1]
La figura 6 muestra un ejemplo donde XRD es usado
para identificar las fases en tres muestras Tc de alta
superconducción. Ya que las películas tienen la textura
de fibra casi completa, la identificación era simple y fue
hecha por la comparación al modelo de difracción de
materiales de bulto. Además, debido a la comparación
con tablas, la presencia de una pequeña cantidad de CuO
es evidente en una película. También se concluye que la
película de la figura 6b consiste en las mezclas
aproximadamente iguales de Tl2CaBa2Cu2Ox y
Tl2O2Ba2Cu3Oy, ya que puede ser reproducido por una
combinación aproximadamente igual de los patrones de
la 6a y 6c.
Figura 6 patrones de difracción de películas
superconductoras [2]
Tendencias:
El futuro verá más empleo de GIXD, Difracción por rayo
razante, y medidas de dependiente de profundidad, ya
que estos proporcionan la información importante y
pueden ser realizados sobre el equipo a base de
laboratorio (más bien que requerir la radiación
synchrotron). La posición detectores sensibles seguirá
sustituyendo mostradores y la película fotográfica.
Materiales de capa múltiple se harán más importantes en
el futuro, y por lo tanto, su caracterización estructural que
usa XRD crecerá en importancia. El empleo de radiación
synchrotron como un instrumento analítico para la
caracterización de película delgada también aumentará.
Las características únicas de esta radiación permiten a
experimentos anteriormente difíciles a base de
laboratorio ser hechas de manera simple y algunos
experimentos que son de otra manera son imposibles
Conclusiones
XRD es un método excelente, no destructivo para
identificar fases y caracterizar las propiedades
estructurales de películas delgadas y multicapas. Es
barato y fácil para poner en práctica tiene múltiples
m
ii
XKI
)/(
24
aplicaciones, y un gran campo de acción desde la
geología hasta la industria arreo-espacial y de
superconductores.
Una pregunta que se genera después de haber hecho una
mirada general al XRD, s si no se pueden hacer estudios
similares a esto de las estructuras atómicas mas pequeñas
haciendo uso de rayos con menor longitud de onda que
concuerden con las distancias que estas tengan.
III. BIBLIOGRAFÍA:
• [1]FORMICA Joseph, X-Ray Diffraction,
Handbook of instrumental Techniques for
Analytical chemistry Prentice Hall PTR, 1997
• [2]TONEY Michael XRD en Encyclopedia of
Materials Characterization: Surfaces, Interfaces,
Thin Films Butterworth-Heinemann, 1992
• [3]ASENSIO Isidoro, Difracción de Rayos X,
Aguilar, Madrid 1955.
• [4] Beltrán X Determinación de estructuras
cristalinas, Universitat de Barcelona 2005
• [5]http://www.xos.com/index.php?page_id=75&
m=2&sm=4
Autor:
Salamanca, Rodrigo
Código: 200627
Grupo: 8
Número de lista: 37
Estudiante Ing. Industrial
Quinto semestre.
Universidad Nacional de Colombia, Sede Bogotá.
E-mail: rsalamanca@unal.edu.co
25
LA VIDA DE LAS ESTRELLAS
Al observar el firmamento en un área suficientemente despejada y lejos de fuentes luminosas podemos apreciar la gran
variedad y cantidad de estos puntos que simplemente llamamos estrellas. A lo largo de la historia, estos han sido agrupados
en lo que conocemos como constelaciones, compuestas por estrellas suficientemente cercanas que parecen formar figuras
cuya forma ha sido interpretada de maneras distintas por cada sociedad, sin embargo, en el transcurrir de la historia
contemporánea, especialmente en el último siglo, gracias al avance de las teorías físicas y de los instrumentos de
observación del espacio, la ciencia ha logrado acercarse bastante a la naturaleza física de estos puntos brillantes en el
firmamento.
Para comenzar, hay que considerar que no todos los
punto brillantes del firmamento son propiamente
estrellas, al observarse mejor utilizando telescopios,
algunos de estos puntos de transforman en agrupaciones
de estrellas o en nubes de gas brillante, llamadas
nebulosas. Igualmente, estos puntos no son estáticos
como a primera vista parecen, gracias a las
observaciones inicialmente de Huggins y más
recientemente de Edwin Hubble, se ha comprobado que
las estrellas se alejan de nosotros, lo que de manera
general se conoce como la expansión del universo. La
expansión del universo sirvió como soporte para la
aceptación casi general de la conocida teoría del big
bang, que nos plantea una gran explosión que arrojó al
espacio vacío una gran cantidad de materia que a través
de los miles de millones de años de “vida” del universo
ha interactuado entre sí produciendo la variedad de
materia que existe. Esta visión dinámica del universo
constituyó un rompimiento del paradigma del universo
estático e invariable, cambio que posteriormente se
extendió a las galaxias y de paso, a las estrellas, la cuales
lejos dejaron de ser consideradas cuerpos eternamente
brillantes para convertirse en cuerpos con un ciclo de
transformaciones análogo al ciclo de vida de una animal
o planta terrestre.
Nacimiento y Desarrollo
Los diferentes estados en el ciclo de vida de una estrella.
Fuente: Hubble Space Telescope
El ciclo de vida de una estrella es en general, el resultado
de la interacción de fuerzas nucleares, magnéticas,
gravitacionales y rotacionales. En un principio, se
considera que existe una gran nube de gas compuesto de
Hidrógeno y Helio molecular, estas moléculas al tener
masa están sujetas a una atracción gravitacional que hace
que la nube de gas se condense, sin embargo, esta no se
condensa de manera instantánea debido al movimiento
rotacional de la nube que aporta una fuerza rotacional
que se opone a la atracción. Pero la condensación se da y
a medida que ocurre fracciona la original nube en varias
nubes separadas llamadas protoestrellas, las cuales
adquieren energía en forma de calor gracias a la
contracción, este calor hace que las protoestrellas se
separen entre sí; a partir de entonces, la protoestrella
sufre un colapso, que es una contracción rápida, el cual
aporta la energía suficiente para que inicialmente las
moléculas se separen en su forma atómica, pero este
colapso no termina allí, ya que la división
molecular genera tanta energía en forma de calor que
lleva a los átomos de Hidrógeno a dividirse en protones y
electrones, y a su vez, la ionización del Hidrógeno aporta
la energía suficiente para que los átomos de Helio se
ionicen. El resultado final de este colapso en una nube
iónica conocida como Plasma, el cual conserva una
temperatura suficiente para dar origen a los núcleos de
las futuras estrellas, sin embargo, en esta parte hay más
masa que la inicial debido a un proceso paralelo de
incorporación de materia circundante llamado acreción.
Modelo general de una protoestrella. Fuente: Department
of Physics, Hong Kong Space Museum.
26
Una vez creado en núcleo de plasma, comienza el ciclo
de vida de la estrella propiamente dicho, ya que a partir
de entonces se dan las reacciones nucleares
características de las estrellas. En el núcleo de plasma
compuesto en su gran mayoría de las partículas
subatómicas, las partículas se encuentran en un
movimiento constante que hace que colisionen entre sí.
Estas colisiones en el caso de los protones originan el
fenómeno conocido como fusión nuclear, al colisionar
dos protones se crea deuterio (isótopo pesado del
hidrógeno), el cual al colisionar con otro protón genera
un núcleo de isótopo ligero de Helio, finalmente, se
produce un núcleo de helio a partir de cuatro protones,
pero esto supone una pérdida de masa, lo que implica
una generación de energía en forma de radiación,
aceleración o partículas subatómicas (Meadows, 1987).
Este proceso de fusión nuclear se sigue dando a lo largo
de la vida de la estrella, ya que a partir del helio también
es posible fusionar núcleos para generar otros como
carbono, y a su vez estos dos pueden generar oxígeno, el
cual puede fusionarse con el helio y generar neón, y así
sucesivamente se pueden seguir dando reacciones de
fusión, sin embargo, como era de esperarse este proceso
no es infinito, ya que no puede existir una fuente de
energía infinita, lo que ocurre es que a medida que la
fusión genera núcleos más pesados la energía excedente
es menor, hasta que en cierto punto, en lugar de generar
energía, el proceso de fusión requiere la incorporación de
energía. Una vez que todos los núcleos se han fusionado
hasta generar hierro, el proceso requiere la incorporación
de energía para continuar; es en este punto en el que
empieza el “envejecimiento” de la estrella.
Sin embargo, antes de pasar a la muerte de la estrella, es
importante destacar la energía emitida durante la fusión
nuclear, en el caso del Sol, constituye la fuente más
valiosa de energía para la vida en la tierra. La emisión de
radiación tiene lugar en el centro de la estrella, esta
originalmente se encuentra dentro del espectro
electromagnético dentro de la región de los rayos X de
alta frecuencia, pero debido a que durante su camino al
exterior la radiación es perturbada por las partículas en
movimiento, al alcanzar el exterior de la estrella la
radiación a perdido tal cantidad de energía que ha caído
en la región de la luz visible. Es esta la forma en la que
obtenemos la luz del Sol cada día.
Fusión del núcleo de deuterio 2H y de helio
3H. Fuente:
ISon21.es
Vejez y Muerte
Una vez que la estrella ha consumido todas sus fuentes
de fusión en el núcleo, inevitablemente sufrirá un
proceso en cierta forma inverso al que le dio origen y
finalmente morirá. Sin embargo, el destino final depende
de la cantidad de masa que haya acumulado durante su
existencia, aunque existen sólo tres opciones para la
posteridad de una estrella: enana blanca, estrella de
neutrones o agujero negro. El criterio utilizado para
determinar el destino final a partir de la masa es el límite
de Chandrasekhar, el cual tiene un valor de 1.44 veces la
masa del sol.
Cuando una estrella que ha agotado su energía tiene una
masa por debajo del límite de Chandrasekhar, tendrá un
final de enana blanca. Inicialmente su núcleo pesado
colapsará muy rápidamente (en unos pocos años) lo que
elevará su temperatura a tal punto que los núcleos
pesados chocarán entre sí y como resultado se
desintegrarán en neutrones o núcleos de helio, y una vez
alcanzado este punto el colapso será compensado por la
repulsión producto del principio de exclusión de Pauli.
Es aquí donde nace la enana blanca propiamente dicha,
la cual es estable y altamente densa, y en consecuencia,
comenzará a perder irreversiblemente su calor hasta
llegar cerca al cero absoluto, entonces se denominan
enanas negras, aunque este proceso de enfriamiento
puede llegar a ser muy largo es términos de la vida de la
galaxia.
Si la masa de la estrella esta por encima del límite de
Chandrasekhar, es posible que al agotar las fuentes de
fusión y alcanzar el estado de reducción a enana blanca,
la cantidad de materia sea tan alta que la atracción
gravitacional terminará venciendo a la presión producto
del principio de exclusión, entonces la estrella sufrirá una
repentina implosión que acercará los electrones y los
protones lo suficiente que se creará una explosión
conocida como supernova, de la cual resultará, si la masa
no es muy grande, una estrella estable compuesta de
neutrones llamada precisamente estrella de neutrones
(Nuñez, 2007). Estas se mantienen estables igualmente
gracias al principio de Exclusión de Pauli aplicado a los
neutrones, y son tan densas que su período de rotación se
reduce a unas centésimas de segundo, por lo que también
son conocidas como Púlsares, inclusive algunas llegan a
tener periodos de rotación del orden de los milisegundos,
aun cuando su radio sea del orden de los kilómetros.
Finalmente, surge la inquietud de que pasaría si después
de la supernova, quedara una estrella de electrones tan
masiva que nuevamente venciera la repulsión de Pauli,
en este caso, la estrella colapsaría sin límite alguno
deformando el espacio-tiempo a tal punto que ni siquiera
la luz puede escapar de su campo gravitatorio, entonces
se habla de un agujero negro. Como consecuencia de esta
perturbación infinita, no es posible saber con certeza que
27
es lo que ocurre dentro del agujero negro, aunque en
cuanto a su existencia sí es posible comprobarla, ya que
si un objeto cayera dentro de un agujero negro, en teoría,
se comprimiría tanto que emitiría rayos X, por lo que un
emisor de rayos X invisible en el espacio en un fuerte
candidato a agujero negro.
REFERENCIAS BIBLIOGRÁFICAS
DEAZA RINCON, Pedro. “El nacimiento de una
galaxia”. En Innovación y Ciencia. Bogotá, Vol. 12, No.
4. 2005
MEADOWS, Jack. Evolución Estelar. Barcelona:
Reverté. 1987.
MERCHÁN, Jorge. Entendiendo el Universo. Bogotá:
Alianza Group. 2004.
NUÑEZ, Paul. “Las estrellas de neutrones: Trompos
cósmicos”. En Innovación y Ciencia. Bogotá. Vol. 14
No. 4. 200
Autor:
Fique Ramírez, Juan Diego
Código: 261388
Universidad Nacional de Colombia, Sede Bogotá.
E-mail: jdfiquer@unal.edu.co
Izquierda, Explosión de una supernova. Derecha, Remanente de una Supernova. Fuente: NASA