Revista Veritas

  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Revista Veritas as PDF for free.

More details

  • Words: 15,008
  • Pages: 27
VERITAS

EDITORIAL Editor: Jaime Villalobos

Profesor de Física Moderna de la Universidad Nacional [email protected]

La revista “Veritas” es un trabajo realizado por los estudiantes de la facultad de Ingeniería de la Universidad Nacional de Colombia, elaborado por medio de la estrategia

Director: Luis Felipe García

Estudiante de Ingeniería Industrial Código 200665. Grupo 8, Numero 13 [email protected]

Diseño: John Gamboa Estudiante de Ingeniería Industrial Código 200664. Grupo 8, Numero 12 [email protected]

Revisión: Miguel Andrés Garzón Estudiante de Ingeniería Industrial Código 200667. Grupo 8, Numero 14 [email protected]

Ajustes: Eder Mauricio Abello Estudiante de Ingeniería Electrónica Código 261366. Grupo 8, Numero 1 [email protected]

de aprendizaje “Método Lea” dirigido por el profesor Jaime Villalobos cuyo objetivo es reforzar las técnicas de escritura adquiridas por los alumnos a lo largo de sus estudios. Los artículos presentados a continuación no tiene una temática específica, cada autor escogió el enfoque de acuerdo a sus gustos, sus conocimientos y sus aplicaciones, enfocándose en ideas y conceptos aprendidos a lo largo del curso de Física Moderna. Debido a que no se realizó ningún tipo de investigación científica, absolutamente todos los artículos son trabajos de revisión bibliográfica (Review). Cada escritor realizó una labor de consulta entre revistas de divulgación

Investigadores

científica, libros, enciclopedias, entre otros, buscando que

Cristian Camilo Higuera

la información presentada fuera la mas veraz posible.

Estudiante de Ingeniería Electrónica Código 261399. Grupo 8, Numero 12 [email protected]

Rodrigo Salamanca Estudiante de Ingeniería Industrial Código 200627. Grupo 8, Numero 37 [email protected]

Juan Diego Fique Estudiante de Ingeniería Electrónica Código: 261388. Grupo 8, Numero – [email protected]

Esperamos que el lector no tome estos escritos como un trabajo de aprendices, sino como un medio del cual se puede extraer mucha información y aprender muchos conceptos acerca de una ciencia tan amplia como lo es la Física, cuestionándose su manera de percibir el universo que lo rodea. Todos los autores declaramos que la redacción de nuestros artículos es completamente propia; los documentos utilizados como guía se encuentran referenciados al final del respectivo

UNIVERSIDAD NACIONAL DE COLOMBIA FACULTAD DE INGENIERÍA 2008 PRIMERA EDICIÓN

artículo. Autores de la revista Veritas

INDICE 1. EL BING BANG, LA PREGUNTA ACERCA DEL ORIGEN DEL UNIVERSO (MIGUEL ANDRÉS GARZÓN) 4 2. IDEAS SOBRE EL UNIVERSO (EDER ABELLO)

7

3. ALBERT EINSTEIN Y LA REVOLUCION DE LA FISICA (LUIS FELIPE GARCÍA) 10 4. GPS Y RELATIVIDAD: APLICACIONES Y CONSECUENCIAS (JOHN E. GAMBOA) 13 5. DE LA CUANTIZACIÓN DE LA ENERGÍA A LA MECÁNICA CUÁNTICA (CHRISTIAN C. HIGUERA) 17 6. DIFRACCIÓN DE RAYOS X (RODRIGO SALAMANCA)

20

7. LA VIDA DE LAS ESTRELLAS (JUAN DIEGO FIQUE RAMIREZ)

25

4

EL BIG BANG, LA PREGUNTA ACERCA DEL ORIGEN DEL UNIVERSO Por lo general al tratar de proponer una respuesta para resolver alguna pregunta formulada por la curiosidad humana se busca ir al fondo de la explicación científica, para responder a la pregunta por el origen del universo se han dado algunas luces no muy verosímiles ni claramente evidentes acerca de lo que pudo haber pasado en ese tiempo, si eventualmente sucedió, en realidad aunque las teorías científicas parezcan claramente sustentadas matemáticamente, con el correr del tiempo se verán siendo atacadas por factores que se dejaron pasar o que simplemente no se conocían entonces, y que pondrían en peligro la popularidad que tienen estas, en este caso, la certeza de que existe materia escura en una cantidad mucho mayor a la cantidad de materia conocida es un factor muy fuerte para dudar de la teoría del Big Bang, pues sin conocer a fondo la situación actual del universo, y en consecuencia de la materia oscura, es muy difícil determinar una teoría congruente con la ciencia actual. PALABRAS CLAVE: Big Bang, Materia oscura, Universo 1.

Introducción

El hombre siempre ha tenido la necesidad de explorar el lugar en donde vive, por esto ha estado atento a los cambios que se presentan a su alrededor y se ha interesado por conocer el comportamiento y la naturaleza de las cosas que están en interacción con él diariamente, consecuentemente, esto lo lleva a preguntarse acerca de su origen y su fin; siendo esta pregunta imaginable desde la física a la luz del origen del universo. Con el correr de los siglos el hombre se ha desarrollado, y en este sentido también han evolucionado sus preguntas sobre sí mismo y lo que lo rodea, volviendo sus respuestas más profundas y especificas, y de nuevo la pregunta acerca del origen del universo adquiere un papel importante en el momento de identificar su posición en él, y se han hecho grandes esfuerzos por entender cómo se comporta. Las diversas respuestas para la pregunta de cómo se creó el universo han dado paso a la adopción de paradigmas, ya sea por respuestas del tipo teológicas o con algún componente científico en las consideraciones o en los postulados, que de todas maneras no dejan de ser especulativos en alguna media, grandes dependientes de la imaginación. Por lo general el grueso de las personas de nuestro tiempo responden a la pregunta acerca del origen del universo con dos palabras: Big Bang, es la teoría más popular, y que mas satisfecha ha dejado a la humanidad hasta ahora, y ha creado una caja negra en donde la no consideración de un principio repentino y circunstancial del universo no es tomada en cuenta por mucho tiempo, ni en serio. 2. Preliminares, la expansión del universo Para llegar a contestar la pregunta en discusión, primero se tuvo que haber pensado en la situación actual del universo, diversos estudios como los de Edwin Hubble sobre la distancia de las estrellas, o posteriormente acerca de los espectros de las estrellas, en los que por medio del efecto Doppler se concluyó que el universo se está expandiendo, ya que entre más lejana es la estrella, más grande es su

corrimiento hacia el extremo del color rojo en el espectro, a partir de lo cual se concluye que las estrellas se están alejando unas de las otras a una velocidad que aumenta con las distancia, entonces el universo no puede ser estático[1]. Otros experimentos y postulados teóricos a cerca del universo han sido considerados a lo largo de la historia de la física, para esto, un hecho permitió dar pasos importantes en el estudio del universo actual, son los modelos del ruso Alexander Friedmann, el consideraba que el universo se veía igual en todas las direcciones, y que esto ocurre mirando desde cualquier lugar[2], eso es una aproximación a la realidad, que fue corroborada por los experimentos de los norteamericanos Penzias y Wilson, que por medio de un detector de microondas, lograron captar la radiación proveniente del universo, y pudieron ver que esta era prácticamente uniforme en todas las direcciones. Por lo general de cada nuevo avance se formulan cada vez más preguntas que deben ser respondidas, ahora bien, si el universo se está expandiendo uniformemente en todas las direcciones, ¿esta expansión será eterna? Tenemos tres casos, el primero es el que proponía Friedmann, el universo se está expandiendo lentamente, y este proceso puede ser revertido por la fuerza de gravedad; el segundo caso el universo se expande tan rápido que la fuerza de gravedad no lo puede detener, y en el tercer caso el universo se expande contantemente, la velocidad con que lo hace va disminuyendo, pero nunca llega ser cero. De aquí se pueden concluir algunas primeras ideas acerca del estado del universo, pero van surgiendo más interrogantes como la proveniencia de la fuerza que hace que el universo se expanda, y la forma en cómo se propicio el inicio de la misma. 3. El Big Bang Por supuesto se piensa en la idea de que todo proviene de un punto infinitesimal de densidad infinita, que estalló con gran fuerza formando todo lo que se conoce incluyendo el tiempo y el espacio, esta idea, aunque satisface muchas de las consideraciones tenidas en cuenta anteriormente, es una

5 singularidad en donde el tiempo y el espacio no existen, o bien, si curvatura es infinita [1], por tanto no aplican los conceptos físicos determinanticos. También se interpreta como una singularidad de la teoría de la relatividad, en donde esta colapsa matemáticamente. Aun estaba fuertemente arraigado el paradigma del estado estacionario, en donde el universo tiene un equilibro constante de masa y densidad, esto promovió el surgimiento de ideas como las de Bondi, Gold y Hoyle, ellos decían que a medida que las galaxias se alejan unas de las otras, iba apareciendo masa en los espacios interestelares para conservar el equilibrio del estado estacionario. La conclusión conceptual acerca del Big Bang se dio gracias al estudio sobre las estrellas de Roger Penrose, cuando una estrella colapsa por si misma llega a una singularidad del espacio-tiempo llamada agujero negro, Hawking pensó entonces que si se invierte este hecho, el colapso es entonces una expansión, y que de manera similar pudo haber surgido el universo, pero esto no queda aun del todo claro. 4. Otras miradas al Big Bang Se consideran diversos puntos de vista para mirar las cosas de una manera holística, que permita tener un concepto más claro, o una mayor aproximación de la realidad, y ahora con mayor conocimiento se puede cuestionar la veracidad de teorías propuestas con anterioridad o simplemente proporcionar nuevas fuentes de estudio para corroborarlas, y el Big Bang no es la excepción. Se puede analizar el universo a partir de la métrica de Senovilla, “que describe un universo inhomogeneo con una fuente de fluido perfecto” [3], se cambian las ecuaciones de Einstein al respecto, y se describe el universo como si no hubiera tenido Big Bang, pero si con una aproximación a que este haya ocurrido, en donde las expresiones para energía y presión son siempre finitas, y en base a ello se puede definir matemáticamente un parámetro para la expansión, teniendo en cuenta la dinámica del espacio tiempo. En la grafica 1 se puede ver la densidad de energía en función del tiempo en el universo.

Grafica 1: densidad de energía en función del tiempo “antes y después del Big Bang”

En la grafica 1 se tiene en cuenta el tiempo antes y después del “Big Bang”, se ve una distribución de antes y después de él, en donde al acercase al punto cero, la densidad sube significativamente con un comportamiento parecido al de la teoría del Big Bang original, este estudio pretender dar una nueva herramienta para el estudio de las posibilidades teóricas en la cosmología. Hay otra manera de ver los sucesos, así como se apoyan, se pueden atacar, y existen diversas maneras de hacerlo, como desde la razón, José Bermejo de la Universidad de Compostela, cuestiona la veracidad del Big Bang a partir de postulados como los de Einstein, partiendo de ese punto se considera la relatividad en la visión de los sucesos, por tanto, el Big Bang es un acontecimiento de “ficción verosímil, de tipo narrativo y no científico” [4]. No se debería dar por hecho científico, pues conocemos la mínima parte de la materia existente en el universo, teniendo en cuenta la existencia de materia oscura que no emitiría algún tipo de luz o de cualquier otro tipo de radiación, que es la manera en cómo podemos conocer lo que ha pasado en partes para nosotros lejanas del universo. Se propone dar una probabilidad para la verdad en el universo, y que esta sea igual a rata entre la cantidad de materia conocida y la cantidad de materia oscura, la cual sería muy baja; para hechos como la captación de radiación de fondo que se supone habría surgido en el origen del universo, pero no hay una prueba clara de eso si no se conoce con claridad que es la materia oscura. Así pues el Big Bang es considerado el límite entre el lenguaje matemático y el lenguaje cosmológico, un límite epistemológico. Se han mostrado dos formas de ver de una sola teoría, en la primera se muestra un apoyo matemático y científico a la teoría, en donde por medio de las matemáticas se tiene un respaldo que da credibilidad científica al tema, además puede ser de utilidad para otros científicos interesados en tratar el tema por la misma línea, pero en la segunda se muestra un análisis racional y con cabeza fría del asunto, en donde se cuestiona la veracidad de la teoría en la manera en cómo se generaliza sin tener las pruebas contundentes para poder hacer juicios con plena seguridad, en realidad el desconocimiento de la materia oscura es una gran dificultad para la teoría, pero también debe considerarse que aunque esta ya es casi un hecho científico en el afán de buscar una respuesta satisfactoria a las preguntas que se formulan, y que a su vez esas respuestas sean satisfactorias para todos los casos, se buscara la manera de que la materia oscura adquiera sentido para nosotros, y el universo pueda tener unos “limites” claros de estudio para continuar con la exploración de lo que nos rodea. 5. Conclusiones Es necesario buscar buenas definiciones y concepciones de lo que está cerca a nosotros si queremos responder efectivamente nuestras preguntas, la veracidad de esas respuestas se verá reflejada en la claridad de las hipótesis planteadas y en su demostración. El Big Bang es un ejemplo muy importante de ello, la dificultad de dar una respuesta a la pregunta del origen del universo ha hecho que se confíe en teorías de las cuales se tiene un apoyo experimental, pero

6 que no es contundente, así pues se espera que la teoría se adapte a nuevos conceptos, en este caso la materia oscura, y también que sea concreta para que no se siga divagando en una pregunta tan vital para nuestra identificación con el mundo. REFERENCIAS [1] HAWKING, Stephen. Historia del tiempo. Primera edición. Barcelona: Editorial Critica.1988 [2] HAWKING, Stephen. La teoría del todo [3] N. AVILAN, J. RODRIGUEZ, J. TEJEIRO. (2005): Propiedades cosmológicas de universos sin Big Bang. [EBSCO Academic Search Complete]. [1 Dic. 2008]. [4] BERMEJO, Jose. Una narración no es una ecuación: principios metafísicos de la cosmología estándar. [EBSCO Academic Search Complete] [consultado en 1 Dic. 2008].

ACERCA DEL AUTOR Miguel Andrés Garzón Ramírez Código: 200667 Grupo: 8 Número de lista: 14 Profesión: Ingeniero Industrial E-mail: [email protected] Cargo: Escritor

7

IDEAS SOBRE EL UNIVERSO IDEAS ABOUT THE UNIVERSE Este artículo pretende dar una visión general sobre algunas teorías actuales de la física acerca del universo. Se hará especial énfasis sobre la teoría de cuerdas, una teoría que pretende revolucionar la manera de concebir nuestro universo; Además se habla sobre algunos conceptos en torno a los universos paralelos, consecuencia de la teoría de cuerdas y conceptos como la mecánica cuántica.

PALABRAS CLAVE: Universo, ideas, dimensión. I.

Actualmente, uno de los retos más grandes de la física es tratar unificar estos y otros conceptos con una teoría del todo, que explique con un conjunto de ecuaciones todos los fenómenos que se describen en la naturaleza. En este momento la candidata más favorable para lograr esta labor es la teoría de cuerdas, cuya esencia se basa en comprender la materia como pequeñas cuerdas que vibran en un espacio de 11 dimensiones.

INTRODUCIÓN

a física ha recorrido un largo camino desde que Newton formuló la teoría gravitacional para explicar el movimiento descrito por los planetas en nuestro sistema solar. Con la teoría de la relatividad formulada por Albert Einstein, se estableció una relación entre el espacio y el tiempo que revolucionó nuestra manera de comprender el universo, proponiendo la existencia de una velocidad límite inquebrantable en la naturaleza (A pesar de que Einstein no pudo comprobar experimentalmente su teoría, numerosos científicos han realizado experimentos en aceleradores de partículas que convierten a este modelo en uno de los mas avalados de la física moderna). Poco después de que se formulara la teoría de la relatividad, Niels Bohr junto con un equipo de científicos enunciaron la teoría cuántica con el objetivo de explicar el comportamiento de los átomos y sus partículas, cuyo estudio se basa en calcular las probabilidades de desenlace de un experimento determinado.

L

A pesar de que las 2 teorías han sido validadas por la comunidad científica, resulta un problema tratar de combinarlas. La relatividad general describe de una manera muy precisa el comportamiento de objetos cuya velocidad con respecto a un sistema de referencia se acerca a la velocidad de la luz y la manera como se comporta el espacio-tiempo en presencia de materia, mientras que la mecánica cuántica se usa para describir objetos a escala atómica. El inconveniente de la teoría de la relatividad es que no comparte el aspecto cuántico de la teoría cuántica, es decir, las posiciones, las energías, las cantidades de movimiento, etc. de las partículas son continuas y predecibles; Esto supone una gran dificultad al tratar de analizar casos como el de los agujeros negros (recordemos que un agujero negro es un cuerpo supermasivo que absorbe la luz y todos los objetos que se encuentren cerca debido a su alta fuerza gravitacional) o el origen del universo con la teoría de la Big Bang, donde es fundamental involucrar las nano partículas y la curvatura del espacio-tiempo juntos.

II. LA TEORÍA DE CUERDAS, ¿UNA EXPLICACIÓN?

Figura 1: Curvatura de espacio-tiempo producido por un cuerpo celeste. El movimiento satélite que gira alrededor de él es una respuesta a la curvatura. En un agujero negro, la deformación es extremadamente grande debido a la cantidad de masa. Tomado de: http://www.xtec.cat/~lvallmaj/palau/einstein/corbat.jpg

II. LA TEORÍA DE CUERDAS, ¿UNA SOLUCIÓN? Einstein dedicó gran parte de su vida en encontrar una teoría que unificara la fuerza gravitatoria con la fuerza electromagnética, pero logró muy pocos avances sobre el tema sin establecer una idea concreta. Esta idea la retomaron los científicos Theodor Kaluza y Oskar Klein a principios del siglo XX, proponiendo la inclusión de una quinta dimensión suficientemente pequeña que proporcionara la conexión entre las 2 fuerzas mencionadas. Si nos fijamos en las ecuaciones, resulta tentador relacionarlas debido a que ambas decaen con el cuadrado de la distancia. Haciendo los análisis necesarios, sorprendentemente encontramos que podemos crear una sobre 5 dimensiones que explique la fuerza gravitatoria y electromagnética en 4 (Bousso y Polchinski, 2006). Basándose en esta idea, la teoría de cuerdas propone la existencia de 11 dimensiones espaciotemporales para que las ecuaciones sean matemáticamente coherentes, con una

nueva perspectiva de la materia: “Las partículas son en realidad objetos unidimensionales, pequeñas hebras o anillos en vibración” (Bousso y Polchinski, 2006). Estas pequeñas cuerdas parecerán partículas puntuales a menos que se acerquen a escalas similares a las de la constante de Planck (1034 metros). Nuestro mundo cotidiano se ve altamente afectado por la geometría de estas dimensiones; Dependiendo de la forma de las mismas, de las líneas de flujo (las líneas de flujo son fuerzas que se representan por líneas, como las líneas de campo magnético), entre otros parámetros, se definirá las funciones y las constantes físicas que se regirán en el universo. Las soluciones para las ecuaciones planteadas de la teoría de cuerdas permiten obtener innumerables configuraciones exóticas; Pero no todas las configuraciones son estables; Definiremos a la energía de vacío como la energía potencial determinada por las condiciones de los parámetros expuestos anteriormente. Como todo sistema en la naturaleza, las dimensiones buscarán el menor estado de energía como una bola rueda por un valle buscando la menor energía potencial. Siguiendo esta analogía, supondremos un paisaje con valles y colinas donde rodará la nuestro universo dependiendo de la energía potencial que conserve. Dentro de este paisaje denominado por muchos “El paisaje de la teoría de cuerdas” el universo puede quedar confinado dentro de un valle, denominado vacío estable. Es más, se presume que nuestro universo está confinado dentro de uno de estos vacíos estables debido a que las leyes de la física no cambian. Algunos estudios llevados por la universidad de Stanford y el InstitutoTata de Investigación fundamental en India, han estimado que existen alrededor de 500 asas que satisfacen la condición de vacío estable. Si suponemos que cada asa puede tener entre 0 y 9 líneas de flujo, habrá una posibilidad de 10500 configuraciones posibles para un vacio estable (Bousso y Polchinski, 2006). Entonces ¿Por qué la naturaleza ha escogido este vacío estable y no otro? La siguiente explicación explicar este punto e introducir la noción de universos paralelos.

8 instantáneamente; La nueva asa se expande en una burbuja dentro de la antigua configuración. Esto supone que en nuestro vasto universo existe una amplia gama de configuraciones posibles, unas tan alejadas de las otras que son imposibles detectarlas desde nuestra posición actual en el universo; Estos nuevos arreglos generan nuevos universos con leyes físicas distintas al nuestro (Bousso y Polchinski, 2006).

Figura 2: Burbujas generadas por los cambios en la disposición en las asas. Cada membrana delimita un universo con sus propias leyes físicas. Tomado de: http://bp0.blogger.com/_jA2sei6dZ-g/SBt5Ht9wjI/AAAAAAAAACM/mttayjCxeJo/s320/Multiverso.jpg

IV. UNIVERSOS PARALELOS Si proponemos la existencia de universos paralelos al nuestro, podemos preguntarnos si existen sistemas cosmológicos que contengan planetas, estrellas, y si es posible, vida. Pero antes de irnos más allá de las fronteras de nuestros sentidos y nuestro razonamiento, es posible que estos existan en nuestra misma burbuja. Ya veremos por qué. A. Multiverso de Nivel I

III. LA MECÁNICA CUÁNTICA Y EL VACÍO ESTABLE Por el efecto túnel sabemos que un átomo puede atravesar una barrera de potencial mucho mayor que la energía potencial que posee la partícula. Algo similar ocurre con las dimensiones y su energía de vacío: Una configuración puede cambiar de estado abruptamente estando en un vacio estable, “rodando” hacia otro valle con energía potencial mucho menor que la inicial, cambiando su forma, sus estados de energía, y por consecuencia, sus leyes físicas. Recordemos que cada punto de nuestro espacio está compuesto por 11 dimensiones espacio-temporales, las cuales pueden cambiar su configuración por las razones expuestas anteriormente. Pero este cambio no ocurre

El alcance de observación que nuestros instrumentos pueden llegar a observar está delimitado por la distancia que la luz ha logrado recorrer desde el inicio de los tiempos. A este límite se le conoce como volumen Hubble, estimado actualmente con un radio de 4x1026m (Tegmark, 2006). Nuestro volumen Hubble crece un año luz cada año. Ahora reflexionemos sobre todas las posibles configuraciones que puede tener nuestro universo. El lector puede llegar a pensar que es imposible que nuestro sistema llegue a repetirse, pero observaciones recientes del espacio han encontrado un patrón de uniformidad a escalas mayores a 1024 metros (Tegmark, 2006). Piense que si nuestra membrana es demasiado grande y la materia cuenta con un número limitado de protones, neutrones, electrones, entre otras partículas, en algún momento se habrán agotado las

9 posibilidades y el universo debe empezar a tomar rumbos similares. Estudios probabilísticos estiman que su otro yo podría estar a una distancia de 1028 metros de distancia, y a 10118 metros de nosotros podría existir un volumen Hubble igual al nuestro (Tegmark, 2006). Debido a que estos universos paralelos se encuentran en la misma membrana que el nuestro, sus leyes físicas serán idénticas al nuestro, pero sus evoluciones estarán determinadas por las condiciones iniciales.

nuestro universo, se ha desarrollado tal cual hasta este momento. D. Multiverso de nivel IV En este, el más complejo de los niveles, las leyes físicas permiten configuraciones que desde nuestra perspectiva pueden parecer imposibles – Como tiempos discretos – además de ser continuamente cambiantes. Actualmente estas ideas son solo bosquejos matemáticos que pueden llegar a validarse debido a la relación estrecha entre la física y la matemática.

B. Multiverso de Nivel II

V. CONCLUSIONES

De nuestro multiverso de nivel I pasamos al nivel II, un lugar con leyes físicas diferentes a las nuestras. Para dar una idea general sobre las consecuencias de los cambios abruptos en las leyes físicas pensemos por un momento que la constante de Planck en uno de estas membranas fuera 1. Por las ecuaciones de la mecánica cuántica como el principio de incertidumbre de Heisenberg o la cuantización de la energía, todos los fenómenos atómicos serán perceptibles en escala macroscópica. Ahora cambiemos el valor de la fuerza nuclear fuerte: Si la debilitamos lo suficiente podemos desestabilizar el núcleo del átomo y hacer que se destruya, negando la creación de estructuras más complejas.

Las teorías expuestas a lo largo de este artículo hasta ahora se están desarrollando. Muchas de ellas se basan en relaciones matemáticas tan simples como complicadas que explican satisfactoriamente algunos fenómenos de la naturaleza; Debemos tener en cuenta, sin embargo, que una teoría que no se pueda comprobar experimentalmente solo pasa a ser una simple metáfora respaldada por las ecuaciones.

Algo similar ocurre con las dimensiones. Dependiendo del número de dimensiones espaciales grandes ocurrirán fenómenos similares a los descritos anteriormente. En conclusión, muy pocas configuraciones son adecuadas para poseer estructuras tan complejas como la nuestra, y aun más, de vida. Este tipo de universo se encuentra en otra membrana diferente de la nuestra, demasiado lejos de la nuestra para que nos percatemos de su existencia (Tegmark, 2006).

[2] Bousso, Raphael; Polchinski, Joseph. “El paisaje de la teoría de

C. Multiverso de Nivel III Según la mecánica cuántica, todos los posibles resultados de un experimento aleatorio suceden a la vez, solo que en nuestro universo percibimos una fracción de la realidad cuántica completa (Tegmark, 2006). Pero, ¿Tendrá alguna relación los otros posibles desenlaces con los universos paralelos? La relación la presenta el Multiverso de nivel III concluyendo que todas las posibles soluciones de un acontecimiento ocurren en algún lugar del espacio. En realidad el nivel III no aporta mayores conceptos sobre la forma y la ubicación de las membranas, pero limita los acontecimientos que pueden suceder en cada una de ellas. Esta hipótesis abre una gran perspectiva hacia la imaginación, llevando a pensar que en alguna parte del espacio, toda la historia de nuestro planeta, y en general, de

VI. REFERENCIAS [1] “Espacio, tiempo y Velocidad”. Revista: Investigación y Ciencia. Páginas: 28-38. Edición 40 (Abril – Junio 2005): Einstein.

cuerdas”. Revista: Investigación y Ciencia. Páginas: 4-13. Edición 43 (Enero – Junio 2006): Fronteras de la física.

[3] Maldacen, Juan. “El espacio, ¿una ilusión?”. Revista: Investigación y Ciencia. Páginas: 50-56. Edición 43 (Enero – Junio 2006): Fronteras de la física.

[4] Tegmark, Max. “Universos paralelos”. Revista: Investigación y Ciencia. Páginas: 15-26. Edición 43 (Enero – Junio 2006): Fronteras de la física.

[5] BBC; “Universos paralelos”. Disponible en: http://www.youtube.com/watch?v=llmoNz_O4FY (primera parte). Consulta: Noviembre 9, 2008.

[6] Serie: “El universo elegante”. Disponible en: http://www.youtube.com/watch?v=ZgfvO2iyNTE (primer película: El sueño de Einstein). Consulta: Diciembre 3, 2008.

Autor: Abello, Eder Mauricio Código: 261366 Grupo: 8 Número de lista: 1 Profesión: Ingeniero Electrónico E-mail: [email protected] Cargo: Escritor

10

ALBERT EINSTEIN Y LA REVOLUCION DE LA FISICA ALBERT EINSTEIN AND THE REVOLUTION OF PHYSICS Albert Einstein fue un físico alemán cuyas ideas revolucionarias cambiaron la forma de pensar de muchos físicos de la época. Las ideas de Einstein dieron la explicación a muchos fenómenos de la naturaleza de los cuales aun no se tenían sino solo una vaga idea, permitieron el desarrollo de nuevas tecnologías y llevaron la física a adentrarse cada vez más y más en los fenómenos celestes, dando explicación a muchos interrogantes como lo eran el comportamiento de los conocidos como los agujeros negros. Este artículo enuncia algunos descubrimientos más importantes de este gran científico que llego a convertirse en uno de los físicos mas importantes no solo de su época, e incluso hoy en día sus trabajos y hallazgos que no han perdido validez y aun son de gran aplicabilidad en varios campos no solo de la física sino de la ciencias en general.

PALABRAS CLAVE: Einstein, Revolución, Ideas. 1. INTRODUCCION A lo largo de la historia han existido pensadores que se han atrevido a seguir sus creencias y pensamientos así estos muchas veces vayan en contra de los principios ya establecidos con anterioridad, estas ideas que en un principio parecen provenientes de una persona carente de cordura en muchas ocasiones resultan siendo descubrimientos revolucionarios que trascienden a lo largo de los años. Si bien no todas las ideas provienen de contradecir principios anteriores son las que provienen de ellas las que producen un salto mas grande en la generación de conocimiento, ya que abre las puertas a ideas aun mas atrevidas que las anteriores que de no haber sido por ese hallazgo, es probable que se hubieran dejado pasar hasta ser descubiertas muchos años después o tal vez ni siquiera fueran planteadas alguna vez. Además dan explicación tanto a fenómenos conocidos que carecían de un modelo o planteamiento teórico de su comportamiento, como los nuevos descubiertos con base en la ideas y hallazgos innovadores que se realizan. 2. EINSTEIN Y LA FISICA El año 2005 ha sido considerado el año de la física conmemorando los 100 años desde la aparición de grandes pensadores publicaron sus descubrimientos revolucionarios a lo largo de año 1905. Uno de estos grandes pensadores fue el científico Albert Einstein y sus hallazgos revolucionaron el mundo de la ciencia como se conocía hasta ese entonces. Albert Einstein fue un gran físico alemán, de descendencia judía, cuya primer influencia en el campo de la física fue una brújula que le regalo su padre cuando era niño, Einstein quedo impactado por su funcionamiento, pues al recibirla, sintió curiosidad por saber como y porque funcionaba. Era violinista dedicado y algunas veces afirmo que de no haber tenido éxito en su

carrera en la física, se hubiera ganado la vida tocando su violín. Siempre se caracterizo por ser un físico netamente teórico, era admirable su capacidad de imaginarse todos los fenómenos en su mente y luego ser capaz de plasmarlos detalladamente en modelos matemáticos. Esta capacidad, junto con su casi infinita curiosidad eran sus grandes fortalezas y a pesar de la complejidad matemática de sus ecuaciones él afirmaba que sus conocimientos matemáticos no eran los mejores y que muchas veces limitaban su desarrollo de nuevas ideas. Su fama como físico se radico cuando en 1905 fueron publicados en la revista “Annalen der Physik” 5 artículos escritos por Einstein, uno de ellos era su tesis doctoral, pero serian los otros cuatro artículos los que lo harían famoso. 3. MOVIMIENTO BROWNIANO El primero de estos artículos hace referencia al movimiento browniano, que es un movimiento caótico de partículas debido a choques entre átomos y moléculas, y dijo afirmo que se podía analizar desde un punto de vista estadístico. Hasta ese entonces muchos no creían que el comportamiento de las partículas era aleatorio pero en si no se sabia a que se debía esto, ni siquiera el mismo Robert Brown pudo explicar este fenómeno, el lo observo y lo planteo y de ahí se debe su nombre pero no encontró una explicación matemática concreta ya que el tema de las partículas era muy nuevo en ese entonces. Einstein partió del hecho de la existencia de las partículas y como seria su comportamiento al suspenderlas en un líquido, el cambio de posición al hacer esto realizo una seria de ecuaciones matemáticas que al final dieron una explicación muy precisa del movimiento con lo cual se puso fin a muchas discusiones sobre las partículas que se tenían en ese entonces.

11 4. DUALIDAD DE LA LUZ En el segundo afirmo que la luz era una emisión de pequeños paquetes de energía a los que se llamaron cuantos y debido a esto se abandono la teoría de la luz como onda únicamente por la de la luz como onda y como un haz de partículas a las cuales mas adelante se les llamarían fotones, los cuales chocaban con algunos metales y los cargaban eléctricamente dando explicación al fenómeno como efecto foto-eléctrico. Pero esta propuesta no fue tan novedosa como se podría pensar, ya que mucho antes de de Einstein, Newton habían afirmado que la luz era una tenia un comportamiento corpuscular, estaba compuesta de varios paquetes de luminosos en un gran conjunto cuya cantidad dependía de la intensidad de la luz aplicada. Luego apareció Huygens quien dio otra explicación de la naturaleza de la luz, el afirmo que la luz era un onda y que se comportaba como tal, luego de varios experimento pudo demostrar que la luz tenia características ya que podía reflectarse, difractarse y como comportamiento típicos de una onda, desplazando así la explicación de Newton. Pero fue einstein quien retomo amabas teoría y planteo una idea totalmente revolucionaria, sobre todo en aquella época, que las teorías no deberían ser rivales, sino por el contrario deberían estar juntas y de esto nació lo que actualmente se conoce como la dualidad de la luz. Por este trabajo le fue otorgado el premio Nóbel en 1921. 5. LA RELATIVIDAD El tercer articulo trata sobre la relatividad de la que alguna vez hablo Galileo Galilei pero añadió dos nuevos principios, que todo es relativo pues depende del sistema de referencia desde donde se mire pues, y que sin importar el sistema referencia la velocidad de la luz siempre será una constante. Una de sus frases mas famosas para explicar la relatividad fue la que dio en una entrevista, esta es "Cuando un hombre se sienta con una chica hermosa por una hora, parece que transcurre un minuto. Pero si se sienta en una estufa caliente por un minuto, éste es más largo que cualquier hora. Esa es la relatividad"[1]. Fue una manera muy simple de explicar una teoría bastante compleja, que sin duda alguna deja un clara idea de en que consiste la relatividad. Esta tuvo aplicabilidad no solo en la física sino también en muchas otras áreas, todo lo que implicara realizar mediciones desde un punto de referencia determinado implicaba la relatividad.

cuales el mundo pudo apreciar su capacidad destructiva en las ciudades de Hiroshima y Nagasaki. 7. LA RELATIVIDAD GENERAL

Figura 1: Deformación producida por la presencia de un cuerpo celeste [5].

Mas adelante plantearía la teoría de la relatividad general, la cual afirmaba que la gravedad como tal no existía, sino que la masa ocupaba y deformaba el espacio-tiempo y esta deformación era la que generaba la fuerza de atracción entre las partículas. Esto ayudo a explicar fenómenos tales como la orbita de los planetas del sistema solar y explicar el funcionamiento de un agujero negro, pues junto con su planteamiento anterior de la luz se pudo explicar porque el agujero negro era negro, esto se debe que la luz al tener comportamiento corpuscular, también es atraída por la inmensa gravedad del hoyo negro y le es imposible escapar además de la forma del hoyo y como atraía a los elementos de sus alrededores; y corrigió algunas deficiencias encontradas en los planteamientos de newton. El la figura 1 se puede apreciar un modelo tridimensional de la deformación en el espacio tiempo generada por un plantea y como afecta a los otros objetos alrededor de este, para este caso la pequeña luna que recorre dicha deformación en una forma orbital que también esta dada por la deformación. 8. LA TEORIA UNIFICADA Finalmente en 1955 este gran científico muere a sus 76 años en Princeton, Estados Unidos, dedico la ultima parte de si vida a la búsqueda de una teoría que unificara las fuerzas de la naturaleza, estas eran las fuerzas a nivel atómico y las electromagnéticas con las gravitacionales. Lamentablemente no pudo llegar a la tan anhelada teoría y actualmente no se ha llegado a una unificación concreta pero actualmente se esta trabajando en la conocida como “teoría de cuerdas”.

6. MASA Y ENERGIA 9. CONCLUSIÓN En el cuarto articulo, esta la formula más famosa de este científico E=mc2, donde E es energía, m la masa y c la velocidad de la luz. Aunque las intenciones de Einstein eran buenas y el pensó que esto traería un gran desarrollo para la humanidad, desafortunadamente unos de los primeros usos de esta equivalencia de masa y energía fueron las primeras armas de destrucción masiva de las

Las ideas de Einstein marcaron un hito en la historia del conocimiento, su forma diferente de ver las cosas fue la que permitió que desarrollara teorías tan importantes en el campo de la física que sin duda alguna lo inmortalizaran durante mucho tiempo. Esas ideas que surgen de ver las cosas de una forma diferente en muchas

12 ocasiones son descartadas por parecer muy absurdas y son dejadas aun lado sin percatarse que tal vez en esas ideas existan nuevas teorías que permitan dar saltos cada vez más grandes en el modelamiento y explicación de lo que sucede en el entorno. La causa de que estas ideas se pierdan radica en gran parte en el miedo a la crítica y desvirtuación por parte de las personas cercanas quienes al dar un vistazo rápido no aceptan la idea sino que por el contrario la ridiculizan y junto con ella a la persona de la que provino. Si se cambia esta forma de ver las ideas nuevas, muy probablemente la humanidad logre desarrollar un mecanismo de generación de conocimiento mucho más efectivo del que actualmente se tiene.

10. REFERENCIAS [1]http://www.acropoliscordoba.org/Fondo/alberteinstein .asp [2] TIPLER, Paul. MOSCA, Gene. Física para ciencias e ingeniería. Quinta edición. Reverté. 2005 [3] http://www.kombu.de/einst-sp.htm [4] Enciclopedia ENCARTA 2007 [5]http://www.iac.es/cosmoeduca/relatividad/imagenes/c harla3imag/gravedad_640.jpg [6] SERWAY, Raymond A., Física para ciencias e ingeniería, Tomo II quita edición, México 2002

Autor: García Forero, Luis Felipe Código: 200665 Grupo: 8 Número de lista: 13 Estudiante Ing. Industrial Cuarto semestre. Universidad Nacional de Colombia, Sede Bogotá. E-mail: [email protected]

13

GPS Y RELATIVIDAD: APLICACIONES Y CONSECUENCIAS GPS AND RELATIVITY: USES AND CONSEQUENCES El sistema de posicionamiento global se creó a partir de la necesidad de tener control e información sobre naves u objetos que se encontraban en algún punto del planeta Tierra. Su funcionamiento se ligó a la medición de tiempos en la superficie y espacio orbital terrestre (a poco más de 20.000 km de ella). Sin embargo, al no estar en una órbita geoestacionaria, el GPS se ve afectado por variables como la velocidad y la gravitación, por lo que de acuerdo a la relatividad de Einstein la medida del tiempo orbital iba a ser distinta a una hecha en la superficie del planeta. El presente artículo muestra por qué la relatividad de Einstein afecta el sistema GPS y de qué manera puede solucionarse dicho efecto. PALABRAS CLAVE: GPS, Relatividad, dilatación del tiempo. 1.

INTRODUCCIÓN

La carrera espacial comenzada en el siglo XX y las nuevas teorías de la época abrieron paso a la creación de nuevas tecnologías. Una de ellas muy mencionada por estos días es el sistema de posicionamiento global (GPS), el cual ya se encuentra al alcance de ciudadanos comunes en aparatos como los celulares. El GPS es un sistema de navegación y tiempo, inicialmente operado por el departamento de defensa de USA. Éste se podría describir a partir de diferentes segmentos en su utilización: el sistema de satélites (segmento espacial), las estaciones terrestres (segmento de control) y los terminales receptores (segmento de usuarios). El segmento espacial se trata de un grupo de 27 satélites (24 operativos y 3 de respaldo) que orbitan a unos veinte mil kilómetros de la superficie terrestre, los cuales poseen relojes atómicos para la exactitud en la medición del tiempo. Hay cuatro satélites por cada seis planos orbitales inclinados 55° con respecto a la línea ecuatorial. Los satélites, primeramente construidos por Rockwell international en los años 70‟, fueron una iniciativa del departamento de defensa de USA después de cerca de 50 años de investigación y desarrollo bélico que se intensificó con la guerra fría. El primer satélite de prueba GPS fue enviado a órbita el 14 de Julio de 1974, cuyo programa fue llamado NAVSTAR. Actualmente se encuentran operando 24 satélites, tal como se mencionó anteriormente. Técnicamente, éstos funcionan gracias a los paneles solares que tienen en su exterior, los cuales permiten obtener energía solar en los momentos en que se encuentran posicionados frente a él, y tienen almacenadores de energía para cuando no estén expuestos a radiación, garantizándose así el trabajo continuo de esta tecnología. Su período orbital es de aproximadamente 12 horas y su vida útil de unos 7.5 años. En cuanto a las estaciones terrestres, es allí donde se recibe la información de los satélites para su control y mantenimiento, y los terminales receptores son los que indican la posición en donde se encuentran.

2.

FUNCIONAMIENTO

Los satélites tienen como uso principal la localización de un objeto, persona o nave en algún punto del planeta Tierra, aunque se han encontrado un gran número de creativas aplicaciones. Para entender su funcionamiento es clave precisar que debido a que este sistema se encuentra en órbita es necesario aplicar principios modernos para la sincronización del tiempo de los relojes satelitales con los relojes terrestres, aquí es donde la relatividad de Einstein permite la comprensión de esta nueva tecnología. Triangulación Cuando se desea determinar la posición, el receptor que se utiliza para ello localiza automáticamente como mínimo cuatro satélites de la red, de los que recibe unas señales indicando la posición y el reloj de cada uno de ellos. Con base en estas señales, el aparato sincroniza el reloj del GPS y calcula el retraso de las señales; es decir, la distancia al satélite. Por triangulación se calcula la posición en que éste se encuentra. Las figuras 1 y 2 muestran gráficamente esta geometría.

Fig. 1. Principios básicos para la determinación de la distancia: (1) Triangulación desde satélites en lo básico del sistema (2) Para triangular GPS mide distancias usando el tiempo que emplea la onda (3) Para medir el tiempo GPS necesita relojes muy exactos (4) Una vez conocida la distancia al satélite, es necesario conocer dónde está ubicado en el espacio (5) La señales de GPS que viajan a través de la ionósfera y atmósfera sufren un retraso

14 (2) Donde rj es la posición de algún punto del planeta. Sin embargo, esta solución sólo podría ser usada si los relojes estuvieran sincronizados, es decir, si se encontraran en un mismo marco de referencia inercial. Como no ocurre esto, la situación es más compleja y es ahí donde la relatividad de Einstein da un novedoso punto de vista que permite el correcto funcionamiento de esta tecnología.

DETERMINACIÓN DEL TIEMPO Y LA POSICIÓN La tecnología básica para el correcto funcionamiento del sistema son los relojes atómicos estables; es por esto que los satélites tienen relojes de Cesio. La figura 2 muestra las desviaciones Allan entre un oscilador de Quartz y un reloj de Cs.

4. RELATIVIDAD APLICADA EN GPS Debido a que los satélites se encuentran en órbitas alrededor de la Tierra, el tratamiento cinemático que se le debe dar a esta tecnología debe ser relativista, lo que permitirá una corrección de los aparentes retrasos que tienen los relojes, de gran exactitud, por estar en un distinto marco de referencia inercial. Para modelar una ecuación que permita hacer una corrección relativista del tiempo, es necesario precisar que las variables que afectan directamente el cálculo son: la fuerza de gravitación y la velocidad de la partícula con respecto a un marco de referencia. De esta manera, ocurre un efecto denominado dilatación del tiempo, primera vez mencionado por Einstein en 1905. La solución teórica de la dilatación del tiempo justifica por qué ocurre este efecto.

Fig. 3. Desviaciones típicas Allan de relojes de Cs y osciladores de Quartz, graficados como función del promedio del tiempo [6]

Dilatación del tiempo La dilatación del tiempo significa que un reloj en reposo con respecto a un observador inercial mide intervalos de tiempo mayores que otro reloj en movimiento uniforme con respecto al mismo observador y para el mismo evento físico. [1] Este concepto es una consecuencia cinemática de los postulados de Einstein: 1. Las leyes de la física son las mismas en cualquier marco de referencia inercial. 2. La velocidad de la luz en el vacío tiene el mismo valor c en cualquier marco de referencia inercial. (300.000 km/s)

Fig. 2. Relaciones geométricas en el posicionamiento satelital

3.

De acuerdo a la figura 2 los osciladores de Quartz tienen un mejor desempeño de estabilidad a corto plazo, mientras que las características del Cs son mejores a largo plazo. Esto es, que al inicializar un reloj de Cs y dejarlo por un día, éste tan sólo tendría un retraso de 4 nanosegundos. [6] La necesidad de un reloj tan exacto se debe a que en la determinación de distancias para saber la posición de una partícula (objeto, nave, etc) en la Tierra, se tendrá que recurrir al tiempo que se demora la señal en llegar al satélite, tal como se mostró anteriormente. En este orden de ideas, se podría determinar la distancia d desde la posición del objeto al satélite con relojes sincronizados. Conociendo el tiempo que marca el dispositivo receptor GPS y el del satélite, por medio de la constancia de la velocidad de la luz, se podría hallar la distancia d: (1) Donde tdev es el tiempo del dispositivo y tsat el del satélite, y c = 299792458 ms-1. [7] De una manera más general se podría encontrar distancias o tiempos de un satélite a distintos puntos del mapa, de acuerdo a la siguiente ecuación:

Fig. 4. Transmisión de la luz vista desde dos puntos de referencia inerciales.[3]

Considérese dos marcos inerciales S‟ y S en la figura 4 donde el eje de x‟ y x coinciden. Dos orígenes son colocados en los puntos A y B, respectivamente. El origen A del sistema S‟ se mueve con una velocidad constante v a lo largo del eje x hacia B. Supóngase que se colocan dos espejos y se hace que un haz de luz viaje entre ellos. Cada vez que un haz de luz haga un recorrido

15 completo de ida y vuelta un reloj tomará el intervalo de tiempo entre dos señales consecutivas, el cual es también el tiempo necesario para que la luz efectúe su recorrido completo entre los espejos y está dado por la relación: (3) Si el haz de luz es mandado en A y recibido en B entonces el tiempo que se demora la luz en recorrer esa distancia será:

De acuerdo a la ecuación (7), (19) y (12): (13) Esta ecuación muestra el efecto causado por la relatividad visto desde un marco inercial a otro. De la misma manera, la relatividad general incorpora la gravitación y luego de una compleja deducción matemática se obtiene: (14) Donde V es el campo gravitacional. 5.

(4) Se sabe que: (5) Sustituyendo esto último en la ecuación (4):

(6) A partir de la ecuación (3) y sustituyendo en (6) se tiene que:

(7) La ecuación (7) muestra matemáticamente la teoría de Einstein. Con esto se determina que el tiempo no es absoluto, lo que quiere decir que depende del observador o marco de referencia. La primera vez que se constató experimentalmente este efecto relativista fue en 1938 por Ives y Stilwel. Ellos hicieron un estudio del ritmo de un reloj móvil, lo cual permitió medir el efecto doppler de la radiación emitida por rayos catódicos, cuando son vistos directamente de frente y de atrás. Luego en 1941 Rossi y Hall hicieron un experimento en el que compararon la población de muones producidos por rayos cósmicos en lo alto de una montaña y el observador al nivel del mar. Resultados más actuales los mostró el Max-Planck-Institut für Kernphysik de Alemania en el 2007, cuyas conclusiones se publicaron en la revista Nature [5]. De la misma forma, se podría denotar que: (8) (9) Donde s y s‟ son las longitudes de la luz vistos desde dos sistemas de referencia. Si se multiplica por c en la Ec. (7) se obtiene:

(10) Considerando, además que: (11) Donde f es la frecuencia y  es la longitud de onda relacionada. Si s= y s’=‟, dividiendo por c la ecuación (10), se obtiene la corrección relativista de la frecuencia: (12)

CORRECCIÓN RELATIVISTA DEL TIEMPO Determinado así el por qué de la existencia del retraso en los relojes de los satélites, se desarrollaron soluciones para corregirlos. Lo primero que se buscó fue un marco de referencia para construir las ecuaciones. Así, para los propósitos del GPS se imaginó un marco inercial posicionado en el centro de la Tierra, para sincronizar los relojes con respecto al mismo. En este punto es importante recalcar que se pueden sincronizar los relojes de acuerdo a un sistema de referencia y otro, por lo que la medida del tiempo en la Tierra se llamará tiempo coordinado y el del satélite tiempo propio. De esta manera, luego de un modelamiento matemático complejo y tomando en cuenta la solución de Einstein, se determinó una ecuación para el incremento del tiempo propio del satélite:

(8) Donde  es el tiempo propio. Asimismo para el incremento del tiempo coordinado en la tierra se integra a lo largo del recorrido que hace el reloj atómico y se obtiene::

(9) En las dos ecuaciones es un término que aparece debido a que en el marco de referencia donde se utiliza esta ecuación la unidad de tiempo está determinada por relojes moviéndose en un campo gravitacional espacialmente dependiente y: (10) Esta constante es la escala de tiempo terrestre, determinada por la unión astronómica internacional. (Ver [6]) Así, entonces, es posible la sincronización de los relojes en ambos sistemas de referencia. Las correcciones relativistas se realizan con software especializados, por lo que es un proceso automático. 6.

APLICACIONES

16 Se podría hacer una lista de aplicaciones del GPS, pues tiene funcionalidad a nivel de ingeniería, científico y militar. En la ingeniería, uno de los usos es el estudio topográfico de construcciones, ya que puede medir el movimiento de las estructuras. En la astronomía permitió hace unos años la medida de la tasa de incremento del período pulsar binario en el observatorio de Arecibo. También ha sido utilizado para hacer test de gravitación y ha comprobado la teoría de Einstein. Usos más comunes se dan todos los días para el turismo, ubicación en las ciudades, búsqueda de rutas para llegar a determinados lugares, para la aviación y la navegación, entre otros más. Estos usos masificados generan unos 30 billones de dólares al año. 7.

OTROS SISTEMAS DE POSICIONAMIENTO El GPS fue creado por USA, sin embargo en otros países desarrollados también se crearon sistemas similares. Uno de los más importantes es el GALILEO, un proyecto de la agencia espacial europea, con 30 satélites en órbita, el cual produce cerca de 10 billones de Euros anuales en servicios. Otro sistema dominante es el GLONASS, creado por Rusia, el cual se diferencia del GPS en que está ligeramente a menor altitud del último y orbita unas 17 veces, mientras que el GPS lo hace 16 veces. 8. CONCLUSIONES El sistema de posicionamiento global, tecnología que hace parte de la era de la información, no se hubiera llevado a cabo sin las ideas innovadoras de Einstein sobre un universo poco convencional. Sin duda, la carrera de conocimientos comenzada el siglo pasado ha permitido que disfrutemos de los artefactos que la ciencia ficción ya había imaginado. Y aunque la física ha aportado un gran valor agregado a la industria y avance a nuestra civilización, también ha generado una nueva forma de seguridad internacional que hace temer de una próxima guerra mundial. Ideas que en ciertas épocas pueden parecer descabelladas, han llevado al ser humano al espacio, apropiándose y aprendiendo de él, pues Einstein entendió hace más de un siglo que la locura es creer que se puede llegar a resultados distintos haciendo siempre lo mismo. 9.

REFERENCIAS

[1] GARCIA, Mauricio. EWERT, Jeannine. Introducción a la física moderna. Unilibros. Departamento de física. Universidad Nacional de Colombia. [3] XU, Guochang. GPS, Theory, algorithms and applications. Springer. 2003 [4] TIPLER, Paul. MOSCA, Gene. Física para ciencias e ingeniería. Quinta edición. Reverté. 2005 [5] NATURE Magazine. SASCHA REINHARDT, GUIDO SAATHOFF, HENRIK BUHR, LARS A.

CARLSON, ANDREAS WOLF, DIRK SCHWALM, SERGEI KARPUK, CHRISTIAN NOVOTNY, GERHARD HUBER, MARCUS ZIMMERMANN, RONALD HOLZWARTH, THOMAS UDEM, THEODOR W. HANSCH, GERALD GWINNER. Test of relativistic time dilation with fast optical atomic clocks at different velocities. Edición: 11 Nov. 2007. [6] ASHBY, Neil. Relativity in the global positioning system”. Living reviews in relativity. Disponible en: [7] T. MATOLCSI. M, MATOLCSI (2008): “Coordinate time and proper time in the GPS”. European journal of physics. 1 Sept. 2008. On line: <stacks.iop.org/EJP/29/1147> [8] LETHAN, Lawrance. GPS fácil: uso del sistema de posicionamiento global. Editorial Paidotribo. 2001. [9] A. POKOPOV, S. MATVIENKO, A. MELESHKO, T. SERKINA, M. ANDROSOV (2008): Relativistic effects in global satellite navigation systems. Science Direct. 19 Agosto 2008.

Autor: Gamboa Guerrero, John Eduardo Código: 200664 Grupo: 8 Número de lista: 12 Estudiante Ing. Industrial Cuarto semestre. Universidad Nacional de Colombia, Sede Bogotá. E-mail: [email protected]

17

DE LA CUANTIZACIÓN DE LA ENERGÍA A LA MECÁNICA CUÁNTICA FROM THE QUANTIZATION OF ENERGY, TO QUANTUM MECHANICS A través de la historia de la humanidad se han encontrado diferentes fenómenos, los cuales se han intentado explicar mediante la física. A finales del siglo XIX y principios del siglo XX, se han roto paradigmas que han ayudado al avance de la ciencia como en ningún otro tiempo se pudo hacer, pues se empieza (no es el inicio exacto pero si el más importante) con la concepción que Max Plank le da a la energía, diciendo que esta cuantizada y que existen diferentes niveles de energía, postulado que se corrobora años después con la descripción de la mecánica cuántica que realiza E. Schrödinger en los años ‟20. Junto a ellos se han sumado diferentes personas, que tuvieron una concepción diferente del universo, y que gracias al estudio de otros han ayudado al avance, como lo es la secuencia entre Hertz, Einstein, De Broglie, Heisenberg y Schrödinger. Esta secuencia la termino en Schrödinger, que aunque no fue donde se estanco la física moderna (porque cada día evoluciona con mayor velocidad), si es lo que mejor entendemos y son los desarrollos de los cuales se puede encontrar alguna analogía en el mundo macroscópico, pues teorías más avanzadas que llaman a ecuaciones como la de Dirac o el espacio de Hilbert, ya describen propiedades específicas del mundo cuántico, que al compararlo con la mecánica newtoniana, es una locura. PALABRAS CLAVE: Física, energía, quántica. 1.

LA FISICA MODERNA

L

a física moderna tuvo su génesis en el momento en el cual Max Plank propuso teóricamente y quizá sin experimentación alguna, la cuantización de la energía a partir de las observaciones y ecuaciones que describían la radiación del cuerpo negro, como lo son las leyes de Wien y de Rayleigh-Jeans, las cuales Plank „unificó‟ y de este proceso dedujo una nueva, de la cual él interpretó que la energía tiene ciertos niveles, que ésta no puede tener valores intermedios, sino siempre valores enteros. Unos años antes que Max Plank hubiera solucionado el problema de la radiación del cuerpo negro, con su ecuación, que lo llevaría a deducir que la energía tiene niveles de energía, H. Hertz descubrió el Efecto Fotoeléctrico (EFE), el cual no pudo describir muy bien, pues tenía ciertos paradigmas que no pudo romper, lo cual le impidió conseguir las herramientas necesarias para avanzar con este descubrimiento, algo que si logró hacer Albert Einstein en 1905, al proponer la idea (que es una transformación del postulado de Plank), que dice “…una radicación electromagnética de frecuencia está constituida por pequeños paquetes de energía cada uno de los cuales porta un cuanto de energía (fotón) cuyo valor es proporcional a la frecuencia de la radiación.”1 Donde propone un concepto revolucionario para su época, el cual es la dualidad en el comportamiento físico de la luz, pues para principio de siglo se tenía la concepción de que la luz se comportaba únicamente como una onda, pues presentaba fenómenos ondulatorios como lo son la reflexión o la difracción, pero al darle un comportamiento corpuscular a la luz, a 1 EWERT J., GARCÍA M. “Introducción a la física moderna”. 3ra. edición. 2003. p 67.

parte de entender claramente el EFE (por el cual ganó el premio Nobel), generó una duda en el físico francés Louis De Broglie, quien en 1924 postula que la materia, al igual que la luz, también tiene un comportamiento ondulatorio, pues si Einstein propuso una dualidad de la luz, que se comporta generalmente como una onda, debía existir una correspondencia que implicara que lo que normalmente se comporta como partícula, pueda describirse por medio de una onda. Esta idea que parecía aún más descabellada que la propuesta por Einstein en 1905 (pues pudo demostrar un fenómeno descubierto con anterioridad), relacionaba la longitud de onda con la velocidad, diciendo que la cantidad de movimiento (p) es inversamente proporcional a la longitud de onda de De Broglie (), donde el valor que las relaciona a las dos es la constante de Plank (h). Dos años después quedó demostrado que lo propuesto por De Broglie, realmente existía, pues mediante los experimentos de Davisson-Germer (1925) y G. P. Thomson (1926), mostraron la existencia de dicha longitud de onda.

Fig. 1 Efecto Fotoeléctrico

18 Partiendo de este concepto, el alemán Werner Heisenberg en 1927, sorprende al mundo de la ciencia con su Principio de Incertidumbre, el cual dice que es imposible poder medir en el mismo instante la velocidad y posición de una partícula, pues si su movimiento puede ser descrito por una perturbación que ocupa todo el espacio, no se podrá tener claridad sobre la ubicación de la partícula, pues ésta está distribuida en toda la onda y su incertidumbre es total, pero al tener más certeza de la ubicación de la partícula, se irá perdiendo en su velocidad, pues la forma en la cual reducimos la incertidumbre de la posición, es reduciendo el espacio en el cual ésta se pueda desplazar, lo que se realiza por medio de la superposición de ondas, lo que implica que la cantidad de movimiento se vea alterada, pues la longitud de onda correspondiente a la partícula, la cual es una perturbación derivada del movimiento de la partícula, es decir por su velocidad, se reduce, lo cual hace que se genere una mayor certeza de la ubicación de la partícula, pero su cantidad de movimiento, que es representada por su velocidad, se ve altamente alterada, pues se superpusieron otras ondas, las cuales hacen que se pierda la referencia de la longitud inicial. Un ejemplo que puede explicar de mejor manera el por qué es imposible la medición conjunta de la velocidad y posición de una partícula, sería la medición de la posición y velocidad de un electrón, pues si se desea realizar la medición de su ubicación y saber que velocidad llevaba, implica que se deba observar de alguna forma el electrón, para lo cual se necesita que un fotón lo impacte, lo que generaría que no se pueda determinar ni la velocidad ni la posición en cierto instante, pues el choque del fotón sobre el electrón genera un cambio en su velocidad y posición (haciendo uso de la mecánica clásica). El principio de incertidumbre que Heisenberg propuso, hablando ya en términos matemáticos, que la incertidumbre total del sistema que se tiene en la obtención de resultados es mayor o igual a la constante de Plank dividida entre 4, lo cual representaría que en el mejor de los casos, es decir la incertidumbre mínima sería de 5.271 x 10-35. Se entiende como incertidumbre total al producto de las incertidumbres de la posición y la cantidad de movimiento (x•p). Resulta redundante mencionar que la incertidumbre no tiene caso hallarla en los objetos que podemos observar, con los que cotidiana mente interactuamos, pues, si se realiza se encuentra que la incertidumbre de la posición es un valor insignificante al compararlo con las dimensiones al objeto en mención y de igual manera sucede con la velocidad, pues se tendrá una variación que es imperceptible para la velocidad que lleva el objeto. Este principio de incertidumbre, no es la base de la mecánica cuántica, pues junto con la longitud de onda propuesto por De Broglie son los primeros pasos que nos ahondan en el mundo de las partículas de tamaño

atómico, como lo son los electrones, protones, entre otros. Parto diciendo que el que creó la mecánica cuántica fue Heisenberg, por lo que le otorgaron el premio Nobel en 1932, pues como fue mencionado en el momento de la entrega del premio “el uso de la mecánica cuántica ha conducido, entre otras cosas, al descubrimiento de las formas alotrópicas del hidrógeno”, aunque ha de resaltar que la mecánica cuántica se puede dividir en dos, la mecánica cuántica matricial, la cual fue propuesta en 1926 por el grupo de Götinger, que estaba conformado por el ya mencionado W. Heisenberg, P. Jordan y M. Born y la otra, la cual ha sido base de más estudios, la cual es la mecánica cuántica ondulatoria de la cual es artífice E. Schrödinger. La teoría de la Mecánica Cuántica esta basada en los resultados experimentales, pues debido a que es una ciencia tan volátil, no se ha generado una teoría general que describiera los resultados, sin siquiera tenerlos (Un ejemplo de esto es el postulado de M. Plank). La mecánica cuántica parte del principio de incertidumbre de Heisenberg, que conduce a la ecuación de Schrödinger, donde su solución es la función de onda, la cual describe el comportamiento de la partícula en diferentes ambientes a diferentes potenciales de energía. La ecuación de Schrödinger parte del principio de conservación de la energía, donde la energía cinética más la energía potencial es igual a la energía total de la partícula (Ec+Ep=ET), donde realizando diferentes operaciones algebraicas y utilizando operadores que describen un observable físico se llega a la función de onda, la cual es (en una dimensión): (x)= Aeikx + Be-ikx, donde k, es quien describe el ambiente en el que se mueve la partícula, pues allí es donde se encuentra la relación entre la energía total de la partícula y el potencial del sistema. Esta función de onda, que también es posible visualizarla así: (x)=Csen(kx)+Dcos(kx), muestra lo que se propone desde de Broglie, que la partícula tiene un comportamiento ondulatorio, pero cuando empezamos a observar los valores de frontera, es decir en el momento en que el potencial del sistema cambia a otro potencial, se encuentra que dependiendo la relación de este potencial con la energía total de la partícula se puede encontrar diferentes reacciones de la partícula, las cuales son: 1.

Cuando el potencial es menor que la energía total. Es este caso se tendrían dos velocidades diferentes, una cuando la partícula se mueve en un potencial y otra cuando este potencial cambia, si el potencial aumenta, existe la posibilidad en que la partícula se devuelva o también que siga al otro potencial.

19 2.

3.

Cuando el potencial es mayor que la energía total. Aquí la solución del sistema deja de ser en su totalidad ondulatorio, pues la función de onda se adecua para la región inicial, pero en el momento en el que entra a un potencial mayor, la solución es una función exponencial, pues lo que describe la onda es el imaginario de la función exponencial y al desaparecer este, la función es una exponencial descendente, pues esta no puede aumentar. Cuando se encuentra encasillada en dos potenciales que tienden al infinito. Este caso se conoce como la caja de potencial unidimensional (base de la proposición de la caja de Schrödinger), acá existen tres regiones, en dos de ellas la función de onda es igual a cero, es decir no hay probabilidad de que la partícula se encuentre allí, por lo que se va a encontrar en una sola región. Al conocer esto se empiezan a evaluar en los valores frontera, para hallar el valor de las constantes, y se encuentra, que la energía de la partícula está cuantizada, pues k, sólo puede tomar valores enteros positivos. Se encuentra que para estas situaciones la solución de la ecuación de Schrödinger es:  (x)= √ (2/a) sen (nx/a)

-

El universo cuántico, es un universo de probabilidades y tan volátil que cualquier interacción con él puede modificar sus condiciones.

-

La experimentación debe corroborar la teoría y la teoría debe predecir perfectamente la teoría.

-

Cada vez que evoluciona la ciencia, la forma en la cual se describe debe evolucionar a un velocidad similar, generando así nuevos operadores matemáticos.

3. BIBLIOGRAFÍA [1] EWERT J., GARCÍA M. “Introducción a la física moderna”. 3ra. edición. 2003. Unilibros. [2] SERWAY R. A. “Física”. 1985. [3] http://upload.wikipedia.org/wikipedia/commons/7/77/Photoelectric_ effect.png [4] bandaprohibida.blogspot.com/2007/04/la-ecuacion-deschrdinger-en-accin.html [5] “Explicación de la Mecánica Cuántica”. Disponible en: http://www.youtube.com/watch?v=sJp_nWU_xzk&feature=PlayList&p =C544E98585E1E9C6&index=0

Autor: Higuera Camargo, Christian Camilo Código: 261399 Grupo: 7 Número de lista: 12 Profesión: Ingeniero Electrónico E-mail: [email protected] Cargo: Escritor

Fig. 2 Función de onda para los cinco primeros niveles de energía en un cajón de potencial unidimensional. 2. CONCLUSIONES -

El romper los paradigmas establecidos, tener una visión diferente del comportamiento del universo ha generado cambios trascendentales en la física que conocemos.

20

DIFRACCIÓN DE RAYOS X X RAY DIFRACTION En este documento se realiza una revisión de una técnica de caracterización de materiales más conocida como difracción de rayos X teniendo en cuenta elementos fundamentales de la misma como lo son principios físicos, funcionamiento, equipos, componentes que conforman el equipo, como analizar la información cuantitativa y cualitativamente y se ilustran algunos ejemplos de la caracterización y se realizan algunas conclusiones. PALABRAS CLAVES: difracción, cristales, rayos X, longitud de onda.

I. INTRODUCCIÓN: Los rayos X son ondas del espectro electromagnético que fueron descubiertos en 1895 por William Röntgen, quien estudiaba los fenómenos observados por Crookes en tubos al vació. Observo que se producían unos rayos que tenían una gran penetración pero eran invisibles. Más tarde se descubrió que se originaban por la desaceleración brusca de electrones, y que servían para dejar marcas en películas fotográficas, experimentando con esto, logro de forma accidental sacar la primera radiografía, de la mano de su esposa. Es en el año de 1912 cuando Max von Laue trabajaba en la universidad de Munich junto con Röntgen, y examinaba la tesis de Paul Ewald, quien modeló un cristal como celdas periódicas de átomos con un espaciamiento de orden de 1 Armstrong: “Esta idea hizo concebir a Laue la hipótesis de que la pequeña distancia entre estos planos atómicos podría ser de un orden de magnitud similar a la hasta entonces desconocida longitud de onda de los rayos X, con lo cual un cristal podría provocar interferencias en los rayos X y dar así lugar a un espectro de difracción”[4] Las técnicas de difracción de películas y para polvo de cristales se desarrollaron en dos países a la vez de manera independiente entre 1915 y 1917 por Peter Debye y Paul Cherrer en Alemania y Albert Hull en Estados Unidos. Los difractómetros de polvo aparecieron en la década de los 40´s junto con nuevos y modernos equipos el mayor desarrollo en esta época en este campo se le atribuye a William Parrish. Los difractómetros de cristales sencillos aparecieron a mediados de 1950 bajo la batuta de Thomas Furnas y David Harker. La difracción de rayos X es una técnica de análisis de materiales, muy versátil que permite realizar estudios de los sólidos cristalinos en general, teniendo en cuenta las fases presentes y las propiedades típicas de estas, tales como estado, tamaño de grano, composición y defectos estructurales. Además sirve para conocer la estructura cristalina del material. La difracción de rayos X se puede hacer en cerámicos, metales, materiales eléctricos y polímeros. La difracción de rayos X se clasifica en dos grandes grupos:

Difracción en cristales: su objetivo principal es hallar, estudiar y entender la estructura molecular de nuevos materiales. Polvo: identificación de fases con el fin de conocer las posibles aplicaciones teniendo en cuenta como varia con la temperatura su textura y además para poder realizar a su vez un análisis de tensión. II. PRINCIPIOS FÍSICOS: En general la difracción de rayos X se lleva a cabo con un arreglo como el que se ilustra en la figura 1. Un rayo incide en una muestra que lo refracta en dirección a un detector que colecta el rayo.

Figura 1. Arreglo básico para realizar una XRD [5] La intensidad de la difracción de los rayos X es una función del ángulo 2θ, el cual esta formado por el rayo incidente y el rayo difractado por la muestra. Las longitudes de onda de los rayos X oscilan entre 0.7 y 2 Armstrong cuya energía igualmente varia de 6 a 17 keV. La estructura cristalina es básicamente un arreglo de átomos ordenado que se puede ver como una serie de planos o capas con una distancia de separación d. Estos planos se definen mediante los índices de Miller. Teniendo en cuenta estos últimos se puede hallar la distancia interplanar que está dada por la ecuación:

d

a h2  k 2  l 2

(1)

Donde a es el parámetro de red.

21 Cuando un haz de de rayos X incide en un material sólido parte de este haz se dispersa en todas las direcciones a causa de los electrones de los átomos que se encuentran en el trayecto, pero el resto del haz da origen a la difracción de rayos X. Esta solo se presenta si existe una disposición ordenada de átomos y se genera una interferencia constructiva que sólo se da cuando se cumple las condiciones descritas por la ley de Bragg:

n  2dsen . (2) Donde n es el orden de difracción ( n {1,2,3,...} ), λ s la longitud de onda. Si no se cumple esta ley entonces la interferencia es de naturaleza no constructiva y la fracción del haz difractado es de nula o muy baja intensidad. La ley de Bragg se ilustra en la figura 2

La radiación que generalmente se usa en un procedimiento XRD contiene varias longitudes de onda denominadas por lo general como Kα1, Kα2, Kβ las cuales caracterizan al material, una longitud de onda menor penetra con mayor facilidad y tiene más energía, por otro lado una longitud de onda mayor sirve en ocasiones para separar los picos en los factores de difracción, en caso de que haya problemas con la corteza del material o en caso de alta tensión en la muestra de material. La selección de la radiación en si depende de las características de la muestra. En la tabla 1 se muestran valores usados de manera general de las longitudes de onda.

Tabla 1 (longitudes de ondas de rayos X en Armstrong para algunos materiales) [1] Tecnología Figura 2. Ilustración de la ley de Bragg. [5]

Cuando se presenta interferencia constructiva y el rayo incidente es difractado por los planos atómicos y se observa entonces un pico de difracción en los resultados en consecuencia el detector se debe ubicar a un ángulo de 2θ y la muestra se ubica de tal manera que el ángulo entre el plano de onda incidente y el de la muestra sea θ, conocido como ángulo de Bragg. Cada material sea en polvo o película difractara los rayos X de determinada manera, con un patrón de difracción diferente y particular. Estas muestras son por lo general de un material intermedio, entre cristales sencillos y polvos con una textura de fibra, en esta última todos los planos son paralelos a la superficie del substrato, que es elemento que ayuda a la difracción de rayos X haciendo las veces de una película sobre la muestra, aunque su distribución atómica se da de manera aleatoria. En resumen la orientación de los cristales en la muestra varía dependiendo de la textura, tendiendo siempre a buscar la mejor orientación. El grado de esta orientación no solo influencia las características de la muestra sino que tiene consecuencias en las mediciones y la posible identificación de las fases en caso de que la muestra posea varias. Debe tenerse en cuenta que para cada cristal o película delgada que se esté analizando existe una familia de planos de índices (h, k, l) la cual satisface las condiciones de difracción.

El equipo usado para la XRD consta de un goniómetro, que es donde se soporta el detector, que recoge los datos, que provienen de la difracción que la muestra la cual se halla en un soporte. Tiene un generador de rayos X que puede ser estático o móvil. Asimismo se necesita un computador con software necesario para procesar la información que el colector recibe, al ser este un procedimiento que usa ondas electromagnéticas se usan también monocromadores y colimadores para obtener mayor precisión en la información. Detectores Los más comunes son los detectores de punto estos colectan la intensidad difractada de un ángulo a la vez, y se mueven por el rango de ángulos que se quiere medir, de estos hay 2 clases de centelleo y de estado sólido. Los de estado sólido presentan una ventaja de velocidad de 3 a 4 veces en comparación con el de centelleo. Otro tipo son los detectores lineares sensibles a la posición (PSD‟s) utilizan un cable fino para reunir intensidad sobre un rango angular simultáneo como se ilustra en al figura 3 ofreciendo ventajas de velocidad hasta de 100 veces a las de un detector de punto. Estos detectores pueden estar fijados sobre un rango de 5 a 10° 2θ o escaneadas como un detector de punto sobre un rango superior.

22 Los detectores de centelleo manejan de 10⁵ a 10⁷ cuentas por segundo. Detectores de estado sólido manejan de 25,000 a 50,000 cps mientras que PSD‟s lineares manejan 10,000 cps. Detectores multicableados de área son PSD‟s bidimensionales que proveen en tiempo real la información bidimensional. Pueden reunir figuras en minutos en lugar de las horas o días requeridos con detectores de centelleo. Los CCD detectores de área son la más reciente innovación en tecnología de área detectores para examinar pequeñas moléculas. Datos de alta calidad pueden ser obtenidos con fuentes de tubos sellados o con ánodos rotacionales en 2 a 6 horas. Algunas de sus aplicaciones incluyen estudios de densidad de electrones y transiciones de fase. Este detector ofrece lectura y display de datos en un tiempo cercano al real, menos de 2 segundos, alta resolución espacial y alta eficiencia de conteo de fotones.

En la figura 4b se muestra una geometría Seeman Bohlin, la muestra también se pone sobre la circunferencia focal, i recibe el rayo incidente a un cerito ángulo que está entre 5 y 10 grados, el detector, gira sobre la circunferencia recogiendo información. Este método es más sensible ya que usa un fenómeno llamado para-concentración, en el que al estar los tres elementos sobre la circunferencia focal la mayoría de los rayos difractados se concentran en el detector.

Figura 4 difractómetros (a) Bragg-Brentamo (b) SeemanBohlin [2]

Información analítica En lo que concierne a la XRD la información analítica para obtener una buena información tanto cualitativa como cuantitativa, es de gran importancia tener cuidado en la preparación de la muestra, para tratar de minimizar las aberraciones en los datos obtenidos. Figura 3. Representación de un PSD [2].

.Difractometros De manera general en la practica de XRD para láminas policristalinas con orientación preferente y aleatoria se usa la geometría Bragg-Brentamo que es mostrada en la figura 4a. La fuente e sitúa a un lado del circulo y se le ponen rejillas colimadoras para obtener un haz más directo, hacia la muestra que esta rotando, el detector también se sitúa sobre la circunferencia y rota al doble de la velocidad que la muestra, así dada la ley de Bragg solo se obtendrá información acerca de los planos (hkl) paralelos a la superficie de la muestra.

La mejor forma para obtener datos más acertados, es usar las muestras lo más delgadas posibles, además de estar bien adherida al porta-muestras, y tener la superficie cuan regular como sea posible. Para efectos de obtención de información cuantitativa se deben eliminar los efectos indeseables que pueda dar el porta-muestras, y para eso se han creado portadores mono cristalinos llamados de fondo cero. La información cualitativa que se toma es estadística por tanto a más datos tomados, se tiene información más confiable, por esto para cuestiones de tiempo se hacen más útiles los PSD. Dicha información se toma para hacer comparaciones con datos ya tabulados, de la información que se requiera. En el campo cuantitativo el análisis se refiere a la relación entre la intensidad difractada por cierta fase y la

23 concentración de la misma. Cuando se trata de una muestra con una sola fase para calcular la intensidad de forma correcta se deben tener en cuenta factores como: temperatura, polarización, absorción, configuración del equipo entre otros.

aproximadamente iguales de Tl2CaBa2Cu2Ox y Tl2O2Ba2Cu3Oy, ya que puede ser reproducido por una combinación aproximadamente igual de los patrones de la 6a y 6c.

Cuando la muestra contiene varias fases la intensidad de una de ellas en cierta línea de intensidad se calcula de acuerdo a la ecuación (4), donde Kia es una constante dada para cada estructura cristalina y configuración del equipo X es la fracción de la fase que se busca, (µ/ρ)m es el coeficiente de absorción de masa de toda la mezcla. Para tener resultados más acertados es mejo utilizar la intensidad integrada, es decir el área del pico en vez de su altura, para hacer esto se usan técnicas de acercamiento de curvas como el acomodamiento de perfil.

I i 

K i X   (  /  ) m

(4)

Ejemplos : La figura 5 muestra la transición del nitrato de potasio de fase ortorrómbica a romboédrica, los datos de tomaron de 100 a 150 C, con escala de 1 C, como se ve el pico de la transformación se da cerca a los 130 C, pero los toros que aparecen son debidos a que al calentarse al muestra los enlaces del material se expanden. Este experimento fue hecho con un PSD linear de 20 a 35º de rango 2Θ, y llevo 3,5 horas hacerlo, haber realizado el mismo procedimiento con un detector puntual hubiera llevado 64 horas de trabajo.

Figura 6 patrones superconductoras [2]

de

difracción

de

películas

Tendencias:

Figura 5 transición de KNO3 [1] La figura 6 muestra un ejemplo donde XRD es usado para identificar las fases en tres muestras Tc de alta superconducción. Ya que las películas tienen la textura de fibra casi completa, la identificación era simple y fue hecha por la comparación al modelo de difracción de materiales de bulto. Además, debido a la comparación con tablas, la presencia de una pequeña cantidad de CuO es evidente en una película. También se concluye que la película de la figura 6b consiste en las mezclas

El futuro verá más empleo de GIXD, Difracción por rayo razante, y medidas de dependiente de profundidad, ya que estos proporcionan la información importante y pueden ser realizados sobre el equipo a base de laboratorio (más bien que requerir la radiación synchrotron). La posición detectores sensibles seguirá sustituyendo mostradores y la película fotográfica. Materiales de capa múltiple se harán más importantes en el futuro, y por lo tanto, su caracterización estructural que usa XRD crecerá en importancia. El empleo de radiación synchrotron como un instrumento analítico para la caracterización de película delgada también aumentará. Las características únicas de esta radiación permiten a experimentos anteriormente difíciles a base de laboratorio ser hechas de manera simple y algunos experimentos que son de otra manera son imposibles Conclusiones XRD es un método excelente, no destructivo para identificar fases y caracterizar las propiedades estructurales de películas delgadas y multicapas. Es barato y fácil para poner en práctica tiene múltiples

24 aplicaciones, y un gran campo de acción desde la geología hasta la industria arreo-espacial y de superconductores. Una pregunta que se genera después de haber hecho una mirada general al XRD, s si no se pueden hacer estudios similares a esto de las estructuras atómicas mas pequeñas haciendo uso de rayos con menor longitud de onda que concuerden con las distancias que estas tengan.

III. BIBLIOGRAFÍA: • • • • •

[1]FORMICA Joseph, X-Ray Diffraction, Handbook of instrumental Techniques for Analytical chemistry Prentice Hall PTR, 1997 [2]TONEY Michael XRD en Encyclopedia of Materials Characterization: Surfaces, Interfaces, Thin Films Butterworth-Heinemann, 1992 [3]ASENSIO Isidoro, Difracción de Rayos X, Aguilar, Madrid 1955. [4] Beltrán X Determinación de estructuras cristalinas, Universitat de Barcelona 2005 [5]http://www.xos.com/index.php?page_id=75& m=2&sm=4

Autor: Salamanca, Rodrigo Código: 200627 Grupo: 8 Número de lista: 37 Estudiante Ing. Industrial Quinto semestre. Universidad Nacional de Colombia, Sede Bogotá. E-mail: [email protected]

25

LA VIDA DE LAS ESTRELLAS Al observar el firmamento en un área suficientemente despejada y lejos de fuentes luminosas podemos apreciar la gran variedad y cantidad de estos puntos que simplemente llamamos estrellas. A lo largo de la historia, estos han sido agrupados en lo que conocemos como constelaciones, compuestas por estrellas suficientemente cercanas que parecen formar figuras cuya forma ha sido interpretada de maneras distintas por cada sociedad, sin embargo, en el transcurrir de la historia contemporánea, especialmente en el último siglo, gracias al avance de las teorías físicas y de los instrumentos de observación del espacio, la ciencia ha logrado acercarse bastante a la naturaleza física de estos puntos brillantes en el firmamento. Los diferentes estados en el ciclo de vida de una estrella. Fuente: Hubble Space Telescope Para comenzar, hay que considerar que no todos los punto brillantes del firmamento son propiamente El ciclo de vida de una estrella es en general, el resultado estrellas, al observarse mejor utilizando telescopios, de la interacción de fuerzas nucleares, magnéticas, algunos de estos puntos de transforman en agrupaciones gravitacionales y rotacionales. En un principio, se de estrellas o en nubes de gas brillante, llamadas considera que existe una gran nube de gas compuesto de nebulosas. Igualmente, estos puntos no son estáticos Hidrógeno y Helio molecular, estas moléculas al tener como a primera vista parecen, gracias a las masa están sujetas a una atracción gravitacional que hace observaciones inicialmente de Huggins y más que la nube de gas se condense, sin embargo, esta no se recientemente de Edwin Hubble, se ha comprobado que condensa de manera instantánea debido al movimiento las estrellas se alejan de nosotros, lo que de manera rotacional de la nube que aporta una fuerza rotacional general se conoce como la expansión del universo. La que se opone a la atracción. Pero la condensación se da y expansión del universo sirvió como soporte para la a medida que ocurre fracciona la original nube en varias aceptación casi general de la conocida teoría del big nubes separadas llamadas protoestrellas, las cuales bang, que nos plantea una gran explosión que arrojó al adquieren energía en forma de calor gracias a la espacio vacío una gran cantidad de materia que a través contracción, este calor hace que las protoestrellas se de los miles de millones de años de “vida” del universo separen entre sí; a partir de entonces, la protoestrella ha interactuado entre sí produciendo la variedad de sufre un colapso, que es una contracción rápida, el cual materia que existe. Esta visión dinámica del universo aporta la energía suficiente para que inicialmente las constituyó un rompimiento del paradigma del universo moléculas se separen en su forma atómica, pero este estático e invariable, cambio que posteriormente se colapso no termina allí, ya que la división extendió a las galaxias y de paso, a las estrellas, la cuales molecular genera tanta energía en forma de calor que lejos dejaron de ser consideradas cuerpos eternamente lleva a los átomos de Hidrógeno a dividirse en protones y brillantes para convertirse en cuerpos con un ciclo de electrones, y a su vez, la ionización del Hidrógeno aporta transformaciones análogo al ciclo de vida de una animal la energía suficiente para que los átomos de Helio se o planta terrestre. ionicen. El resultado final de este colapso en una nube iónica conocida como Plasma, el cual conserva una temperatura suficiente para dar origen a los núcleos de Nacimiento y Desarrollo las futuras estrellas, sin embargo, en esta parte hay más masa que la inicial debido a un proceso paralelo de incorporación de materia circundante llamado acreción.

Modelo general de una protoestrella. Fuente: Department of Physics, Hong Kong Space Museum.

26 Una vez creado en núcleo de plasma, comienza el ciclo de vida de la estrella propiamente dicho, ya que a partir de entonces se dan las reacciones nucleares características de las estrellas. En el núcleo de plasma compuesto en su gran mayoría de las partículas subatómicas, las partículas se encuentran en un movimiento constante que hace que colisionen entre sí. Estas colisiones en el caso de los protones originan el fenómeno conocido como fusión nuclear, al colisionar dos protones se crea deuterio (isótopo pesado del hidrógeno), el cual al colisionar con otro protón genera un núcleo de isótopo ligero de Helio, finalmente, se produce un núcleo de helio a partir de cuatro protones, pero esto supone una pérdida de masa, lo que implica una generación de energía en forma de radiación, aceleración o partículas subatómicas (Meadows, 1987). Este proceso de fusión nuclear se sigue dando a lo largo de la vida de la estrella, ya que a partir del helio también es posible fusionar núcleos para generar otros como carbono, y a su vez estos dos pueden generar oxígeno, el cual puede fusionarse con el helio y generar neón, y así sucesivamente se pueden seguir dando reacciones de fusión, sin embargo, como era de esperarse este proceso no es infinito, ya que no puede existir una fuente de energía infinita, lo que ocurre es que a medida que la fusión genera núcleos más pesados la energía excedente es menor, hasta que en cierto punto, en lugar de generar energía, el proceso de fusión requiere la incorporación de energía. Una vez que todos los núcleos se han fusionado hasta generar hierro, el proceso requiere la incorporación de energía para continuar; es en este punto en el que empieza el “envejecimiento” de la estrella. Sin embargo, antes de pasar a la muerte de la estrella, es importante destacar la energía emitida durante la fusión nuclear, en el caso del Sol, constituye la fuente más valiosa de energía para la vida en la tierra. La emisión de radiación tiene lugar en el centro de la estrella, esta originalmente se encuentra dentro del espectro electromagnético dentro de la región de los rayos X de alta frecuencia, pero debido a que durante su camino al exterior la radiación es perturbada por las partículas en movimiento, al alcanzar el exterior de la estrella la radiación a perdido tal cantidad de energía que ha caído en la región de la luz visible. Es esta la forma en la que obtenemos la luz del Sol cada día.

2

3

Fusión del núcleo de deuterio H y de helio H. Fuente: ISon21.es Vejez y Muerte Una vez que la estrella ha consumido todas sus fuentes de fusión en el núcleo, inevitablemente sufrirá un proceso en cierta forma inverso al que le dio origen y finalmente morirá. Sin embargo, el destino final depende de la cantidad de masa que haya acumulado durante su existencia, aunque existen sólo tres opciones para la posteridad de una estrella: enana blanca, estrella de neutrones o agujero negro. El criterio utilizado para determinar el destino final a partir de la masa es el límite de Chandrasekhar, el cual tiene un valor de 1.44 veces la masa del sol. Cuando una estrella que ha agotado su energía tiene una masa por debajo del límite de Chandrasekhar, tendrá un final de enana blanca. Inicialmente su núcleo pesado colapsará muy rápidamente (en unos pocos años) lo que elevará su temperatura a tal punto que los núcleos pesados chocarán entre sí y como resultado se desintegrarán en neutrones o núcleos de helio, y una vez alcanzado este punto el colapso será compensado por la repulsión producto del principio de exclusión de Pauli. Es aquí donde nace la enana blanca propiamente dicha, la cual es estable y altamente densa, y en consecuencia, comenzará a perder irreversiblemente su calor hasta llegar cerca al cero absoluto, entonces se denominan enanas negras, aunque este proceso de enfriamiento puede llegar a ser muy largo es términos de la vida de la galaxia. Si la masa de la estrella esta por encima del límite de Chandrasekhar, es posible que al agotar las fuentes de fusión y alcanzar el estado de reducción a enana blanca, la cantidad de materia sea tan alta que la atracción gravitacional terminará venciendo a la presión producto del principio de exclusión, entonces la estrella sufrirá una repentina implosión que acercará los electrones y los protones lo suficiente que se creará una explosión conocida como supernova, de la cual resultará, si la masa no es muy grande, una estrella estable compuesta de neutrones llamada precisamente estrella de neutrones (Nuñez, 2007). Estas se mantienen estables igualmente gracias al principio de Exclusión de Pauli aplicado a los neutrones, y son tan densas que su período de rotación se reduce a unas centésimas de segundo, por lo que también son conocidas como Púlsares, inclusive algunas llegan a tener periodos de rotación del orden de los milisegundos, aun cuando su radio sea del orden de los kilómetros. Finalmente, surge la inquietud de que pasaría si después de la supernova, quedara una estrella de electrones tan masiva que nuevamente venciera la repulsión de Pauli, en este caso, la estrella colapsaría sin límite alguno deformando el espacio-tiempo a tal punto que ni siquiera la luz puede escapar de su campo gravitatorio, entonces se habla de un agujero negro. Como consecuencia de esta perturbación infinita, no es posible saber con certeza que

27 es lo que ocurre dentro del agujero negro, aunque en cuanto a su existencia sí es posible comprobarla, ya que si un objeto cayera dentro de un agujero negro, en teoría, se comprimiría tanto que emitiría rayos X, por lo que un emisor de rayos X invisible en el espacio en un fuerte candidato a agujero negro.

REFERENCIAS BIBLIOGRÁFICAS DEAZA RINCON, Pedro. “El nacimiento de una galaxia”. En Innovación y Ciencia. Bogotá, Vol. 12, No. 4. 2005 MEADOWS, Jack. Evolución Estelar. Barcelona: Reverté. 1987.

MERCHÁN, Jorge. Entendiendo el Universo. Bogotá: Alianza Group. 2004. NUÑEZ, Paul. “Las estrellas de neutrones: Trompos cósmicos”. En Innovación y Ciencia. Bogotá. Vol. 14 No. 4. 200

Autor: Fique Ramírez, Juan Diego Código: 261388 Universidad Nacional de Colombia, Sede Bogotá. E-mail: [email protected]

Izquierda, Explosión de una supernova. Derecha, Remanente de una Supernova. Fuente: NASA

Related Documents