sábado, 7 de enero de 2012

Problemáticas de la Enseñanza Media (Anahí Flam.)

Problemáticas de la Enseñanza en el Nivel Medio

Alumna: Anahí Flammini

INTRODUCCIÓN:

La violencia imperante en los tiempos que corren parece no tener antecedentes. La escuela, además de no poder restablecer valores de tolerancia, respeto y demás, parece ser, para la sociedad, un espacio que no enseña y que hasta contiene a los ‘delincuentes’ (si es del estado) o que ‘no presta el servicio’ para el cual los padres pagan (si es privada). La sociedad habla de la escuela como si fuera una empleada de sus intereses a la que basta con subvencionar con los impuestos o con una cuota para que funcione. Los docentes hablan de ella como si fuera una cosa dada y no se pudiera dentro de ella ‘cultivar’ nada, menos enseñar. Los directivos corren detrás de los baches porque lo más apremiante desde sus funciones y responsabilidades es no desbordar de problemas, o, al menos, que no trasciendan, porque, con toda razón, sienten que ahí sí tendrán a todos los inspectores y autoridades encima de la escuela, recién entonces prestándoles atención. Los alumnos no saben para qué van allí todos los días; ¿estudiar?, ¿para qué? La primaria y la secundaria son dos instituciones distintas y comprender esto y tenerlo en cuenta será, recién, un primer eslabón de la Cadena de favores que precisa la escuela para ser un espacio en el que la violencia sea la sombra de un pasado en el que la palabra no pudo ser dicha, ex-presada. La a-dicción podría entenderse como lo que no puede decirse. La violencia explota cuando esta posibilidad de expresión, de desarrollo del lenguaje del ser humano, se ve como impotencia cuando no se sabe cómo usarlo, y entonces el cuerpo y la agresión se ponen a la vanguardia de la expresión de cada una de las partes de la institución.


Si los actores que conforman la institución se sienten ajenos a ella a la hora de la reflexión sobre las responsabilidades que tenemos cada uno (ineludiblemente, porque ya tan sólo como ciudadanos tenemos parte de ingerencia en las Políticas y Sistemas Educativos, seamos o no conscientes de esto), es entendible, y casi obvio, que la escuela sea hoy por hoy sólo una guardería o un ‘garage’ para niños y adolescentes (que, por otro lado, bien distintos son).

Las instituciones sí están atravesando una crisis sin precedentes, porque están perdiendo sentido, y el vacío de sentido es la antítesis de la institución, ya que de ese modo pierde su capacidad de instituir, siendo ésta, cosa obvia, su función primordial. Pero no tienen vida autónoma, somos responsables, y es un tema complejo, pues hay muchas variables (económicas, sociales, culturales, políticas, discursivas, psicológicas, etc.) que provocan los estados en los que nos encontramos, y si no analizamos asumiendo este nivel de complejidad, creo que no arribaremos nunca a una visión coherente para planificar una acción concreta que pueda (porque se puede) devolver el sentido ‘para todos’, de la escuela ‘para todos’. La masificación en el plano educativo implica un principio positivo que es la democratización de la educación, pero es un principio que puede generar conflictos en su organización.

Me interesa, entonces, en este trabajo, plantear algunos interrogantes y algunas posibles respuestas que nos permitan volver a confiar en la práctica docente, al revertir la mirada hacia nosotros mismos y nuestros automatismos (discursos que no nos son propios, pero que asimilamos y proyectamos ‘ingenuamente’); permitirnos, como sociedad, volver a confiar en la socialización entre pares; también me convoca la toma de compromiso por parte de todos, o sea, volver la crítica hacia uno mismo, y, hacia afuera, la observación y la comprensión (nunca ingenuas) de los fenómenos, pero eliminando la queja como anestesia de la acción para el cambio. Quisiera, en definitiva, que nos preguntemos por las causas profundas que generaron y generan esta crisis, y que nos preguntemos, también y seriamente, por las acciones que podemos llevar a cabo para mejorar el estado de situación y hacer, del escenario que ‘nos toque’, un lugar siempre propicio y nunca despreciable, sin permitirnos tirar la pelota afuera en ninguna respuesta ‘como única regla del juego’.

Este informe integrador, que pretende, además, aportar una visión, como futura docente, dentro de esta reflexión conjunta que se merece el sistema educativo, se hará a partir de los textos trabajados en clase y el informe “Articulación entre nivel Primario y Nivel Medio” del cual se desprenden opiniones y discursos concretos sobre los comportamientos y opiniones de los actores escolares propiamente dichos.

DESARROLLO:

Analizaremos, en primera instancia, las respuestas dadas por docentes en relación al comportamiento social y cognitivo de los alumnos, y las premisas que consideran prioritarias en un Proyecto de Articulación entra la Enseñanza Primaria y la Secundaria.

Recogemos algunas opiniones paradigmáticas en relación a la visión que tienen los docentes respecto del comportamiento de los alumnos: “Deambulan por los pasillos en las horas libres, suelen gritar y golpear los bancos”, “Piden salir [del aula] constantemente”, “Conversan constantemente”, “Hay escaso compromiso con las tareas del hogar”, “Falta de respeto a los símbolos patrios”, “Desconocimiento de la organización”.

Tomo, inicialmente, las opiniones de los docentes, pero para ponerlas en relación con las opiniones de los alumnos, porque me parece sumamente interesante cómo se chocan sin darse cuenta.

Duschatzky y Corea sostienen que “la eficacia simbólica de un discurso se mide en su potencia de producir subjetividad, es decir, en su capacidad de construir a un sujeto alrededor de un conjunto de normas y valores que son los que rigen la vida social”[1]. Ahora bien, de acuerdo a este universo conceptual muy pertinente tendríamos que comprender, como docentes, como ‘enseñantes’, que el conflicto está no en el comportamiento del alumnado, no en los alumnos, sino en la crisis de la mentada, marmórea y pasada eficacia simbólica. No podemos pedir que los jóvenes se manejen con valores que no conocen, que no les son propios, que no son ya ni propios para la sociedad en general, porque el paradigma socio-cultural-económico ha cambiado y con él, indefectiblemente, el universo simbólico. Se mezclan aquí varios puntos, que es interesante verlos en conjunto, porque las variables de análisis se nos presentan enredadas por su propia naturaleza: sucede que los comportamientos que mencionan los docentes, no son, por supuesto, falsos, ni desestimables, sino que son un reflejo que no debe encandilarnos ni para bien ni para mal, y que debemos considerar y replantearnos:

A) Está en juego, dentro de estos ‘malos’ comportamientos, la caída de un paradigma que mantuvo siempre las instituciones en pie: su eficacia simbólica, su poder instituyente, se sostenían en la interpelación y, entonces, en la credibilidad de la institución.

B) Bajo otro paradigma, en el que no existe casi ya el estado-nación-, la formación del ciudadano no es ya el objetivo primordial de la escuela, y, por lo tanto, comienza a perder sentido el respeto por los símbolos patrios, por el estado, por la nación, y cobran sentido, como mencionan los docentes, las identificaciones con marcas; pues ahora la escuela, si quiere responder a las exigencias de su empleadora (la sociedad), debe formar consumidores. Debemos hacernos cargo de nuestro carácter funcional al sistema que nos creó como institución. El espacio de la construcción del futuro ‘buen ciudadano’, un sujeto, ve cambiar su objetivo existencial rumbo a la formación de un ‘individuo’ y de esto deviene…

C)…el Discurso neoliberal. No propio. Hay que tener mucho cuidado, por otro lado, con el lenguaje y su utilización, pues podemos provocar ‘profecías autocumplidas’; cuando decimos que los alumnos no escuchan, no entienden, son delincuentes, no tienen futuro, etc., no sólo no estamos hablando objetivamente, sino que además estamos generando subjetividades y estigmatizando a esos jóvenes, que puede que se salvaran de algo en el colegio si la confianza en ellos no es un imposible y si las utopías vuelven a respirarse en las aulas y en los patios. Podemos proponer, como dice Míguez, un espacio donde los códigos sean otros, pero invitándolos a los alumnos a habitarlos y no expulsándolos por no saber a priori habitarlos. Dijimos, en trabajos anteriores, que ante el nuevo escenario social de disolución estatal, el vínculo escuela-familia se fisura.  Nos encontramos con nuevos sujetos, que ya no son respetuosos, estudiosos, disciplinados, ni receptores de la experiencia de las generaciones anteriores. Es cierto que no debemos dejar de considerarlo; pero para entenderlo y actuar de un modo integrador, y no expulsivo, como nos reafirma Carina Kaplan.

D) Diferentes culturas que no son tenidas en cuenta por ese afán costumbrista de conservar, de no observar de nuevo. O si lo hacemos, no reflexionamos sobre si estamos utilizando un discurso alienado de ‘cambio’, ‘flexibilidad’, ‘éxito’, ‘fracaso’, como significantes inocuos en tanto no hacen más que ser funcionales no sabemos siquiera bien a quiénes y para qué (los alumnos, como tales, en la escuela tienen este mismo sentimiento por la pérdida de sentido que atraviesa la misma hoy; pero esta alienación por parte nuestra, como adultos, es más mesiánica, porque no somos inocentes ni inimputables ante la adopción de uno u otro discurso). Por otro lado, nos dice Míguez, “en el ámbito escolar el desánimo sucede porque la escuela es vista como un lugar ajeno en el que no se pueden desarrollar los propios intereses y donde también se experimenta una sensación de fracaso y estigmatización”. Todo lo que sucede en la familia, en la sociedad, no puede desaparecer, dejar de inmiscuirse en la escuela. Debemos aprender, como docentes, a darle el cauce que conduzca al desarrollo de sus capacidades y pasiones y no excluirlos por sus ‘diferencias’ o nuestras ignorancias sobre las nuevas culturas y los conflictos sociales, que juegan también en cada persona (tenga la edad que tenga, pero más aún en los jóvenes recién salidos de la escuela primaria).

E) Tenti Fanfani analiza magistralmente los cambios estructurales (masificación y morfología social) y su relación con las pérdidas de sentido para los alumnos. En parte, como se desprende del punto anterior, porque no se respetan las identidades y culturas adolescentes actuales y, en parte, porque no se analizan como factores influyentes estos cambios estructurales a la hora de exigir a los alumnos de media un comportamiento que no tiene base experiencial, socialmente hablando, para ese mismo segmento de la sociedad. Por ejemplo, los mentados ‘compromiso’ y ‘sacrificio’: debemos comprender que están ligados al futuro y esta palabra tiene una representación cortoplacista para nuestras generaciones de estudiantes (“el futuro ya llegó”, aclaman Los Redonditos de Ricota). El compromiso se construye, no es un dispositivo natural (es socio-cultural, y hasta diría, económico). Pero si los hogares están vapuleados como tales, los padres, con roles parentales alterados por estas mismas situaciones, no tuvieron perspectivas de encontrar un trabajo que les permitiera proyectar y por otro lado no tenerlo significa, según analiza Carina Kaplan parafraseando a Bordieau, dentro de la exaltación conservadora de la responsabilidad individual “a achacar la desocupación o el fracaso económico al ‘individuo’ y no al orden social”. Por otro lado, algunos docentes mencionan el “escaso compromiso con el patrimonio institucional”, que viene a surgir no de la nada sino cuando se tiene consciencia por experiencia de qué es, cómo se consigue y qué significa el patrimonio de cualquier institución, y esa consciencia deviene si uno tiene, como sujeto, experiencia institucional de este tipo (porque quien más quien menos todos pertenecemos a una institución familiar antes de ingresar en la sociabilización de segundo grado que es la escuela) y sentimos compromiso con él según el grado de pertenencia a la misma y del desarrollo de una identidad que nos permita sentir incluidos en una sociedad con un patrimonio que será cuidado y valorado, entonces sí más allá de mi propiedad individual, porque lograré sentirme en parte responsable y valioso dentro de la institución. Los valores y la moral son preformativos. No surgen de mandatos inocuos, menos si la realidad me refleja que esos valores están desacreditados.

F) La autoridad pedagógica, ante todo este complejísimo panorama, no puede estar en pie per se como para generaciones pasadas, pero no debe percibirse como algo negativo, pues esto también implica que ya no estamos tan organizados a través de relaciones de verticalismos autoritarios, que imponían su autoridad por la fuerza y el abuso de poder y dejaban las capacidades sin valor. Es también cierto que se debe recuperar la confianza en el docente y que es necesario que el alumno no lo reconozca como un par porque de este modo quedaría quebrantado el pacto en el proceso de enseñanza-aprendizaje. Pero entiendo que las aguas se están moviendo y, si bien debemos hacer un esfuerzo para recuperar día a día la autoridad pedagógica, y reconozco que puede ser agotador, también puede convertirse en un motivo alentador saber que puede desembocar todo esto, por parte de todos, en una ‘nueva escuela’. Por supuesto que requiere muchísimo esfuerzo y más aún del compromiso de todos ante cada nueva reforma, ley, presupuesto, programación, reprogramación y requiere lograr, desde nuestro lugar, involucrar poco a poco, a toda la sociedad.

Aquí retomamos lo que dicen algunos estudiantes, y que está en estrecha relación con lo que dicen los profesores, pero parece que de espaldas unos a otros. Considero que los alumnos no tienen por qué conocer o descubrir, por ejemplo, cuál es la ‘organización institucional’, como cuestiona algún docente. De hecho no es que no les interese, ellos mismos en los informes sobre la Articulación entre los Niveles dicen: “deberían comentar más el tema de los apoyos y optativas, cantidad de materias, método de estudio y calificaciones, son cosas que no sabíamos y que hubiera sido bueno tener en cuenta”, “[que informen] qué pasa cuando nos llevamos una materia”, “información sobre las materias y un programa donde se diga qué se tomará”. Por supuesto que lo que más les cuesta es adaptarse a un nivel distinto en todo sentido en tanto organización (en el sentido más abarcativo del término). Pero es evidente que no es por falta de interés, el discurso lo refleja fielmente, sino porque son deseos de todas las partes que no tienen concreción y que una vez llegados, los alumnos ex-primarios, al secundario, todos se olvidan de las transiciones que garantizaban la adaptación y se pierden, esos deseos, en una nebulosa de confusión para el alumno (al cual nadie le explica las nuevas reglas del juego), y en una crítica constante por parte de los docentes que se olvidaron de que solos, estos ex-niños, no iban a comprender el nuevo (totalmente) funcionamiento. El conocimiento no se da por ósmosis, no se sabrá nunca lo que nunca se aprendió, y aprender no es sólo responsabilidad del aprendiz.

Pues bien, es reparador, abrir el abanico del pensamiento a variables que puedan mostrarnos diferentes tipos de actitudes (y accionares) ante estos escenarios que provocan escenas distintas según se adopte una u otra interacción con la realidad. Silvia Duschatzky y Cristina Corea nos plantean como existentes al menos tres accionares, progresivamente mejores, pero debemos encontrar otros propios y cada vez más productivos (en el sentido biológico e intelectual del término). Los menciono a continuación porque son testimonio conceptual de las categorías de acción existentes, y para mostrar como ante la misma realidad se pueden adoptar posiciones distintas y cuán, valga la redundancia, distinto es el efecto:

Desubjetivación: Posición de impotencia, sensación de no poder hacer nada diferente con lo que se presenta. (Como cuando mencionábamos lo de las profecías autocumplidas: Los alumnos son descriptos mediante atributos de imposibilidad “son rebeldes, tienen mal comportamiento”). Y con estas posturas nos acercamos al gran problema de la educación: que es “su impotencia enunciativa, que es igual a decir la desubjetivación de la tarea de enseñar”. Se cristaliza, de este modo, el estado de impotencia y nadie crece en esta escena.

Resistencia: “Si los niños y los jóvenes ya no son lo que eran, desde la perspectiva de la subjetivididad, esto se debe a que las condiciones institucionales que hicieron posible tales tipos subjetivos hoy han perdido eficacia. La posición docente de resistencia da cuenta de un modo de abroquelarse en representaciones que han perdido capacidad de nombrar las alteradas condiciones actuales de enunciación del alumno o del docente. (…) La resistencia es una negación a cambiar las preguntas y a dejarnos alterar por los signos de lo nuevo.” No se puede resistir un huracán, continúan las autoras, con la sola voluntad. Esta posición está impregnada de una idealización del pasado que provoca el distanciamiento más atroz entre las partes de este vínculo escuela-alumnos. Es como una madre que la única manera que encuentra de referirse a un hijo es hablándole maravillas de otro hijo, y oponiéndose a la singularidad de cada cual.


Invención: “El enemigo de la educación es la idea de lo definitivo, de la determinación, de la impotencia, de la irreversibilidad. (…) Sólo hay posición de transmisión si, confrontados a las apariencias de lo imposible, no se deja de ser un creador de posibilidades.[2] La educación es el intento de activar un lugar, una falla, un pliegue donde la posibilidad de subjetivación sea todavía ilegible.”

CONCLUSIÓN:
           
Hice hincapié en el análisis del discurso (propio, cotidiano, institucional, teórico) y sus dispositivos, por los reflejos que de la realidad nos regala el lenguaje y por las posibilidades que nos da incluso de construir la misma. También porque estoy convencida de que sí hay violencia en las escuelas (en la sociedad), y de dos tipos: física y simbólica; pero en ambas lo que está en juego es el lenguaje y todas sus posibilidades, o impotencias. Cuando se ignora a alguien, al no escucharlo, estando éste en pleno periodo de conversión, en un periodo liminar, entre la niñez y la adultez, entre la dependencia y la autodependencia, pero en una sociedad que no nos da herramientas para que lleguemos a sentirnos dependientes de nosotros mismos, sino sólo individuos (ni siquiera sujetos) que precisan del consumo para no ser excluidos. Por otra parte, considero que la escuela debe juntar las clases sociales, incluir, no excluir, y en esa inclusión no perder de vista que es esa una función no ajena al colegio: la de sociabilizar a los alumnos y que  ninguna institución se termine de transformar en una empresa que brinda servicios para un target determinado, sino todo lo contrario, pues la escuela debe no homogeneizar, pero sí aunar y juntar a las clases. Sino terminaremos teniendo reformatorios por un lado y countries por otros.

            Podría, la relación entre alumnos y docentes, emparentarse con un matrimonio que ya después de muchos años no se escucha y hasta pelea, pero en el fondo, en relación a muchos puntos, sus partes están diciendo lo mismo. La violencia es no escucharse, es no poder hablar, no poder expresarse (por eso es violento que sea tan poco el lugar del arte en las escuelas, ya que produce una canalización y un desarrollo de las capacidades de ‘los lenguajes’ inestimables). Propongo que ante cada situación, en cada escenario, leamos no sólo entre líneas, sino debajo de ellas, y que podamos hacernos una autocrítica que no nos lleve a castigarnos sino a abrir diferentes canales de acción y conexión con las ‘juventudes’ actuales y que confiemos más en ellos y en nosotros, y también en el vínculo escolar que se establece, para poder formar una sociedad mejor que no esté corriendo siempre tras las imposiciones de los poderes centrales y que nos permitamos crear nuevos paradigmas y un vocabulario enriquecido y propio, no alienado. Creo que como futura docente de letras tengo una gran responsabilidad pues la lengua y el desarrollo de las capacidades del lenguaje son una herramienta central para el proceso de proyección de vida, y considero que para eso tiene que servir la escuela: para poder dar herramientas a los jóvenes para que puedan ELEGIR su proyecto de vida. Pero creo también que es muy importante que esta responsabilidad sea un proyecto compartido por todas las áreas de enseñanza, que tengamos una educación integradora que pueda paliar la desfragmentación propia de esta era individualista y despedazada.

BIBLIOGRAFÍA

- Duschatzky, Silvia y Corea, Cristina, Chicos en banda, Paidós, Buenos Aires, 2000.
- Girolimini, Mirna, Articulación entre el Nivel Primario y Nivel Medio. Evaluación diagnóstica 2008.
- Krischesky (comp.), “Subjetividad y educación”, Carina Kaplan en Adolescentes e inclusión educativa. Un derecho en cuestión, Noveduc, Bs. As., 2005.
- Margulis, Mario y Urresti, Marcelo, La juventud es más que una palabra.
- Míguez, Daniel, Los pibes chorros, Claves para todos, Bs. As., 2004.
- Tenti Fanfani, Emilio, Sem. “Escola Jovem: un novo olhar sobre o ensino medio”, Brasilia, junio 7-9 de 2000.





[1] Duschatzky, Silvia y Corea, Cristina, Chicos en banda, Paidós, Buenos Aires, 2000.
[2] El subrayado es mío.



martes, 3 de enero de 2012

Lentes Gravitatorias (Pablo Hick.)

Lentes Gravitatorias
Seminario Facultativo Disciplinar Física ( I )
Docente: Carlos Trapani
Alumno: Pablo Hikawczuk
Lentes Gravitatorias

RESEÑA HISTÓRICA

Comenzaremos esta reseña ubicándonos en la Grecia antigua (500 A.C. aprox), en donde los grandes filósofos comenzaron a preguntarse “¿Cómo podemos ver?”, es decir, cómo era que la vista, a diferencia del tacto, nos permitía conocer la forma de los objetos, pero habiendo una distancia de por medio.


De las respuestas a estas preguntas, podemos rescatar tres corrientes teóricas acerca de la idea de la visión de los objetos (la naturaleza de la luz estaba dada por la explicación del fenómeno de “ver” las cosas):
La primera hacía salir la luz del ojo hacia el objeto, como explicación de la visión.
La segunda, estaban a favor de la emisión que partía de los cuerpos hacia el ojo.
La tercera la de la escuela platónica, que proponía una combinación de los dos flujos.


Citemos, para entender esta última idea, un fragmento del Teeteto de Platón en el que se pone de manifiesto la teoría combinatoria de ambos flujos: “…Cuando entonces el ojo y un objeto idóneo se han acercado y se produce el claror y la sensación correspondiente, que no se habrían nunca producido si el ojo se hubieran dirigido a otro objeto, o recíprocamente, entonces moviéndose estas dos cosas en el espacio intermedio, quiere decir: el fuego visual partiendo de los ojos y el claror partiendo del objeto que produce el color, junto con los ojos, el ojo se encuentra rellenado del fuego visual, percibe y se vuelve no sólo fuego visual, sino ojo vidente: paralelamente, el objeto colaborando también a la producción del color , es rellenado de claror y se vuelve, no ya claror, sino objeto claro; tanto si esto que recibe la tinta de este color sea madera, piedra o cualquier otra cosa.”


Por otra parte, Empédocles pensaba que la vista no era más que tocar los objetos con una “mano” muy larga. Él creía que de los ojos salían emanaciones que hacían contacto con los objetos y recogían su forma. Esta teoría se llama extramisiónLeucipo, en cambio creía que el acercamiento ocurría en sentido contrario. Los objetos emitían “algo” que contenía su forma y color, y que incidía sobre los ojos, los cuales no hacían más que captarlo. Esta teoría se llama intromisiónNinguno de los dos pudo explicar por qué podían existir estas emanaciones en la oscuridad, pero coincidían en que estas emanaciones o “rayos” viajaban en línea recta. Esto permitió a Euclides estudiar su propagación usando las leyes de la geometría, estableciendo las bases de la perspectiva hasta hoy usada.


Fue muchos años después cuando se resolvió el añejo debate de extramisión contra intromisión. El encargado de esto fue Alhazen, médico árabe que, en el s.I y tomando entre otras cosas el hecho de que mirar directamente al sol lastima los ojos, dedujo acertadamente que los ojos son receptores y no emisores. También acertó al explicar que un objeto recibe luz del ambiente y la esparce en todas direcciones. En ausencia de obstáculos, esta luz esparcida se propaga hacia el ojo y le permite percibir el objeto. Si no hay luz, los objetos no pueden esparcir nada y es por eso que no los podemos ver.


Antes de la “revolución newtoniana”, se comienza a vislumbrar un cambio fundamental en la lógica de la investigación y desarrollo del pensamiento: el método experimental. De esta manera,  el Padre Grimaldi descubrió el fenómeno de la difracción de la luz y Hooke declara estar preparado para explicar todos los colores del mundo, a través de un dispositivo creado para medir el índice de refracción de los líquidos. En 1676, Ole Römer, consigue medir la velocidad de la luz y unos años después Erasmus Bartholin conmociona las ideas del momento con el descubrimiento de la «doble refracción» del “cristal” de Islandia.


A finales del siglo XVII Isaac Newton explicó la naturaleza de la luz, considerando que está formada de pequeñas pelotitas, en lo que se conoce como TEORÍA CORPUSCULAR o de emisión. El movimiento de estas pelotitas podía explicarse por medio de sus leyes. Por ejemplo, la luz viaja en línea recta porque así es como toda partícula viaja de acuerdo a la ley de la inercia, la luz se refleja en algunas superficies porque las pelotitas de que está formada rebotan. Newton también quiso dar una explicación de la refracción y supuso que la velocidad de las pelotitas de luz cambiaba bruscamente al pasar de un medio menos denso a otro más denso, hecho que es cierto, aunque se equivocó al proponer que aumentaba en el medio más denso.


Para Newton, la intensidad de la luz correspondía con la cantidad de pelotitas que cruzan una superficie determinada por unidad de tiempo. La luz demasiado intensa es dañina porque los ojos no pueden soportar la energía que la pelotitas liberan al golpearlos. Por otra parte, la luz de diferentes colores consiste en pelotitas de diferentes tamaños, las más pequeñas correspondientes al color violeta y las más grandes al color rojo.
Es interesante destacar en este punto que Newton se planteó algunos interrogantes que se desprendían de su “teoría corpuscular”. Uno de ellos planteaba que, si el movimiento de estas  “pelotitas” podían explicarse por sus leyes, entonces una pregunta que surgía era: “¿actúan los cuerpos a distancia sobre la luz, encorvando los rayos de esta, y es esta acción más fuerte cuanto menor es la distancia?”


Por otro lado, si las “pelotitas” (sobre todo las de mayor tamaño) podían liberar una gran cantidad de energía, “¿Son los grandes cuerpos convertibles en luz e inversamente? (...), es decir, ¿se podría generar energía suficiente para transformar en un cuerpo masivo a la luz o viceversa? o en palabras de Newton”¿ ... Por qué no ha de cambiar la naturaleza de los cuerpos en luz y la luz en cuerpos?” Estos interrogantes tendrían su respuesta dos siglos más adelante, con el desarrollo del efecto fotoeléctrico.


Pero volvamos a los siglos XVII y XVIII. Tiempo después de haber planteado su teoría, los seguidores de Newton explicaron la polarización suponiendo que las pelotitas no son redondas sino que tienen cierta forma geométrica y que un filtro polarizador sólo permite pasar a las que tienen una orientación determinada. Sin embargo, la difracción seguía resistiendo las explicaciones basadas en la teoría corpuscular. Si la luz estuviera hecha de pelotitas que viajan en línea recta, un obstáculo debería solamente detener una parte de éstas y la proyección de la luz sobre una pantalla consistiría simplemente en una sombra geométrica, como ocurre efectivamente para obstáculos grandes. No obstante, no había forma de explicar por qué para obstáculos pequeños la luz se desvía tan notoriamente de su trayectoria rectilínea, ni por qué la luz proyecta sobre una pantalla un complejo patrón de difracción.


En 1803 Thomas Young realiza un experimento en el que hace pasar un haz de luz a través de dos rendijas (muy delgadas) para así crear dos haces que puedan proyectarse sobre una pantalla. Cuando se tapaba una de las rendijas, la otra podía iluminar por sí sola más de la mitad de la pantalla. Cuando las dos rendijas se destapaban, los dos haces coinciden en la región central y hacen aparecer una serie de franjas iluminadas y oscuras alternantes. (Ver figuras)

Si la luz estuviera formada de pelotitas, como defendía Newton, la región central estaría siendo golpeada por el doble de pelotitas y por tanto su iluminación presentaría el doble de la intensidad que la de las otras regiones. Sin embargo, aunque en esta región existen zonas muy bien iluminadas, también existen otras completamente oscuras. La explicación requería abandonar completamente la idea de las pelotitas y considerar a la luz como una onda.


Huygens propuso el “modelo ondulatorio” en el que la luz era un fenómeno ondulatorio de tipo mecánico, como el sonido, que se propagaba en un medio muy particular: el éter, especie de fluido impalpable que todo lo llenaba, incluso el vacío, donde la luz también se propagaba.


En la TEORÍA ONDULATORIA de Huygens, la intensidad de la luz se relaciona con la amplitud de la onda (o con su frecuencia), mientras que en el espectro de la luz visible los diferentes colores corresponden a valores diferentes de las frecuencias de onda: el color rojo tiene la menor frecuencia, mientras que el color violeta tiene la mayor. Según el principio de Huygens, cuando la luz se encuentra con un obstáculo, cada punto de éste se convierte en una nueva fuente de ondas que se propagan en todas direcciones, lo que explica sin problemas la difracción. Estas ondas interfieren entre sí, dando lugar a direcciones de propagación preferenciales, como las que ocurren en los fenómenos de reflexión y refracción.


Las franjas que aparecen en el experimento de Young pueden explicarse directamente como consecuencia de interferencia constructiva y destructiva entre los dos haces de luz. Parecía ser el triunfo de la teoría ondulatoria sobre la corpuscular. Pero una nueva teoría se habría paso con el descubrimiento de la electricidad. A partir de éste y de la certeza de que el magnetismo es generado por cargas en movimiento (electromagnetismo), Michael Faraday imaginó y defendió la existencia de un campo, como una perturbación del espacio.


Propuesto matemáticamente por James Clerk Maxwell, una carga al moverse produce un campo eléctrico y a su vez un campo magnético variable que realimenta una nueva variación del campo eléctrico y así sucesivamente. Ambos, entonces se propagarían en lo que sería una perturbación electromagnética. La velocidad con que esta perturbación del vacío se propaga a través del espacio resultó ser muy similar a la velocidad de la luz, que ya había sido medida en aquel entonces. Conclusión: la luz era una ONDA ELECTROMAGNÉTICA.

NUEVA CONCEPCIÓN DE LA LUZ

Pero ahora la pregunta era otra. Ya que la longitud de onda de la luz es pequeña con respecto al tamaño de los objetos cotidianos, ¿Existirán ondas electromagnéticas con longitudes de onda de otros tamaños? Hertz consiguió generar las ondas electromagnéticas predichas por Maxwell, con longitudes de onda mucho más largas (radio y televisión) que pueden “sortear” a los obstáculos como sucede con el sonido.
Con frecuencias de onda más cortas (longitudes más largas) que las del color rojo se encuentran los rayos infrarrojos, mientras que los rayos ultravioleta tienen frecuencias de onda más largas que el violeta. Los rayos X y los rayos gamma son ondas electromagnéticas de frecuencias de onda más largas que la luz. Una consecuencia de considerar a la luz como una onda electromagnética era que el éter dejaba de ser necesario. Ese papel lo cumplía ahora el concepto de campo.

Aparentemente estaba todo resuelto, sin embargo a principio del s.XX, los científicos comenzaron a estudiar ciertos fenómenos que, ni siquiera la teoría electromagnética de Maxwell podía dar. Uno de ellos era el efecto fotoeléctrico. En éste, la energía que la luz puede transferir a un electrón depende de su color. La teoría electromagnética dice que la energía contenida en la luz se relaciona con la amplitud de la onda mientras que el color se relaciona con su frecuencia. En ninguna parte plantea la teoría electromagnética una relación entre energía y color.


Para resolver el enigma Albert Einstein tuvo que dar un pequeño salto hacia atrás: señaló que el efecto fotoeléctrico podía explicarse fácilmente si se suponía que la luz está formada por paquetes discretos a los que llamó fotones. La energía de un fotón dependería directamente de la frecuencia de onda de la luz, de acuerdo a una relación calculada por Max Planck, en el estudio del cuerpo negro. Un fotón de luz azul tiene más energía que uno de luz roja, debido a su mayor frecuencia de onda, para los rayos X y los rayos gamma, los fotones resultan ser altamente energéticos.


Por lo tanto, la energía transferida al electrón en el efecto fotoeléctrico dependerá del color de la luz y no de su intensidad. Pero esta concepción de fotón, reavivaba la teoría corpuscular de la luz. Después de mucha confusión, se llegó a la conclusión de que, tanto esta teoría como la ondulatoria, eran necesarias y se estableció la DUALIDAD ONDA-PARTÍCULA, para la cual a veces pueden predominar las propiedades de onda y en otras, las de partícula.


Luis de Broglie llevó esta ambigüedad un poco más lejos y planteó que si las ondas tenían propiedades de partícula, también las partículas debían tener propiedades de onda. Este concepto llevó al desarrollo de la mecánica cuántica.

LENTES GRAVITACIONALES:

Como ya mencionamos, fue a finales del siglo XVII cuando Newton se preguntó si los objetos celestes podrían desviar los rayos de luz, y calculó teóricamente el ángulo de deflexión para un rayo de luz que viajase en las proximidades de un cuerpo esférico.
Un siglo más tarde, Michell y Laplace se dieron cuenta de que un cuerpo con una densidad suficientemente alta no permitiría que la luz escapase, por lo que aparecería completamente negro. Estas fueron las ideas que inspiraron a Soldner (1801) para publicar un artículo sobre los errores que produce la deflexión de la luz en la determinación de las posiciones angulares de las estrellas, y calculó el ángulo de deflexión para un rayo cerca del limbo solar usando la teoría gravitatoria de Newton.


En 1915, Einstein sostuvo también que las partículas de la luz (los fotones) también deberían cambiar su trayectoria al pasar cerca de una gran masa,  ya que "notarían" el espacio deformado allí (Ver figura), y utilizando los resultados de su Teoría de la Relatividad General (TRG), calculó el ángulo de deflexión de la luz, obteniendo el doble del calculado por Soldner. El motivo de esta diferencia era que las derivaciones clásicas del ángulo de deflexión, que utilizaban la mecánica newtoniana, daban un valor del mismo, relativo a un espacio plano, es decir, la varilla patrón para medir distancias es la misma en todos los puntos del espacio. Sin embargo la TRG predecía que el espacio aparece curvado alrededor del Sol, por lo que la varilla patrón cambia al medir distancias cerca del Sol (con respecto a aquellos puntos muy alejados del Sol) lo suficiente como para dar el doble del valor newtoniano del ángulo de deflexión.

Para justificar su creencia, Einstein propuso que esto podría verificarse observando las posiciones de las estrellas cercanas (en proyección) al Sol durante un eclipse total.

Veamos las figuras siguientes:
                
En un eclipse total de Sol, la Luna tapa exactamente el disco del Sol. Durante unos minutos se hace la oscuridad casi total (a pleno día) y se ve la corona solar, las estrellas y los planetas más brillantes. En la imagen A de la figura vemos, en una vista lateral, que durante el eclipse total la Luna se interpone entre la Tierra y el Sol. Supongamos que hay una estrella E muy lejana (a la izquierda y arriba del Sol en la imagen; hay que imaginársela muy alejada hacia la izquierda) y que desde la Tierra vemos esa estrella, en proyección, cerca de la superficie del Sol.  Veámoslo en la imagen B, que muestra lo mismo que A pero visto por un observador situado en la Tierra. No vemos ya el Sol (la Luna lo ha ocultado) y podemos ver la estrella E de fondo proyectada casi “tocando” el borde del Sol y la Luna.


En la imagen C se muestra la predicción de Einstein sobre la curvatura de la luz cerca del Sol: al caminar por el espacio-tiempo deformado por la masa del Sol, la luz de la estrella no sigue una línea recta euclidiana, sino que se tuerce cerca del Sol. Lo interesante del asunto es darse cuenta que un observador desde la Tierra vería la imagen de la estrella E no donde realmente está, sino en E'. Desde nuestra perspectiva terrestre (imagen D) vemos a la estrella más alejada del borde del Sol que lo que realmente está. Einstein calculó en 1915 este alejamiento extra en la posición de la estrella y recién cinco años más tarde, en 1919, un grupo de investigadores liderado por Eddintong y Dyson midieron el desplazamiento angular aparente de la posición de las estrellas, debido al campo gravitatorio del sol, durante un eclipse solar. Concluyeron que el valor de la deflexión dado por Einstein,  de 1.75 segundos de arco, era el correcto, confirmándose las predicciones de la TRG.

Pero si esto reafirmaba la espectacularidad de la teoría de Einstein, todavía quedaban muchos fenómenos más para descubrir. Uno de ellos: las llamadas LENTES GRAVITACIONALES.


En 1936, Einstein calculó el ángulo de deflexión que sufre la luz de una estrella lejana al pasar cerca de otra estrella, ambas en nuestra galaxia; también calculó la luminosidad aparente de las imágenes, que cambia con la deflexión, siendo la amplificación muy alta cuando el observador, lente y fuente están alineados. Concluyó que, a pesar del interés teórico, el ángulo era muy pequeño y el fenómeno muy difícil de observar.


Sin embargo, Zwicky encontró que la probabilidad de observar el fenómeno era mucho mayor cuando se aplicaba a las galaxias; además calculó el ángulo de deflexión, consideró la formación de imágenes en forma de anillo y estimó la amplificación del flujo total. También remarcó que el descubrimiento de imágenes de galaxias lejanas que se formen a través del campo gravitatorio de galaxias más cercanas sería una prueba adicional de la TRG y haría posible detectar galaxias a distancias mucho mayores que las que están al alcance de los telescopios ordinarios (efecto telescopio gravitatorio), debido a la amplificación de las fuentes. Además, Zwicky se dio cuenta de que los espejismos gravitatorios podrían ser la forma más directa de determinar la masa de las galaxias.


Gráficamente, de la misma manera que un vidrio curvado deforma la imagen cuando miramos a través suyo, una lente gravitacional deforma y amplifica la imagen de las galaxias lejanas produciendo imágenes dobles o múltiples, arcos, etc. Y si la galaxia-lente está situada exactamente enfrente de la galaxia de fondo, produce el llamado "anillo de Einstein".
Para ejemplificar y facilitar la idea de formación de los fenómenos nombrados, se puede comparar las imágenes de un punto negro, obtenidas a través de la base de una copa de vidrio o cristal, con las fotografías reales, tomadas por diferentes instrumentos ópticos.

Formación de múltiples imágenes

El punto negro se encuentra en el perímetro del centro de la lente.
A la izquierda observamos dos manchas negras -una a cada lado del centro de la lente- que corresponden al mismo punto negro original. En tanto, que en la fotografía de la derecha observamos dos imágenes que corresponden en realidad a un mismo quásar.



Formación de arcos
                               
El punto negro se encuentra cerca del centro exacto de la lente.
En este caso en ambas fotografías la imagen se distorsiona en mayor grado, formando ya no múltiples imágenes sino arcos. La imagen de la derecha corresponde también a un quásar.










Formación del anillo de Einstein

El punto negro se encuentra exactamente en el centro de la lente.
Al ubicar al punto negro exactamente en el centro de la lente queda formado un anillo, consecuencia de la distorsión del punto negro original. Por otra parte observamos a la derecha el anillo de Einstein producido por la luz de una lejana galaxia que ha sido convertida en un halo por una galaxia más cercana.



Cabe señalar que, a pesar de desarrollar semejante teoría, revolucionaria desde todo punto de vista, Einstein no pudo realizar la comprobación observacional, ya que el primer caso de lente gravitacional se descubrió en 1979.

Los fenómenos de lentes gravitatorias pueden utilizarse para detectar la presencia de objetos masivos invisibles, tales como agujeros negros e incluso de planetas extrasolares.

Hay tres clases de fenómenos de lente gravitacional:

1.             Fuerte. Distorsiones fácilmente visibles tales como formación de anillos de Einstein, arcos y múltiples imágenes.

2.             Débiles: Distorsión débil de los objetos de fondo que puede ser detectada únicamente analizando un gran número de los objetos de fondo.

3.             Microlente: Sin distorsión aparente en la forma pero con variaciones débiles de la intensidad de luz de los objetos de fondo.

Una lente gravitacional actúa en todo tipo de radiación electromagnética y no únicamente en luz visible. Efectos de lentes gravitacionales han sido propuestos sobre la radiación de fondo de microondas y sobre algunas observaciones de radio y rayos x.


Las lentes gravitacionales pueden utilizarse como en un telescopio para observar la luz procedente de objetos muy lejanos. Investigadores estadounidenses fueron capaces de detectar la galaxia más lejana conocida gracias al efecto de lente gravitacional ejercido por la agrupación de galaxias Abell 2218. Estas observaciones fueron realizadas con el Telescopio espacial Hubble (15 de Febrero de 2004). Tres planetas extrasolares han sido descubiertos también en eventos de microlentes gravitacionales. Esta técnica permitirá detectar la presencia de planetas de masa terrestre alrededor de estrellas parecidas al Sol si estos son comunes.



lunes, 2 de enero de 2012

Espectros Estelares (Alejandro Lav.)

Espectros Estelares

Trabajo Final Seminario Facultativo Disciplinar (I)
Profesorado de Física. I.E.S. N° 2 "Mariano Acosta"

Espectros Estelares
Profesor: Carlos Trapani
Alumno: Alejandro Lavagnino
Diciembre de 2009
Índice
Introducción .................................................................................................... 3
Historia del origen de los espectros. Fraunhofer, Kirchhoff y Bunsen. .......... 3
La Radiación: una primera aproximación...................................................... 7
Espectros de emisión ................................................................................... 11
Espectros de absorción ................................................................................ 12
Temperatura y clasificación de las estrellas ................................................. 12
Temperatura de color ................................................................................... 15
Distancias estelares...................................................................................... 16
Velocidad...................................................................................................... 17
Rotación........................................................................................................ 18
Composición química superficial .................................................................. 19
Bibliografía.................................................................................................... 20

Espectros Estelares 
Alejandro Lavagnino
Introducción


El cielo siempre fue para la humanidad objeto de curiosidad, de culto y de  estudio, y, por ende, también lo fueron los elementos que lo constituyen y sus movimientos. Y lo que más llama la atención al mirar un cielo nocturno son esos puntitos luminosos, desparramados aparentemente al azar, con variedad de brillo y color y con movimiento, por lo general, lento e irrevocable. 


Durante toda la historia se ha querido saber qué son y de qué están hechos esos puntitos y han surgido diversas ideas y teorías acerca de ellos, producto de la imaginación de cada observador con sólo obtener la información luminosa que les llegaba. El siglo XX propició las condiciones necesarias para recopilar la mayor cantidad de información acerca de las estrellas de toda la historia, gracias al desarrollo de la teoría electromagnética y a su aplicación a lo percibible desde el espacio exterior.


Este trabajo pretende explicar las características más importantes de las estrellas, a la luz de las teorías que se desarrollaron desde fines del siglo XIX y durante el siglo XX, y de las tecnologías que las acompañaron, ya que a mí, como a muchos seres humanos, me atrae con especial interés saber de qué está hecho ese universo que se nos aparece en forma de cielo y las ideas con que los hombres imaginan y fundamentan su composición.


En cuanto a la utilidad del tema considero esta división:


Científica
calculo de la masa total del universo
calculo del tamaño del universo
calculo de la velocidad de expansión
teoría de la materia oscura y otras formas de energía


Personal
Entender más profundamente los fenómenos subatómicos explicados por la mecánica cuántica y sus efectos macroscópicos.


En cuanto a su factibilidad, el tema comenzó a desarrollarse a fines del siglo XIX y continuó durante el siglo XX, por lo que hay mucha bibliografía accesible al respecto. Es la base de la actual física teórica aplicada a la astronomía, por lo que se encuentra en continuo crecimiento.

Historia del origen de los espectros. Fraunhofer, Kirchhoff y Bunsen.

En 1814 Joseph Fraunhofer (1787 – 1826) estudiaba el comportamiento de la luz utilizando un prisma de calidad excepcional; examinando la descomposición de la luz hecha por el prisma, mediante el telescopio de un teodolito notó que el espectro solar (el arcoiris de colores) estaba interrumpido por líneas oscuras, zonas donde la intensidad de la luz es notoriamente menor.

Fraunhofer no era el primero en notar las líneas oscuras del espectro solar. El químico inglés William Hyde Wollaston (1766–1828) había repetido el experimento de Newton de descomposición de la luz solar en un prisma pero había reemplazado el orificio de entrada de luz al prisma por una delgada ranura, de tan sólo 1 milímetro. El espectro solar, ahora con una menor superposición entre los colores, le mostró siete líneas oscuras. Wollaston publicó sus resultados en un artículo en las “Philosophical Transactions” de la Royal Society en 1802. Wollaston las interpretó como líneas divisorias que separan un color de otro o un matiz de otro y no les atribuyó importancia alguna.

Fraunhofer sin embargo dedicó a ellas toda su atención. Contó primero 354 y luego, con un telescopio más poderoso, 700 líneas, designando a las más prominentes con las letras del alfabeto: A, B, C, D, etc. desde el rojo hacia el azul, creando de este modo las bases de una nomenclatura que sus sucesores no tuvieron más que ampliar. Reconoció que a cada línea corresponde una posición exactamente determinada y al examinarlas con distintas posiciones del aparato y distintas posiciones del Sol se dio cuenta de que no se movían con respecto a los colores y que eran inherentes a la fuente de luz, en este caso el Sol.

A partir de ese momento el interés de Fraunhofer por las líneas oscuras del espectro solar fue aún mayor. Descompuso en su prisma la luz de la Luna y de Venus, comprobando que están presentes las mismas líneas oscuras que en el espectro solar. Observó también diversas estrellas; algunas, como Capela, reproducen débilmente el espectro solar mientras otras tienen diseños de líneas oscuras totalmente distintos. Esto lo explica en memorias escritas en 1814 y 1815. En otra serie de observaciones reemplaza el prisma por placas de cristal sobre la cual ha trazado líneas muy próximas entre sí, hasta 300 por milímetro. Estas “redes de difracción” le permiten medir la longitud de ondas de las líneas oscuras del espectro con una exactitud tal que sus errores son menores al uno por mil.

Fraunhofer no se limitó a observar fuentes luminosas celestes; las llamas de las bujías y lámparas de aceite le ofrecen espectros continuos sin líneas. Introdujo sal común en una llama lo que hacía aparecer una intensa línea amarilla, en emisión, que al ser observada con mayor resolución resultó ser una línea doble. Esta intensa línea amarilla de la llama hacía sido descubierta a mediados del siglo XVIII por un joven físico escocés Thomas Melville (1726 - 1753), quien murió en 1753 a la temprana edad de 27 años. Desgraciadamente Melville publicó su descubrimiento en una oscura colección de ensayos que nadie prestó atención. 


Fraunhofer la buscó en el espectro solar y estaba exactamente en el mismo lugar donde hay dos líneas negras (oscuras) que había llamado línea D. Lamentablemente no reparó en la coincidencia ni supo interpretarla. Utilizó las líneas para medir índices de refracción de diversos cristales. Con mejores valores para los índices de refracción de cristales Fraunhofer diseñó y construyó los mejores refractores de la primera mitad del siglo XIX. Por décadas “un refractor de Fraunhofer” fue sinónimo de un excelente telescopio, tanto en su óptica como en su mecánica.

Julius Plücker (1801-1868), obtuvo los espectros de varios gases mediante descargas eléctricas en tubos de vacío reconociendo que el espectro es una característica fija del gas que lo engendra. Sin embargo Plücker se limitó a comprobar este promisorio resultado sin intentar desarrollarlo.

El químico Robert Wilhelm Bunsen (1811–1899) experimentador tan lleno de inventiva como incansable y el brillante teórico Gustav Kirchhoff (1824–1887), ambos profesores de la Universidad de Heidelberg, se complementaron en una gran colaboración. Las llamas coloreadas por ciertas sustancias atrajeron la atención de Bunsen que se esforzó en obtener de ellas un medio seguro para identificar los elementos químicos. Siguiendo el consejo de Kirchhoff observó esas llamas a través de prismas y los resultados lo condujeron muy pronto al reconocimiento que las líneas brillantes emitidas por vapores metálicos incandescentes son independientes de la temperatura así como de los elementos con los cuales esos metales están combinados ofreciendo características constantes y fijas de los elementos químicos aunque estén presentes en cantidades mínimas. Así basta con una cantidad tan pequeña como un diez millonésimo de miligramo para obtener la doble línea amarilla del Sodio que delata la presencia de dicho elemento cuando la química analítica no logra revelar ningún vestigio del elemento.

El estudio de las líneas de colores emitidas por varios cuerpos, ya sea en la llama (Bunsen inventó el mechero que lleva su nombre), en el arco voltaico o en la chispa eléctrica convenció a Bunsen de la seguridad de su método, que fue confirmado, en 1860 y 1861, con el descubrimiento del Rubidio y el Cesio


Posteriormente, 1861 William Crookes (1832-1919) descubrió el Talio y en 1863 Ferdinand Reich (1799-1882) y Theodor Richter (1824-1898) descubrieron el Indio. El análisis espectral por emisión estaba fundado. Faltaba solamente quien articulara en un corpus coherente la gran cantidad de conocimiento empírico que se encontraba disperso; esta fue la tarea de Kirchhoff.
Figura 1

Producir artificialmente en el laboratorio las líneas de Fraunhofer fue lo que dio la clave del problema. Kirchhoff realizó esta hazaña de una manera que, una vez conocida, parece muy simple. Encendió una intensa llama engendradora de las dos líneas amarillas del Sodio y en el trayecto colocó una lámpara de alcohol con una solución de sales de sodio... Instantáneamente las líneas amarillas y brillantes se convirtieron en las líneas oscuras D, idénticas a las del espectro solar. Si en lugar de sales de Sodio utilizaba cloruro de Litio, era la línea roja característica del Litio la que se tornaba oscura.


Reconoció que las llamas coloreadas, fuentes de líneas brillantes, si están colocadas entre una fuente luminosa bastante intensa y el prisma, absorben los rayos de la misma longitud de onda que emite, introduciendo en el espectro rayas negras en su lugar. 


“Podemos admitir –escribe Kirchhoff en Octubre de 1859 en su breve comunicación a la Academia de Berlín– que las líneas brillantes del espectro de una llama, que coinciden con las líneas D, se deben siempre al contenido de Sodio de las mismas. Las líneas oscuras D en el espectro solar permiten por lo tanto concluir que se encuentra Sodio en la atmósfera solar”.


Como los gases de la envoltura del Sol son más fríos que el astro, un elemento dado en la atmósfera solar es incapaz de reemplazar con su propia radiación los rayos que ha absorbido. Así nacen las líneas oscuras en el espectro solar como lagunas que se traducen en la ausencia, en la luz, de rayos de elementos presentes en el Sol.

En el mismo año de 1859 Kirchhoff envía una segunda comunicación a la Academia de Berlín, generalizando su ley. Introdujo una nueva noción: la de un cuerpo perfectamente negro, es decir un cuerpo susceptible de absorber totalmente los rayos de todas las longitudes de onda y no reflejar ninguno. Tal cuerpo fue sólo una exigencia teórica de Kirchhoff; sin embargo algo más tarde, en 1895, fue realizado técnicamente por Wilhelm Wien (1864–1928) y por Otto Lummer (1870–1925). 


Una vez definido el cuerpo negro Kirchhoff demostró la validez de la proporción e / a = E / A donde e y a son el poder de emisión y de absorción de un cuerpo cualquiera y E y A son esos poderes para un cuerpo negro, de ahí que el segundo miembro de esa proporción es una constante bien determinada, de manera que en los “Anales de la Física” de 1860 Kirchhoff enuncia su ley: para las radiaciones de una misma longitud de onda a la misma temperatura, la razón entre el poder de emisión y el poder de absorción es siempre la misma. 


Las leyes de Kirchhoff de la espectroscopía pueden enunciarse de la siguiente manera:

1. Un sólido o un líquido (o un gas muy denso) incandescente, produce siempre un espectro continuo.

2. Un gas (enrarecido) incandescente produce un espectro de líneas brillantes de emisión, sin continuo.

3. Un espectro continuo cuando pasa a través de un gas se transforma en un espectro con líneas oscuras.

4. Las posiciones de las líneas tanto de emisión como de absorción son características de la constitución química de la materia que las produce. Cada elemento y cada compuesto tiene sus líneas características. Los elementos absorben o emiten luz sólo de ciertas longitudes de onda. En consecuencia el estudio de un espectro permite la identificación de los elementos químicos que lo produjeron.

Kirchhoff reunió los resultados de sus investigaciones emprendidas en colaboración con Bunsen sobre los espectros solares y terrestres, en un célebre ensayo “Examen acerca del espectro solar y el espectro de los elementos químicos” de 1861 y del cual la Academia prusiana preparó una edición especial al año siguiente, en vista de los alcances excepcionales del mismo. El ensayo de Kirchhoff elimina definitivamente la antigua hipótesis de Alexander Wilson (1766-1813) y de William Herschel que concebían al Sol como una masa fría y oscura envuelta por gases incandescentes. 


Kirchhoff sustituyó esta hipótesis, incompatible con el concepto de equilibrio térmico, por la concepción del Sol como un globo de temperatura elevada cuyas capas externas, de temperatura inferior, son semi-líquidas o gaseosas. En tales capas se encuentran, de acuerdo al análisis espectroscópico, Hierro, Calcio, Magnesio, Sodio y Cromo, en grandes cantidades. Por su parte, afirma Kirchhoff, las manchas solares, lejos de ser huecos o aberturas en la atmósfera del Sol, representarían productos locales de enfriamiento, escorias que flotan en la superficie de la fotósfera solar.

El análisis espectral dio nacimiento a toda una nueva rama de la astronomía, cuyo extraordinario desarrollo en las últimas cuatro décadas del siglo XIX abrió las puertas a la astrofísica del siglo XX. El descubrimiento de Kirchhoff y Bunsen convirtió en realidad la posibilidad que el hombre penetrara en el conocimiento químico de cuerpos a distancias estelares. Esto le pareció increíble a mucho otros testigos de la época. Kirchhoff en una carta que dirige a su hermano Otto, en 1859 le cuenta: 
“Mi intento, el análisis químico del Sol, parece a muchos muy atrevido. No estoy enojado con un filósofo de la Universidad por haberme contado mientras paseábamos, que un loco pretende haber descubierto Sodio en el Sol. No pude resistir la tentación de revelarle que ese loco era yo”.

La Radiación: una primera aproximación

En 1859 Kirchhoff introduce la idea del cuerpo negro. Puede tenerse una muy buena aproximación de un cuerpo negro mediante una cavidad con un orificio muy pequeño. Las características de la radiación en el interior de dicha cavidad depende únicamente de la temperatura de sus paredes. A temperaturas ordinarias (por debajo de unos 600°C) la radiación térmica emitida por un cuerpo negro no es visible porque la energía se concentra en la región infrarroja del espectro electromagnético. Al irse calentando el cuerpo, aumenta la cantidad de energía radiada (de acuerdo con la ley de Stefan- Boltzmann explicada más adelante) y la concentración de la energía se desplaza hacia las longitudes de onda más cortas. Entre 600 y 700°C, aparece ya suficiente cantidad de energía en el espectro visible como para que el cuerpo brille con un color rojo oscuro. A temperaturas aún más elevadas, se hace rojo brillante, e incluso “rojo blanco”.
Figura 2

La figura muestra la potencia radiada por un cuerpo negro en función de la longitud de onda para tres temperaturas diferentes. Se conocen estas curvas con el nombre de curvas de distribución espectral. La magnitud P en esta figura es la potencia radiada por unidad de longitud de onda. Es una función tanto de la longitud de onda (lambda) como de la temperatura [ T ] y se denomina función de distribución espectral. Esta función:
tiene un máximo para una longitud de onda, que varía de forma inversa con la temperatura de acuerdo con la ley de desplazamiento de Wien:
La función de distribución espectral  P(lambda,T)  puede calcularse de una forma directa a partir de la termodinámica clásica. Y el resultado obtenido ha de compararse con las curvas obtenidas experimentalmente. El resultado del cálculo clásico, conocido como ley de Rayleigh·Jeans, es:
en donde k es la constante de Boltzmann. Este resultado concuerda con los valores experimentales en la región de longitudes de onda largas. Pero está en total desacuerdo cuando se trata de las longitudes de onda cortas. Cuando (lambda) tiende a cero el valor de  P(lambda,T) determinado experimentalmente también tiende a cero, pero la función calculada se acerca a infinito porque es proporcional a: 

Así pues, de acuerdo con el cálculo clásico, los cuerpos negros radian una cantidad infinita de energía concentrada en las longitudes de onda muy cortas.


En 1900, el físico alemán Max Planck (1858 - 1947) anunció que realizando una inusitada modificación en los cálculos clásicos podía deducir una función  P(lambda,T)  que concordaba con los dalos experimentales para todas las longitudes de onda. 


Así, encontró que podía “deducir" esta función si realizaba la sorprendente hipótesis de que la energía emitida y absorbida por el cuerpo negro no era continua sino que, por el contrario, era emitida o absorbida en paquetes discretos o "cuantos". 


Planck postuló que el tamaño de "un cuanto de energía" era proporcional a la frecuencia de la radiación: E = hf, en donde h es la constante de proporcionalidad conocida actualmente como constante de Planck.

Él mismo determinó el valor de h ajustando su función a los datos obtenidos de modo experimental. El valor aceptado de esta constante se toma ahora como:
La aplicación más famosa de la cuantización de la energía a sistemas microscópicos fue la que llevó a cabo Niels Bohr (1885-1962), quien propuso en 1913 un modelo del átomo de hidrógeno que tuvo un éxito espectacular al calcular las longitudes de onda de las líneas del espectro conocido del hidrógeno y al predecir nuevas líneas (posteriormente halladas experimentalmente) en el espectro infrarrojo y ultravioleta.
Figura 3


Al final del siglo se habían reunido muchos datos sobre la emisión de la luz por los átomos de un gas al ser excitados por una descarga eléctrica. Observada a través de un espectroscopio con una abertura en forma de rendija estrecha, esta luz adquiere el aspecto de una serie discreta de líneas de diferentes colores (cada uno con una freciencia o longitud de onda asociada); la separación e intensidades de las líneas son características de cada elemento.

Figura 4: muestra los espectros de emisión de seis elementos.


Fue posible determinar las longitudes de onda de estas líneas con exactitud y se había realizado un gran esfuerzo para encontrar regularidades en los espectros. En 1884. un profesor suizo, Johann Balmer (1825-1898), halló que las longitudes de onda de algunas de las líneas del espectro del hidrógeno pueden representarse por la fórmula:
en donde m es un número entero variable que toma los valores m=3. 4, 5 ...

Figura 5: muestra el conjunto de líneas espectrales del hidrógeno, conocido ahora como serie de Balmer, cuyas longitudes de onda vienen dadas por esta ecuación.


Balmer sugirió que su fórmula podría ser un caso especial de una expresión más general aplicable a los espectros de otros elementos. Dicha ecuación, encontrada por Johannes R. Rydberg (1854 - 1919) y Walter Ritz (1878-1909), expresa la longitud de onda de la forma siguiente, conocida como fórmula de Rydberg-Ritz:
Esta fórmula es válida no sólo para el hidrógeno de número atómico Z=1, sino también para átomos más pesados con carga nuclear Ze-, en los cuales todos los electrones excepto uno han sido eliminados. 
R, denominada constante de Rydberg, o simplemente Rydberg, es la misma para todas las series del mismo elemento y varía sólo ligeramente y de modo regular de un elemento a otro. En el caso de elementos de gran masa R tiende al valor: 

La fórmula de Rydberg-Ritz y algunas modificaciones de la misma han tenido mucho éxito a la hora de predecir otros espectros. Por ejemplo, fueron previstas y encontradas otras líneas del espectro del hidrógeno que caían fuera del espectro óptico visible. Haciendo n2=1 en la ecuación se obtiene una serie en la región ultravioleta denominada Serie de Lyman, mientras que si se pone n2=3 se obtiene la serie de Paschen, en la región infrarroja.
Figura 5


Espectros de emisión

La materia que absorbe energía pasa a un estado excitado y vuelve a emitirla para volver a su estado fundamental, de mínima energía. La materia puede absorber energía, no solo de la radiación electromagnética, sino de otras formas, como energía calorífica o eléctrica. Y puede emitirla en forma de energía calorífica, química, o de muchas formas más. Lo que nos interesa es el proceso por el cual emite energía en forma de radiación electromagnética.

Observemos el cambio de coloración que experimenta un clavo de hierro introducido en el fuego. Primero aparece rojizo, luego amarillento, y, si la temperatura es muy alta, veríamos que cambia hacia el blanco. Absorbe energía calorífica y la emiite en forma de radiación electromagnética en la zona del visible. Introduzcamos una piedra caliza (carbonato cálcico), previamente humedecida con agua fuerte (acido clorhídrico) en la llama de un mechero. El calcio emitirá su característico color rojizo. Si introducimos un hilo de cobre, previamente humedecido con agua fuerte, en la llama, esta se coloreara de un intenso color azul y verde, claramente diferenciables.

Los anuncios en letreros luminosos son otro ejemplo: La energía eléctrica excita la sustancia que hay dentro del tubo luminiscente y ésta emite la energía absorbida en forma de ondas electromagnéticas.


Cada sustancia emite unas energías características que nosotros detectamos en forma de colores diferentes. Si esta radiación visible la descomponemos a través de un prisma y dejamos que impresione una placa, comprobaremos que se compone de ondas de varias frecuencias. Cada onda impresiona una línea en la placa. Hemos obtenido un espectro de líneas, el espectro de emisión de la sustancia. Y las líneas corresponden a las mismas frecuencias que las de su espectro de absorción. Evidentemente, para volver a su estado fundamental, la sustancia excitada deberá emitir la misma energía que previamente había absorbido.


Las ondas electromagnéticas que emite una sustancia, previamente excitada, ordenadas según su longitud de onda, constituyen su espectro de emisión. El espectro de una sustancia es un espectro de líneas, formado sólo por determinadas longitudes de onda y, por ende, determinadas energías.


Espectros de absorción


Cada sustancia tiene sus propias frecuencias de resonancia a las cuales absorbe energía de la radiación electromagnética. Cuando una onda electromagnética, de cierta frecuencia o longitud de onda, que porta una determinada energía, interactúa con la materia, que es un sistema de cargas, imprime una oscilación forzada sobre el movimiento natural de las cargas.

Podemos considerar los electrones en un átomo como osciladores que tienen ciertas frecuencias. Si la frecuencia de la onda que lo perturba es igual a su frecuencia natural de oscilación, se produce resonancia y el electrón absorbe energía de la onda electromagnética. Si todo el espectro de la radiación electromagnética interactúa con la materia, los electrones absorberán las ondas que lleven una energía, una frecuencia, igual a la frecuencia natural de sus movimientos de oscilación. Si se recoge el espectro de la radiación sobre una placa fotográfica, después de haber atravesado la materia una sustancia determinada, obtendremos las frecuencias de resonancia, es decir, las energías que la sustancia absorbe y que constituyen el espectro de absorción de esta sustancia. (las frecuencias de resonancia de absorción no llegan a la placa y las líneas aparecerán como espacios no impresionados).

Cuando la radiación electromagnética incide sobre la materia, ésta puede absorber energía. Las energías que absorbe constituyen, ordenadas según su longitud de onda, su espectro de absorción. La materia solo absorbe determinadas energías. El espectro de absorción es característico de cada sustancia y es un espectro de líneas.



Temperatura y clasificación de las estrellas


Es posible conocer la temperatura superficial de las estrellas mediante la aplicación de las leyes de radiación, en particular la ley de Planck, antes mencionada, y dos leyes derivadas de ésta: la Ley de Wien y la Ley de Stefan-Boltzmann. El método más utilizado es la ley de Planck, ya que la Ley de Wien presenta dificultades debido al pequeño intervalo de longitudes de onda en el que es posible medir la energía que nos llega de los astros, y la Ley de Stefan y Boltzmann solo es posible emplearla conociendo la distancia y el radio de la estrella. Esta ley nos dice que la energía radiada por unidad de tiempo y superficie es:


Donde sigma es la constante de Stefan-Boltzmann:







Donde h es la constante de Planck:

k es la constante de Boltzmann:

y c es la velocidad de la luz en el vacío: 299.792.458 m/s.


Si suponemos que las estrellas emiten radiación como un cuerpo negro, podemos definir a la luminosidad como: 


Y midiendo el brillo de una estrella, así como conociendo su distancia:
Donde b es el brillo de la estrella.


A los fines prácticos, ajustar la curva de Planck a la energía obtenida por longitud de onda, nos permite determinar aproximadamente la temperatura de la estrella. En base a esta determinación Edward Charles Pickering (1846 - 1919), de la Universidad de Harvard, realizó en el año 1890 una clasificación de las estrellas teniendo en cuenta sus espectros y su temperatura superficial.

Figura 6


Estos tipos responden a las siguientes características:


Tipos espectrales clásicos:


* Clase O: son estrellas muy calientes y luminosas destacando en brillantes colores azules. Naos (en la constelación de Puppis) brilla con una potencia cercana a un millón de veces superior a la del Sol. Estas estrellas tienen líneas de helio ionizado y neutro muy prominentes y presentan líneas débiles de Balmer de hidrógeno. Emiten la mayor parte de su radiación en el ultravioleta.

* Clase B: extremadamente luminosas, como Rigel en Orión, una supergigante azul. Los espectros de estas estrellas tienen líneas de helio neutral y líneas moderadas de hidrógeno. Como las estrellas O y B tienen tanta masa consumen su energía mucho más deprisa que otras estrellas más pequeñas liberando cantidades inmensas de energía y viviendo durante un
corto periodo de tiempo de unos millones de años. En este tiempo no pueden alejarse demasiado de las regiones de formación estelar en las que nacen por lo que suelen presentarse en grupos de varias estrellas en lo que se conoce como asociaciones OB1, formadas en el interior de nubes moleculares gigantes. La asociación OB1 de Orión es el ejemplo más cercano.

* Clase A: son las estrellas más comunes que observamos a simple vista. Deneb en el Cisne es una estrella de gran brillo mientras que Sirio, la estrella más brillante desde la Tierra es también una estrella de tipo A muy cercana pero no tan grande como Deneb. Las estrellas de clase A tienen pronunciadas líneas de Balmer de hidrógeno y poseen también líneas de metales ionizados.

* Clase F: siguen siendo estrellas de gran masa y muy brillantes pero pertenecen ya a la secuencia principal. Como ejemplo podemos considerar Fomalhaut en Piscis Australis. Sus espectros se caracterizan por líneas de Balmer de hidrógeno débiles y metales ionizados. Son de color blanco con un ligero componente amarillo.

* Clase G: son las mejor conocidas ya que nuestro Sol pertenece a esta clase siendo una estrella de tipo G2. Tienen líneas de hidrógeno aún más débiles que las F y cuentan con líneas de metales ionizados y neutros.


* Clase K: estrellas naranja algo más frías que el Sol. Algunas de ellas son gigantes e incluso supergigantes como Antares, mientras que otras estrellas K como Alpha Centauri B pertenecen a la secuencia principal. Tienen líneas de hidrógeno muy débiles y en ocasiones algunas líneas correspondientes a metales neutros.

* Clase M: es la más común de todas por el número de estrellas. Todas las enanas rojas pertenecen a esta clase y más del 90% de todas las estrellas son de este tipo como Próxima Centauri. La clase M también corresponde a la mayoría de las gigantes y a algunas supergigantes como Arcturus y Betelgeuse, así como a las variables Mira. El espectro de una estrella M tiene líneas moléculas y de metales neutros pero normalmente no muestra líneas de hidrógeno. El óxido de Titanio puede formar líneas intensas en las estrellas M.


Nuevos tipos espectrales:


Más recientemente la clasificación ha sido extendida con nuevos tipos espectrales resultando en la secuencia W O B A F G K M L T y R N C S donde W son estrellas de Wolf-Rayet, L y T representan estrellas extremadamente frías y de poca masa del tipo de las enanas marrones y R, N, C y S que son utilizadas para clasificar estrellas ricas en carbono.

* W: más de 70.000 K - Estrellas de Wolf-Rayet. Estas estrellas superluminosas son muy distintas a otros tipos estelares por mostrar grandes cantidades de helio. Se considera que son grandes supergigantes en el final de sus vidas con su capa de hidrógeno exterior expulsada por el fuerte viento estelar causado a tan altas temperaturas. Por este motivo dejan expuesto su núcleo rico en helio.

* L: 1500 - 2000 K - Estrellas con masa insuficiente para desarrollar reacciones nucleares. Son enanas marrones, estrellas de poca masa incapaces de producir reacciones termonucleares de hidrógeno y que conservan intacto el litio que es destruido por reacciones termonucleares en estrellas mayores (L proviene de hecho del litio presente en estas estrellas). Estas estrellas son tan frías que emiten en el infrarrojo cercano.

* T: 1000 K - Se trata de estrellas T Tauri, muy jóvenes y de baja masa, algunas a temperaturas tan frías como 600 K. Se trata muy probablemente de estrellas de baja masa en proceso de formación y suelen estar rodeadas de discos de acreción.

* C: estrellas de carbono. Se subdividen en los siguientes tipos: R, N y S. Se trata de gigantes rojas en el final de sus vidas.

* D: enanas blancas, por ejemplo Sirio B. La mayoría de las estrellas terminan sus vidas perteneciendo a este tipo.

Temperatura de color


El color asociado a cada estrella se basa en los colores asociados a las longitudes de onda donde la curva de Planck tiene el máximo de energía para cada temperatura. La Ley de Wien nos proporciona la longitud de onda que corresponde al valor máximo, sin embargo dependiendo de dónde se ubique el máximo, será el color con el que percibiremos la estrella. 


El siguiente gráfico de la energía en función de la longitud de onda sirve como ejemplo. En el primer gráfico la estrella se nos presenta rojiza, ya que el máximo de energía se encuentra cercano a la longitud de onda que corresponde al rojo. En el segundo gráfico, la estrella la veremos de color blanco-amarillenta, ya que los valores máximos cubren todo el espectro visible. En el tercer gráfico, la estrella será vista en un color blanco-azulado.

Distancias estelares
El método clásico de medir la distancia a una estrella es el cálculo de su paralaje, lo que equivale a hallar geométricamente el ángulo, en segundos de arco, en el que cabe el radio de la órbita de la Tierra alrededor del Sol, visto desde el astro. Este método tiene sentido práctico para distancias menores a 20 pársec (2” o 65 años luz) ya que a mayores distancias, el error se vuelve significativamente grande. Se ha hallado un método para medir distancias mayores a 20 pársec, con mayor precisión, basado en las magnitudes luminosas de las estrellas.
Figura: 7.


En el año 120 a.c. el astrónomo griego Hiparco compiló un catálogo de aproximadamente un millar de estrellas identificándolas por su brillo relativo. Utilizó una escala de seis magnitudes asignándoles magnitud 1 a las más brillantes y 6 a las menos brillantes. Este catálogo fue perfeccionándose y ampliándose con el tiempo hasta observar estrellas muy débiles de magnitud 27. En 1830 el astrónomo inglés John Herschel (1792-1871) encontró la relación de intensidades correspondientes a una diferencia de magnitud, sabiendo que una estrella de magnitud 1 es 100 veces más brillante que una de magnitud 6. Es decir:
Donde I6 e I1 son las magnitudes y k es la relación entre éstas. Por lo tanto:
Sin embargo lo que observamos como magnitudes de las estrellas se corresponde con el brillo aparente que ellas tienen vistas desde la Tierra, pero éstos no son los brillos reales, ya que están ubicadas a diferentes distancias. Para poder comparar sus brillos intrínsecos debemos conocer estas distancias y, dados estos valores, definimos las Magnitudes Absolutas. 
Se define como magnitud absoluta de una estrella (M) a la magnitud que esta tendría si estuviera situada a una distancia de 10 pársec de la Tierra (ó 0,1” de paralaje). De esta manera, al ubicar a todas las estrellas a la misma distancia, podemos comparar sus brillos entre sí.

La magnitud absoluta está dada por:
Donde d es la distancia de la estrella.


Velocidad


El movimiento de las estrellas se realiza en tres dimensiones. El llamado movimiento propio es perpendicular a la visual, con el cual puede determinarse la velocidad tangencial de la estrella, si se conoce la distancia a la que se encuentra la estrella, y además, si se acercan o se alejan del observador, desplazamientos que se miden a través de la denominada velocidad radial.
El desplazamiento total de una estrella se calcula sobre la base de sus velocidades radial (Vr) y tangencial (Vt), componiendo ambas mediante la regla del paralelogramo. La composición de dichas velocidades se conoce como velocidad espacial de la estrella (Ve) y se expresa como:

Ve 2  = Vr  2 + Vt 2


La Ve que resulta, es la velocidad espacial relativa de la estrella con respecto al observador; para obtener la velocidad absoluta se debe restar la velocidad del observador.


La dirección del movimiento de la estrella se deduce geométricamente de la razón entre sus velocidades radial y tangencial; puede estimarse además por el ángulo que forma la velocidad espacial con la dirección de la visual. 


La velocidad radial es la componente de la velocidad de la estrella en el sentido de la visual dirigida a la misma. Sirio, la estrella más brillante del cielo tiene una velocidad radial de -8 km/seg.

La medición de las velocidades radiales se realiza mediante el análisis del espectro de las estrellas; las líneas espectrales de los elementos de la serie periódica que aparecen en él se desplazan hacia el azul o hacia el rojo según que la fuente luminosa se acerque o se aleje del observador. Este fenómenos es denominado efecto Doppler de la luz.


Por otra parte, ese desplazamiento de las líneas en el espectro es proporcional a la velocidad de la fuente, lo cual permite determinar la velocidad radial de una estrella midiendo el corrimiento de las líneas de su respectivo espectro. La medida se reduce a obtener el espectro de la estrella superpuesto a un espectro de comparación de una fuente terrestre. Si en el espectro estelar se mide el desplazamiento, mediante la expresión del efecto Doppler encontramos que la velocidad radial es igual al producto de la velocidad de la luz multiplicada por el desplazamiento de la longitud de onda de esa misma línea con respecto a la posición normal de la línea en un espectro de referencia
determinado en un laboratorio terrestre.


Figura: 8


Gráfico del corrimiento espectral debido a la velocidad. En primer lugar vemos un par de líneas espectrales del Sol. En segundo lugar, las mismas líneas, corridas hacia el rojo, en una galaxia que se aleja rápidamente de nosotros. En tercer lugar, las mismas líneas, aún más corridas, en una galaxia que se aleja más rápidamente.

Rotación


En una estrella en rotación, si tomamos un diámetro, sobre su disco aparente, que resulte perpendicular al eje de rotación de la estrella, podremos observar, en los puntos opuestos del diámetro, diferentes velocidades radiales, ya que un punto se aleja de nosotros mientras el otro se acerca. Este fenómeno es detectable debido al efecto Doppler producido en la luz que nos llega de cada punto.


Desde el punto que se acerca a nosotros, su luz nos llega ligeramente desplazada hacia el violeta (menor longitud de onda), mientras que desde el punto que se aleja recibimos su luz desplazada hacia el rojo (mayor longitud de onda).


Como la mayoría de las estrellas se nos aparecen como puntos luminosos, en la luz que nos llega de ellas está contenida toda la información junta de todos los fenómenos que se dan en el astro en un instante de tiempo. Sin embargo es posible detectar el efecto Doppler producido por la rotación en las líneas espectrales. Al recibir simultáneamente el corrimiento hacia el violeta y hacia el rojo, en el espectro observamos la suma de estos efectos, por lo que las líneas se nos aparecen ensanchadas.
Figura: 9


Si la estrella rota rápidamente, las líneas aparecerán notablemente ensanchadas, y poco ensanchadas si la velocidad de rotación es menor.

Aplicando este procedimientos a miles de estrellas se han podido obtener velocidades de rotación de 100 km/s a 250 km/s para estrella azuladas, de unos pocos kilómetros por segundo para estrellas amarillas (como el Sol) y de muy baja velocidad de rotación para estrellas rojas.

Figura: 10.


Gráfico de ensanchamiento rotacional (velocidad ecuatorial de 1,2,5,10,20 o 40 km/s). Debido a la conservación de la energía se produce una disminución de la profundidad de la línea cuando la velocidad rotacional aumenta.

Composición química superficial


La radiación que corresponde al espectro continuo se produce desde la fotósfera de la estrella. Por encima de la fotósfera se halla una zona de menor temperatura donde se origina una serie de líneas oscuras o de absorción. El hecho de encontrar líneas oscuras en el espectro es indicativo de que el gas de la superficie estelar se encuentra más frío que el de las capas más profundas, dando lugar a que los átomos absorban la energía que proviene del interior de la estrella antes de llegar a nosotros. 

El análisis de estos espectros, en su mayoría de absorción, permite estimar la composición química de las estrellas. En laboratorios terrestres se verifica que cada átomo o molécula define un patrón bien determinado de líneas espectrales, Estas series se ubican en posiciones fijas y diferentes (en cuanto a longitud de onda) para cada elemento. Obtenido un espectro, se puede identificar, sin ambigüedad, los componentes químicos de la estrella, mediante la inspección de la posición de las líneas presentes, en comparación con las obtenidas en los laboratorios terrestres.

Diferentes líneas espectrales en distintas estrellas sugieren, en principio, diferencias en sus composiciones químicas. Sin embargo se puede comprobar que la gran variedad de espectros estelares se debe a diferencias en temperaturas, presión y densidad, más que de composición. 


En una estrella de grandes dimensiones la atmósfera se encuentra más extendida y resulta menos densa que en otra de tamaño menor. En estas condiciones, los átomos ionizados de una estrella tienen menor probabilidad de adquirir electrones libres que en otra más densa y, por lo tanto, de pasar al estado neutro. En estas estrellas de grandes dimensiones, las líneas que corresponden a átomos ionizados son más intensas que las mismas líneas en estrellas más pequeñas, donde la presión del gas es mayor. Estas líneas sirven entonces como indicadores del tamaño de la estrella.

Respecto a la abundancia de los diferentes elementos, se ha podido comprobar que todas las estrellas tienen aproximadamente la misma. Las líneas preponderantes en los espectros estelares corresponden al elemento hidrógeno, pero no siempre están presentes, ya que en las atmósferas de estrellas de muy altas temperaturas, el hidrógeno se encuentra ionizado y no aparecen líneas de absorción de ese elemento; en las de muy bajas temperaturas, la mayoría de los elementos atmosféricos están en estado neutro y se aprecian abundantes líneas de absorción, que ocultan las correspondientes al hidrógeno.



Bibliografía


Mieli, Bruno. “Panorama General de Historia de la Ciencia”. Tomo VII. Ed. Espasa-Calpe. Buenos Aires, octubre de 1958. 


Jaschek, Carlos - Corvalán de Jaschek, Mercedes. “Astrofísica”. Secretaría General de la Organización de los Estados Americanos. Programa Regional de Desarrollo Científico y Tecnológico. Washington DC, 1983 (primera edición 1974).


Estella Escudero, Juana. "Espectros. Una aproximación experimental al estudio mecanocuántico del átomo y de la estructura de la materia". Revista Maina, 1982, Núm. 6, p. 4-11.


Feinstein, Alejandro - Tignanelli, Horacio. “Objetivo Universo”. Editorial Colihue. Buenos Aires, 1999.


Tipler, Paul. Física (tercera edición) Vol II. Cap 35. Editorial Reverté. Barcelona, 1993.