Una breve historia de la Mecanica Cuantica. A Brief History Of Quantum Mechanics

The history of quantum mechanics began essentially with the 1838 discovery of cathode rays by Michael Faraday, the 1859 statement of the black body radiation problem by Gustav Kirchhoff, the 1877 suggestion by Ludwig Boltzmann that the energy states of a physical system could be discrete, and the 1900 quantum hypothesis by Max Planck that any energy is radiated and absorbed in quantities divisible by discrete energy elements, E, such that each of these energy elements is proportional to the frequency ? with which they each individually radiate energy.

Planck insisted that this was simply an aspect of the processes of absorption and emission of radiation and had nothing to do with the physical reality of the radiation itself.

However, at that time, this appeared not to explain the photoelectric effect (1839), i.e. that shining light on certain materials can function to eject electrons from the material.

In 1905, basing his work on Plancks quantum hypothesis, Albert Einstein postulated that light itself consists of individual quanta. These later came to be called photons (1926). From Einstein's simple postulation was born a flurry of debating, theorizing and testing, and thus, the entire field of quantum physics.

Quantum mechanics (QM) is a set of principles describing the physical reality at the atomic level of matter (molecules and atoms) and the subatomic (electrons, protons, and even smaller particles). These descriptions include the simultaneous wave-like and particle-like behavior of both matter and radiation ("waveparticle duality").

Read more

Quantum Mechanics is a mathematical description of reality, like any scientific model. Some of its predictions and implications go against the "common sense" of how humans see a set of bodies (a system) behave. This isn't necessarily a failure of Quantum mechanics - it's more of a reflection of how humans understand space and time on larger scales (e.g., centimetres, seconds) rather than much smaller.

Quantum mechanics says that the most complete description of a system is its wavefunction, which is just a number varying between time and place. One can derive things from the wavefunction, such as the position of a particle, or its momentum. Yet the wavefunction describes probabilities, and some physical quantities which classical physics would assume are both fully defined together simultaneously for a system are not simultaneously given definite values in Quantum mechanics.

It is not that the experimental equipment is not precise enough - the two quantities in question just are not defined at the same time by the Universe. For instance, location and velocity do not exist simultaneously for a body (this is called the Heisenberg uncertainty principle)

Certain systems, however, do exhibit quantum mechanical effects on a larger scale; superfluidity (the frictionless flow of a liquid at temperatures near absolute zero) is one well-known example. Quantum theory also provides accurate descriptions for many previously unexplained phenomena such as black body radiation and the stability of electron orbitals. It has also given insight into the workings of many different biological systems, including smell receptors and protein structures.

Even so, classical physics often can be a good approximation to results otherwise obtained by quantum physics, typically in circumstances with large numbers of particles or large quantum numbers. (However, some open questions remain in the field of quantum chaos.)

Modern Physics: Quantum Mechanics
This Stanford Continuing Studies course is the second of a six-quarter sequence of classes exploring the essential theoretical foundations of modern physics. The topics covered in this course focus on quantum mechanics. The course is taught by Leonard Susskind, the Felix Bloch Professor of Physics at Stanford University.

Particle physics is a branch of physics that studies the elementary constituents of matter and radiation, and the interactions between them. It is also called high energy physics, because many elementary particles do not occur under normal circumstances in nature, but can be created and detected during energetic collisions of other particles, as is done in particle accelerators. Research in this area has produced a long list of particles.


Modern particle physics research is focused on subatomic particles, including atomic constituents such as electrons, protons, and neutrons (protons and neutrons are actually composite particles, made up of quarks), particles produced by radioactive and scattering processes, such as photons, neutrinos, and muons, as well as a wide range of exotic particles.

Strictly speaking, the term particle is a misnomer because the dynamics of particle physics are governed by quantum mechanics. As such, they exhibit wave-particle duality, displaying particle-like behavior under certain experimental conditions and wave-like behavior in others (more technically they are described by state vectors in a Hilbert space; see quantum field theory).

Following the convention of particle physicists, "elementary particles" refer to objects such as electrons and photons, it is well known that these "particles" display wave-like properties as well.

All the particles and their interactions observed to date can almost be described entirely by a quantum field theory called the Standard Model.

The Standard Model has 17 species of elementary particles (12 fermions (24 if you count antiparticles separately), 4 vector bosons (5 if you count antiparticles separately), and 1 scalar bosons), which can combine to form composite particles, accounting for the hundreds of other species of particles discovered since the 1960s.

The Standard Model has been found to agree with almost all the experimental tests conducted to date. However, most particle physicists believe that it is an incomplete description of nature, and that a more fundamental theory awaits discovery. In recent years, measurements of neutrino mass have provided the first experimental deviations from the Standard Model.

Particle physics has had a large impact on the philosophy of science. Some particle physicists adhere to reductionism, a point of view that has been criticized and defended by philosophers and scientists. Part of the debate is described below.


The current state of the classification of elementary particles is the Standard Model. It describes the strong, weak, and electromagnetic fundamental forces, using mediating gauge bosons.

The species of gauge bosons are the gluons, W? and W+ and Z bosons, and the photons. The model also contains 24 fundamental particles, which are the constituents of matter. Finally, it predicts the existence of a type of boson known as the Higgs boson, which is yet to be discovered.


In particle physics, an elementary particle or fundamental particle is a particle not known to have substructure; that is, it is not known to be made up of smaller particles. If an elementary particle truly has no substructure, then it is one of the basic building blocks of the universe from which all other particles are made. In the Standard Model, the quarks, leptons, and gauge bosons are elementary particles.

Historically, the hadrons (mesons and baryons such as the proton and neutron) and even whole atoms were once regarded as elementary particles. A central feature in elementary particle theory is the early 20th century idea of "quanta", which revolutionised the understanding of electromagnetic radiation and brought about quantum mechanics.

For mathematical purposes, elementary particles are normally treated as point particles, although some particle theories such as string theory posit a physical dimension.

The Cassiopeia Project - making science simple!

The Cassiopeia Project is an effort to make high quality science videos available to everyone. If you can visualize it, then understanding is not far behind.

• http://www.cassiopeiaproject.com

En física, la mecánica cuántica (conocida originalmente como mecánica ondulatoria) es una de las ramas principales de la física que explica el comportamiento de la materia y de la energía. Su campo de aplicación pretende ser universal (salvando las dificultades), pero es en el mundo de lo pequeño donde sus predicciones divergen radicalmente de la llamada física clásica.

De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante teoría de perturbaciones. La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar) y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar ha sido la interacción gravitatoria.

La mecánica cuántica es la base de los estudios del átomo, los núcleos y las partículas elementales (siendo ya necesario el tratamiento relativista) pero también en teoría de la información, criptografía y química.

La mecánica cuántica es la última de las grandes ramas de la física. Comienza a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar lo que nos rodea, la ley de gravitación universal y la teoría electromagnética clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría electromagnética generaba un problema cuando intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Pues bien, usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica daba infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos.

Es en el seno de la mecánica estadística donde nacen las ideas cuánticas en 1900. Al físico Max Planck se le ocurrió un truco matemático: que si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua se dejaba de obtener un infinito como resultado, con lo que eliminaba el problema y, además, el resultado obtenido concordaba con lo que después era medido. Fue Max Planck quién entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de cuantos de luz o fotones de energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín por el científico alemán Max Planck.

La idea de Planck hubiera quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas independientes de energía (los cuantos de luz o fotones). Fue Albert Einstein quién completó en 1905 las correspondientes leyes de movimiento con lo que se conoce como teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica. Usó este punto de vista llamado por él “heurístico”, para desarrollar su teoría del efecto fotoeléctrico. Publicó esta hipótesis en 1905 y le valió el Premio Nobel de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir la que resuelve cual es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo.

El siguiente paso importante se dió, hacia 1925, cuando Louis de Broglie propuso que cada partícula material tiene una longitud de onda, asociada inversamente proporcional a su masa, (le llamó momentum), y dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las "ondas de materia" cuya existencia había propuesto de Broglie y varios experimentos sugerían eran reales.

La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los paradigmas físicos anteriores, con ella se descubre que el mundo atómico no se comporta como esperaríamos. Los conceptos de incertidumbre, indeterminación o cuantización son introducidos por primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.

Las velocidades de las partículas constituyentes no deben ser muy altas, o próximas a la velocidad de la luz.

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:

Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.

Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto que puede ser localizado en una región especial del Espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.

Las propiedades físicas de objetos con historias relacionadas pueden ser correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía.

Efecto Compton.

El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica y la física de partículas.

La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.

Las suposiciones más importantes de esta teoría son las siguientes:

Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula queda regido por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.

Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del sistema o función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin embargo, si se realiza una medida sobre el sistema este sufre un "salto cuántico" hacia un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado será una proyección ortogonal del estado original).

Existen diferencias perceptibles entre los estados ligados y los que no lo están.
La energía no se intercambia de forma continua en un estado ligado, sino en forma discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos, mientras en los estados no ligados la energía se comporta como un continuo.

Aunque la estructura formal de la teoría está bien desarrollada, y sus resultados son coherentes con los experimentos, no sucede lo mismo con su interpretación, que sigue siendo objeto de controversias.

En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados posibles de un sistema cuántico están representados por vectores unitarios (llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). La naturaleza exacta de este espacio depende del sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el espacio de funciones de cuadrado integrable. La evolución temporal de un estado cuántico queda descrita por la Ecuación de Schrödinger, en la que el Hamiltoniano, el operador correspondiente a la energía total del sistema, tiene un papel central.

Cada observable queda representado por un operador lineal hermítico definido sobre un dominio denso del espacio de estados. Cada estado propio de un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del observable en aquel estado propio. Es el espectro del operador es discreto, el observable sólo puede dar un valor entre los eigenvalores discretos. Durante una medida, la probabilidad de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad de un observable en un estado dado computando la descomposición espectral del operador correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos observables no conmutan.

Relatividad y la mecánica cuántica

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad general y la mecánica cuántica, aunque ambas teorías parecen contradecirse mutuamente. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del quántum están incuestionablemente apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se resisten a ser incorporadas dentro de un mismo modelo coherente.

El mismo Einstein es conocido por haber rechazado algunas de las demandas de la mecánica cuántica. A pesar de ser claramente inventivo en su campo, Einstein no aceptó la interpretación ortodoxa de la mecánica cuántica tales como la aserción de que una sola partícula subatómica puede ocupar numerosos espacios al mismo tiempo. Einstein tampoco aceptó las consecuencias de entrelazamiento cuántico aún más exóticas de la paradoja de Einstein-Podolsky-Rosen (o EPR), la cual demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitraria. Sin embargo, este efecto no viola la causalidad, puesto que no hay transferencia posible de información. De hecho, existen teorías cuánticas que incorporan a la relatividad especial -por ejemplo, la electrodinámica cuántica, la cual es actualmente la teoría física menos comprobada- y éstas se encuentran en el mismo riñon de la física moderna de partículas.

Principio de incertidumbre

Teoria de Cuerdas

Fuente Wikipedi.org

The Standard Model of Particle Physics

El modelo estándar de la física de partículas es una teoría que describe las relaciones entre las interacciones fundamentales conocidas entre partículas elementales que componen toda la materia. Es una teoría cuántica de campos desarrollada entre 1970 y 1973 que es consistente con la mecánica cuántica y la relatividad especial. Hasta la fecha, casi todas las pruebas experimentales de las tres fuerzas descritas por el modelo estándar están de acuerdo con sus predicciones. Sin embargo, el modelo estándar no alcanza a ser una teoría completa de las interacciones fundamentales debido a que no incluye la gravedad, la cuarta interacción fundamental conocida, y debido también al número elevado de parámetros numéricos (tales como masas y constantes que se juntan) que se deben poner a mano en la teoría (en vez de derivarse a partir de primeros principios).


Share and Enjoy: These icons link to social bookmarking sites where readers can share and discover new web pages.
  • MisterWong
  • Y!GG
  • Webnews
  • Digg
  • del.icio.us
  • StumbleUpon
  • Reddit
  • Ask
  • BarraPunto
  • De.lirio.us
  • Meneame
  • Technorati
  • Upnews
  • YahooBuzz

3 Responses to Una breve historia de la Mecanica Cuantica. A Brief History Of Quantum Mechanics

  1. Pingback: La Mecanica Del Corazon Descargar | Descarga Gratis De

  2. Pingback: Leonard Susskind: My friend Richard Feynman

  3. Hi!
    I'm re-twit you post: to my @juxamist twitter

Leave a Reply