Daily Archives: January 19, 2012

Ley de Ohm nanométrica

La ley de Ohm sigue siendo válida una vez alcanzados los límites de la ley de Moore.

Un grupo de investigadores de las universidades de Melbourne, Nueva Gales del Sur y Purdue han encontrado los límites de transporte de corriente a escala nanométrica. Han usado tanto simulaciones a escala atómica como experimentos para demostrar que un hilo 20 veces más fino que los que hay en los microprocesadores actuales aún mantiene una capacidad de resistencia pequeña y obedecen todavía a la ley de Ohm. La ley de Ohm establece que la caída de voltaje a través de un conductor es igual al producto de su resistencia por la intensidad de corriente que circula por él. El estudio muestra que esta ley se puede aplicar incluso a la escala atómica.

El resultado es toda una sorpresa porque la visión tradicional sugería que los efectos cuánticos a esa escala producirían grandes desviaciones de esta ley. La ausencia de efecto cuánticos a esta escala sorprende más si cabe porque las medidas se realizaron a 4,2 kelvin y uno espera que los efectos cuánticos se hagan notar más a temperaturas bajas cercanas al cero absoluto. El sorprendente resultado nos dice que esta ley es un bloque fundamental de la Naturaleza.

El estudio también marca un final para la ley de Moore, ley empírica según la cual cada 18 meses se duplica el número de transistores en un circuito integrado, pues determina que una simple fila densa de átomos de fósforo embebidos en silicio es el límite definitivo de miniaturización. Según este resultado los componentes de un microchips podrían ser 10 veces más pequeños sin que se produzcan problemas.

Un gran problema que siempre preocupa a los expertos en chips es cómo miniaturizar los componentes aún más y que no haya fugas de corriente de un conductor al de al lado, sobre todo por efecto túnel mecánico-cuántico. Algo que introduciría ruido o malfuncionamiento en el sistema. De ahí que se crea que llegará un momento en el que la ley de Moore no se mantenga, incluso antes de llegar a la escala atómica. La puerta de los transistores de los chips actuales mide 22 nm, es decir, el tamaño de un centenar de átomos de silicio.

Para poder demostrar todo esto los investigadores tuvieron que construir átomo a átomo diversos circuitos en lugar de usar las técnicas habituales empleadas en la manufactura de circuitos integrados, que no tenían precisión suficiente. Encontraron que una cinta de 1 átomo de alto por 4 de ancho puede todavía funcionar como un hilo conductor tan bueno como uno mayor hecho de metal.

El fósforo tiene un electrón más que el silicio en su capa exterior y cuando reemplaza a un átomo de silicio en la red dona ese electrón, que pasa a ser un electrón libre en el cristal (es lo que se llama dopado de tipo n). Dopando (contaminando) con fósforo se pueden cambiar las propiedades del silicio, algo que se viene haciendo desde que se empezaron a inventar los propios transistores.

En este estudio se aprovecha al máximo esta propiedad empaquetando densamente átomos de fósforo en una matriz cristalina de silicio para así crear un conductor lineal. La alta concentración de átomos de fósforo produce una alta densidad de electrones y su scattering mutuo destruye la coherencia cuántica, dando lugar a un comportamiento clásico.

Ya se está a punto de conseguir transistores hechos con átomos individuales, pero conseguir un chip a partir de ellos es muy complicado debido a que la necesaria circuitería tiene que bajar hasta casi la escala atómica para poder interconectar esos transistores entre sí. Para ello no se podría usar el cobre que se usamos habitualmente, sino que habría que usar otros elementos y métodos. Es aquí donde encaja el hilo de fósforo de 1×4 átomos de sección. Un hilo densamente dopado de este tipo es una alternativa viable para la nueva generación de chips de silicio.
Adicionalmente, y paradójicamente, los autores de este estudio apunta que basándose en los resultados quizás sea posible algún día realizar computaciones cuánticas basadas en silicio. Aunque sobre este punto no todos los expertos están de acuerdo y apuntan que es más bien al contrario y que este resultado sugiere que no es fácil conseguir la computación cuántica.

Fuente   http://neofronteras.com/?p=3716

Fuentes y referencias:
Nota de prensa.
Artículo original

News from the Library: Learning a profession at the CERN Library

As you all know, training is very important at CERN, and each year the Organization welcomes thousands of students in various areas. However, did you know that it is also possible to learn the profession of Library Assistant (Agent en Information Documentaire - AID)?

 

For more than 10 years the CERN Library has been providing apprenticeship posts in information science. This apprenticeship lasts three years, during which apprentices share their time between school and work at CERN. The apprenticeship is governed by the laws, regulations and contracts in force in the Canton of Geneva. If they pass the final examinations, apprentices get the Certificat fédéral de capacité suisse (CFC).

The library has trained some fifteen apprentices - who have then gone on to work in different institutions in Geneva or elsewhere in Europe - and it is continuing its momentum with a new apprenticeship post, available from September 2012.

For more information on apprenticeships in Geneva, please contact the Office pour l'orientation, la  formation professionnelle et continue (OFPC).

For information on AID apprenticeships at CERN, please contact: Anne.Gentil-Beccot@cern.ch.

 

 

The Importance of Statistics in High-Energy Physics

The search for the Higgs boson receives regular input from the Stats Committee

“If you remember, Mark Twain once said, ‘There are three kinds of lies: lies, damned lies, and statistics.’ If you use statistics in an improper way, you could get pretty much any result,” says Greg Landsberg, CMS’s new physics coordinator. “The role of the CMS Statistics Committee is to interpret what we see in a statistically correct way.”

“All of our physics results depend on statistical procedures that we perform on the data we obtain,” adds Tommaso Dorigo, the new chairperson of the CMS Statistics Committee. Terms like “statistical significance” play a key role in categorising observed signals as hints, evidence or discovery. “Upon performing a search for a new particle or process,” Dorigo continues, “you rarely observe such a huge new signal that you do not need to quantify its size or whether it may be due to a fluctuation. You have to have a procedure with which you can give a mathematical interpretation of your data in terms of how significant your result is.”

One of the tasks of the Statistics Committee is to produce guidelines on the statistical methods to be used by the many analyses within the collaboration. The team makes recommendation to the analysis teams to ensure that CMS papers do not contain statistical claims that are unsupported by the data. “It is an attempt to make our papers coherent in the way they present the results,” says Dorigo.

“By now in particle physics, we have very well-defined statistical methods. And it’s very important to use them uniformly across the collaboration and also to communicate with ATLAS, ALICE and LHCb with the view of combining results,” adds Landsberg.

In the last year, CMS has moved into the combination regime, having combined the Bs??? result with LHCb and the Higgs limits with half of 2011’s statistics with ATLAS. Since all of the LHC experiments are designed differently and the individual results are obtained by different methods, how to go about combining the results is not always obvious. The CMS Statistics Committee has to join forces with the other experiments in order to recommend statistical methods that are acceptable to all.

Statistics are involved not only in the mathematical framework for comparing experiment with theory but also in building the right computer tools to select interesting data from collisions. This parallel branch of statistics activities is now represented at the committee: Gennadiy Kukartsev, who is co-leading the Physics Analysis Tools group at CMS, is an ex-officio member. “In this new incarnation,” says Landsberg, “we hope that the Statistics Committee will not only make recommendations on a theoretical basis but also provide more practical tools, pieces of code and examples.”

Under a new chairperson, the committee has been enlarged from nine members to eleven. The reason: CMS has published over 100 physics papers so far, and the rate of papers will only increase with time. “The current size of the committee is just not sufficient to follow all the papers,” points out Landsberg.

The committee also provides a helpline to answer statistics questions almost in real-time, and is looking to expand this function. As more people get involved in the analyses, the greater is the demand for help in tackling statistics problems.

The interaction between the committee and the physics groups has also changed. Plans are to establish a sustainable two-way communication between the Statistics Committee and the physics conveners through regular talks and surveys. The committee’s weekly meetings are also now open to every collaborator, and you are encouraged to participate should you have any questions. More information including news, meeting timings and relevant documents can be found at https://cms.web.cern.ch/org/statistics-committee.

— Submitted by Achintya Rao

Category: