¿Qué es Nanometer?

Significado de Nanometer (Qué es y Definición)

Un nanómetro (también “nanómetro”) es una unidad de medida utilizada para medir la longitud. Un nanómetro es la milmillonésima parte de un metro, por lo que los nanómetros no se utilizan para medir grandes distancias. En cambio, sirven para medir objetos extremadamente pequeños, como las estructuras atómicas o los transistores que se encuentran en las modernas CPUs.

Un solo nanómetro es un millón de veces más pequeño que un milímetro. Si se toma una milésima de milímetro, se tiene un micrómetro, o una sola micra. Si se divide esa micra entre 1.000, se tiene un nanómetro. No hace falta decir que un nanómetro es extremadamente pequeño.

Dado que los circuitos integrados de los ordenadores procesadores contienen componentes microscópicos, los nanómetros son útiles para medir su tamaño. De hecho, las diferentes épocas de los procesadores se definen en nanómetros, en los que el número define la distancia entre los transistores y otros componentes dentro de la CPU. Cuanto más pequeño es el número, más transistores pueden colocarse dentro de la misma área, lo que permite diseños de procesadores más rápidos y eficientes.

La línea de procesadores de Intel, por ejemplo, ha incluido chips basados en los procesos de 90-nanómetros, 65-nanómetros, 45-nanómetros y 32-nanómetros. En 2011, Intel lanzó chips creados con un proceso de 22 nanómetros. El diseño “Broadwell” de Intel, presentado en 2014, utiliza un proceso de 14 nanómetros.

Abstracción:nm

La definición de Nanometer en esta página es la definición original de SharTec.eu.
El objetivo de SharTec.eu es explicar la terminología informática de una manera fácil de entender. Nos esforzamos por ser simples y precisos en todas las definiciones que publicamos. Si tiene algún comentario sobre la definición de Nanómetro o desea sugerirnos un nuevo término técnico, póngase en contacto con nosotros.