¿Qué es Gigahertz?

Significado de Gigahertz (Qué es y Definición)

Un gigahercio equivale a 1.000 megahercios(MHz) o 1.000.000.000 Hz. Se suele utilizar para medir la velocidad de procesamiento de los ordenadores. Durante muchos años, las velocidades de los ordenadores CPU se medían en megahercios, pero después de que los ordenadores personales eclipsaran la marca de los 1.000 Mhz alrededor del año 2000, el gigahercio se convirtió en la unidad de medida estándar. Al fin y al cabo, es más fácil decir “2,4 gigahercios” que “2.400 megahercios”.

Aunque el gigahercio se utiliza más comúnmente para medir la velocidad del procesador, también puede medir la velocidad de otras partes del ordenador, como la RAM y la caché trasera. La velocidad de estos componentes, junto con otras partes del ordenador, también influyen en el rendimiento general del ordenador. Por lo tanto, al comparar ordenadores, recuerde que el número de gigahercios no es lo único que importa.

Abstracción:GHz.

La definición de Gigahertz en esta página es la definición original de SharTec.eu.
El objetivo de SharTec.eu es explicar la terminología informática de una manera fácil de entender. Nos esforzamos por ser simples y precisos en todas las definiciones que publicamos. Si tiene algún comentario sobre la definición de Gigahercios o desea sugerirnos un nuevo término técnico, póngase en contacto con nosotros.