Procesadores paralelos y series

Un procesador.
Por anthony markesino

Procesamiento paralelo

El procesamiento paralelo requiere una técnica por la que los conjuntos de datos complejos se dividen en hilos individuales y se procesan simultáneamente por uno o más núcleos. Tanto AMD como Intel han incorporado esta técnica (conocida como HTT) para aumentar mucho la velocidad a la que funcionan. Hasta hace poco, esto no siempre proporcionaba un aumento significativo en la velocidad porque la tecnología para dividir los conjuntos de datos y después volver a unirlos estaba en sus principios.


Procesamiento en serie

El procesamiento en serie requiere una técnica en la que los datos se ordenan secuencialmente y después son calculados por un procesador individual. Esta técnica funciona muy bien con listas ordenadas que usan contracciones parecidas. El mayor problema con esto es que sólo se puede procesar un bit de datos cada vez y los programas complejos no se pueden dividir en segmentos menores.


Supercomputación

Muchos desarrolladores han llevado el desarrollo del procesamiento paralelo hacia el siguiente paso al crear redes de supercomputadoras potentes. Estas redes trabajan al unísono a través del uso de software de controlador complicado que actúa para dividir la programación compleja y las ecuaciones a través de la red y después recoge los datos totales. Algunas de las supercomputadoras más potentes fueron inicialmente desarrollos militares o educativos, hasta el año 2000, cuando los clústers más grandes fueron operados por compañías de videojuegos para dar soporte a los juegos en línea multjugador masivos (MMOG). En 2008, la red de supercomputación más grande era del proyecto Folding@home, que consiste en varios millones de PlayStation 3 por todo el mundo.


Importancia

Según la ley de Moore (Gordon Moore, Intel Corporation), la potencia de procesamiento (densidad del transistor) de las computadoras aumenta a una velocidad fija, doblando aproximadamente cada número determinado de años. La introducción de los procesos avanzados de fabricación menores que 65 nanómetros ha permitido desarrollos importantes en la potencia de las CPU, debido principalmente a la posibilidad de colocar varios núcleos de procesamiento en un único componente. Ahora que se ha desarrollado una arquitectura de control suficiente para decodificar adecuadamente y montar estructuras de programación complejas, los procesadores paralelos han excedido mucho a sus predecesores.


Conclusiones

El procesamiento en serie era la mejor forma de procesar conjuntos de datos hasta que las tecnologías hardware y software finalmente se combinaron y hicieron posible el procesamiento paralelo. El Proyecto del Genoma Humano tiene tres billones de conjuntos de datos y se esperaba que tardara cerca de 100 años en decodificarse por completo. Sin embargo, casi toda la secuencia del ADN del homo sapiens ha sido decodificada en sólo 13 años, gracias a las redes masivas de supercomputadoras y al uso del procesamiento paralelo.