Pregunta interesante y ya tienes algunas respuestas interesantes. Sin embargo, me gustaría agregar algunos pensamientos también y trataré de construir mi respuesta sobre las respuestas anteriores.
Para empezar, el “poder de una computadora” es un término ambiguo en el contexto. Asumiré que es una medida de la capacidad informática.
La idea de Garry es el origen de la computación distribuida / computación en clúster / supercomputación y muchas otras jergas técnicas relacionadas para decir que muchas unidades de computación trabajan en colaboración para hacer una computación determinada.
Hace décadas, llegamos a los límites prácticos de lo que comúnmente se conoce como CPU. Hasta entonces, la estrategia principal era aumentar la velocidad del reloj de la arquitectura uni-procesador convencional. Luego llegó un punto en el que eso ya no era factible debido al elevado requisito de energía y los consecuentes problemas de enfriamiento.
- ¿Cuál es la mejor solución de batería para un consumidor de energía industrial que experimenta frecuentes cortes de energía de la red?
- ¿Qué es la ingeniería eléctrica?
- ¿Por qué la corriente del colector BJT no depende del potencial de unión colector-emisor?
- ¿Pueden la potencia activa y la potencia reactiva ser iguales en un circuito? Si es así, ¿en qué condición o ángulo?
- Cómo rastrear circuitos eléctricos en automóviles
Como resultado, se desarrollaron sistemas multi / muchos núcleos. Se inventaron diferentes niveles de paralelismo (por ejemplo, nivel de instrucción, nivel de tarea, …) y estas ideas formaron la base del nuevo concepto. Sin embargo, no estoy totalmente de acuerdo con ” pero no hay un límite real sobre cuántos de esos procesadores podemos tener (Garry Taylor)”. Teóricamente, ture; No hay límite. Citando Wikipedia, ” Tianhe-1A consume 4,04 megavatios (MW) de electricidad. El costo para alimentar y enfriar el sistema puede ser significativo, por ejemplo, 4 MW a $ 0.10 / kWh es $ 400 por hora o alrededor de $ 3.5 millones por año “, ahora ve el problema. Al momento de escribir este artículo, el requerimiento de energía de la supercomputadora más potente del mundo Tianhe-2 (33.86 pflops, 32,000 núcleos Xeon E5 y 48,000 Xeon Phis) es de 17.6 MW.
Por otro lado, escribir el software adecuado juega un papel muy importante para aprovechar al máximo los recursos disponibles. Debido al hecho de que el paradigma de programación convencional (y el pensamiento humano) se basa en la ejecución secuencial, requiere un esfuerzo adicional para escribir programas paralelos. Incluso ahora, se están realizando muchas investigaciones en diferentes áreas, como algoritmos paralelos, compiladores paralelos, modelos de programación, etc. Por lo tanto, en la práctica, todos estos son factores limitantes para lograr el máximo poder de cómputo.
Dicho esto, permítanme desviarme para mostrar otro aspecto del problema. La potencia de procesamiento de las computadoras mejoró a pasos agigantados a lo largo de los años, pero la velocidad de la memoria no lo hizo al mismo ritmo. Esta brecha de velocidad entre el procesador y la memoria casi nos impide la utilización máxima de la CPU en la arquitectura convencional de Von-Neumann que todavía se usa en la actualidad. Entonces, en cierto modo, es justo decir (al menos para las aplicaciones vinculadas a la memoria), no es más potencia de cómputo lo que necesitamos sino ancho de banda de memoria. (¡Comida para el pensamiento!)
En este momento, estamos en el rango de petaflops y no pasará mucho tiempo hasta que alcancemos el exascale y continuemos mejorando. Entonces, para responder la pregunta, NO, no existe tal límite para el poder de la informática. Si no puede crecer en una dirección, lo hará en otra.
Con todo, la conclusión es que el poder de una computadora depende de una serie de factores y simplemente acumular núcleos no resolverá el problema.
PD: No estoy calificado para dar detalles sobre la respuesta de Johnny en computadoras cuánticas, pero he encontrado ideas interesantes sobre el tema. Entonces hay esperanza. 🙂