¿Qué tan poderosas serán las computadoras?

Pregunta interesante y ya tienes algunas respuestas interesantes. Sin embargo, me gustaría agregar algunos pensamientos también y trataré de construir mi respuesta sobre las respuestas anteriores.

Para empezar, el “poder de una computadora” es un término ambiguo en el contexto. Asumiré que es una medida de la capacidad informática.

La idea de Garry es el origen de la computación distribuida / computación en clúster / supercomputación y muchas otras jergas técnicas relacionadas para decir que muchas unidades de computación trabajan en colaboración para hacer una computación determinada.

Hace décadas, llegamos a los límites prácticos de lo que comúnmente se conoce como CPU. Hasta entonces, la estrategia principal era aumentar la velocidad del reloj de la arquitectura uni-procesador convencional. Luego llegó un punto en el que eso ya no era factible debido al elevado requisito de energía y los consecuentes problemas de enfriamiento.

Como resultado, se desarrollaron sistemas multi / muchos núcleos. Se inventaron diferentes niveles de paralelismo (por ejemplo, nivel de instrucción, nivel de tarea, …) y estas ideas formaron la base del nuevo concepto. Sin embargo, no estoy totalmente de acuerdo con ” pero no hay un límite real sobre cuántos de esos procesadores podemos tener (Garry Taylor)”. Teóricamente, ture; No hay límite. Citando Wikipedia, ” Tianhe-1A consume 4,04 megavatios (MW) de electricidad. El costo para alimentar y enfriar el sistema puede ser significativo, por ejemplo, 4 MW a $ 0.10 / kWh es $ 400 por hora o alrededor de $ 3.5 millones por año “, ahora ve el problema. Al momento de escribir este artículo, el requerimiento de energía de la supercomputadora más potente del mundo Tianhe-2 (33.86 pflops, 32,000 núcleos Xeon E5 y 48,000 Xeon Phis) es de 17.6 MW.

Por otro lado, escribir el software adecuado juega un papel muy importante para aprovechar al máximo los recursos disponibles. Debido al hecho de que el paradigma de programación convencional (y el pensamiento humano) se basa en la ejecución secuencial, requiere un esfuerzo adicional para escribir programas paralelos. Incluso ahora, se están realizando muchas investigaciones en diferentes áreas, como algoritmos paralelos, compiladores paralelos, modelos de programación, etc. Por lo tanto, en la práctica, todos estos son factores limitantes para lograr el máximo poder de cómputo.

Dicho esto, permítanme desviarme para mostrar otro aspecto del problema. La potencia de procesamiento de las computadoras mejoró a pasos agigantados a lo largo de los años, pero la velocidad de la memoria no lo hizo al mismo ritmo. Esta brecha de velocidad entre el procesador y la memoria casi nos impide la utilización máxima de la CPU en la arquitectura convencional de Von-Neumann que todavía se usa en la actualidad. Entonces, en cierto modo, es justo decir (al menos para las aplicaciones vinculadas a la memoria), no es más potencia de cómputo lo que necesitamos sino ancho de banda de memoria. (¡Comida para el pensamiento!)

En este momento, estamos en el rango de petaflops y no pasará mucho tiempo hasta que alcancemos el exascale y continuemos mejorando. Entonces, para responder la pregunta, NO, no existe tal límite para el poder de la informática. Si no puede crecer en una dirección, lo hará en otra.

Con todo, la conclusión es que el poder de una computadora depende de una serie de factores y simplemente acumular núcleos no resolverá el problema.

PD: No estoy calificado para dar detalles sobre la respuesta de Johnny en computadoras cuánticas, pero he encontrado ideas interesantes sobre el tema. Entonces hay esperanza. 🙂

Las computadoras clásicas pueden alcanzar un límite basado en la potencia requerida para aumentar la velocidad de procesamiento.

Una nueva forma de computadora llamada computadora cuántica superará teóricamente a una computadora clásica en muchos órdenes de magnitud. Actualmente solo hay unas pocas empresas que trabajan en computadoras Quantum. Google es una empresa. D-Wave en Canadá es otra.

Las computadoras cuánticas operan en diferentes principios en lugar de las operaciones binarias que se encuentran en las computadoras clásicas. También están programados de formas completamente diferentes. Actualmente hay un importante debate científico en curso sobre cuándo, si alguna vez, se realizarán verdaderas computadoras Quantum. D-Wave afirma que sus computadoras ya han logrado un rendimiento mayor que el posible con una computadora clásica. No creo que sea una opinión compartida por todos los informáticos.

Las otras respuestas son excelentes, pero creo que la pregunta va a pasar del poder de la computadora a la inteligencia del software que se está ejecutando.

Piensa en esto, de esta manera:

1. Si le pido que divida dos números juntos, lo hará en un tiempo determinado.

2. A medida que le pido que haga más y más números por hora, tendrá que ser cada vez más rápido en el trabajo, pero en algún momento alcanzará un límite y luego comenzará a no cumplir con las expectativas.

3. Sin embargo, si notó que el 90% de las preguntas eran los mismos tres números, simplemente podría almacenar la respuesta y ahorrarse el 90% del trabajo. Esto le permitiría manejar efectivamente más trabajo.

Entonces, si el simple ejemplo anterior, mirar el problema de manera diferente le permitió generar un aumento neto en el rendimiento del sistema sin tener que aumentar la potencia del sistema.

No hay límite teórico real.

Hay un límite sobre cuán pequeños podemos hacer transistores, y por lo tanto procesadores, y también un límite sobre cuánto calor podemos disipar, pero no hay un límite real sobre cuántos de esos procesadores podemos tener.