/tech/ - Tech 2.0

Mode: Reply
Name
Subject
Message

Max message length: 4096

Opciones
Files
E-mail
Password

(used to delete files and postings)

Misc

Remember to follow the rules


Choroy 12/22/2025 (Mon) 18:45:02 77333b No. 18896
Aprender ASM te pone el mundo en perspectiva. Intel lleva desde la mitad tardía de los 90 lidiando con errores en el predictor de saltos, derrochando instrucciones y consumiendo energía por montones, porque los cores se equivocan al predecir el siguiente salto, haciendo tareas antes y en vano para simplemente desechar todo el procesamiento circundante que ocurre hasta que se ejecuta la instrucción que realiza el salto. Me sorprende que hubieran transcurrido casi 30 años y siga sin ser un tema preocupante, y muy reducido a investigación científica de nicho. Muy por el contrario, en streaming y media siguen alabando la tecnología de Intel y tienen como factor importante el IPC al momento de elegir un CPU, sin incluir que el juguetito puede consumir hasta un 28~29 % solo por concepto de "predecir mal el siguiente salto". De hecho, una parte importante de la minoría que se dedica a C/C++ y Rust sigue discutiendo sobre optimización equivalente a fracciones de milisegundos, cuando a la gente de Intel le importa media raja si te suben la factura de energía por su incompetencia. Y todo esto sin contar que efectivamente el predictor es una tecnología viable, si está bien implementado, y que se consideró un "salto tecnológico" en los 90. Porque actualmente consumen menos del 1 % de la energía gastada del CPU, pero desperdician casi un 30 %. Y se supone que Intel es la chupada del mate y que han intentado hacer las cosas bien a pesar de sus duros inicios, a diferencia de Nvidia, que le importa una total raja el consumidor. Igual esto explica la migración de Apple de Intel a ARM y su notable rendimiento y eficiencia energética. Seguro que en algún momento investigaron el tema y les salía más a cuenta la operación. Ahora piensen en esta misma wea a nivel IA y consumo originado por tecnologías cripto… teniendo en cuenta que en un momento dentro de los data centers reinaba Intel Xeon. Ni idea cómo será con ARM, RISC y MIPS que reinan por ahora en redes. Y la guinda de la torta: Intel lleva décadas traduciendo instrucciones a microinstrucciones. Recuerden eso cuando se pongan a llorar por Python y JavaScript.
:0

Delete
Report