Revisión de Intel Core i7-11700K

La marcha del rendimiento con las plataformas de escritorio presenta desafíos únicos en comparación con otras plataformas. El rendimiento máximo de un solo hilo a menudo se considera el Santo Grial, con un seguimiento rápido de un buen rendimiento de múltiples núcleos y todos los núcleos dada la naturaleza de cómo se utilizan las plataformas de escritorio con procesos en segundo plano y múltiples aplicaciones simultáneas. Para llevar su mejor rendimiento de un solo núcleo al mercado de las computadoras de escritorio, Intel tuvo que rediseñar su producto de 10 nm en 14 nm, que combina el alto rendimiento del diseño con la alta frecuencia de 14 nm. Estos núcleos Cypress Cove rediseñados forman la base de Intel de nuevo 11 ª Gen familia de procesadores de escritorio, Rocket lago. Hoy estamos revisando el Core i7-11700K, un procesador de ocho núcleos con hyperthreading capaz de aumentar hasta 5.0 GHz.

Aviso: La fecha de lanzamiento oficial de estos procesadores y las revisiones completas es el 30 de marzo . Actualmente estamos bajo un acuerdo de confidencialidad con Intel para la información que ha sido proporcionada por Intel, y publicaremos esa información a su debido tiempo. Sin embargo, como se señaló en varios medios de prensa, algunas unidades ya se han vendido al por menor antes de esa fecha de venta. Las unidades obtenidas por ese método no están bajo NDA por definición, y obtuvimos el Core i7-11700K para esta revisión al por menor y, como tal, no estamos bajo NDA para ninguna información que hayamos obtenido mediante el uso de este procesador.

Antes de publicar esta revisión, notificamos a Intel con anticipación para que nos respondiera con una revisión completa antes del lanzamiento formal. Nuestro correo electrónico aparentemente generó algo de entusiasmo dentro (y para nuestra sorpresa, fuera) de Intel, pero recibimos una respuesta de Intel indicando que no tenían ningún comentario que ofrecer.

Rocket Lake que conocemos: Core i9-11900K y Core i7-11700K

A principios de año, durante el CES, Intel reveló información de producto sobre su producto líder de halo en la plataforma Rocket Lake, el Core i9-11900K. Esto incluye algunos detalles de microarquitectura, así como el recuento de núcleos, la frecuencia, la memoria, los gráficos y las características relacionadas con IO y el chipset. Con nuestra revisión aquí hoy, podemos agregar el 11700K a esos datos con lo que podemos sondear desde el procesador.

Las diferencias entre los dos procesadores Rocket Lake, según la información disponible, son escasas. La principal diferencia es que se sabe que el Core i9 tiene la tecnología Thermal Velocity Boost de Intel, sin embargo, el Core i7 no lo tiene; esto significa que la frecuencia máxima es de solo 5,0 GHz, no 5,3 GHz. La frecuencia de todos los núcleos es solo 200 MHz diferente.

La nueva generación de Rocket Lake es la combinación de dos tecnologías de respaldo diferentes. Intel tomó el núcleo Sunny Cove de 10nm Ice Lake y lo reconstruyó en 14nm, llamándolo ahora Cypress Cove. Intel también tomó los gráficos Xe de 10nm Tiger Lake y los reconstruyó en 14nm, pero estos todavía se llaman gráficos Xe.

Podemos ver que el nuevo diseño es una amalgama de nuevas tecnologías, al comparar Rocket Lake con Comet Lake, Ice Lake y Tiger Lake:

Obviamente, existen algunas diferencias entre las partes de la computadora portátil y la computadora de escritorio, y la más notable es que la nueva plataforma en la gama alta tiene solo ocho núcleos, dos menos que Comet Lake.

Esto se debe a que Intel descubrió que 8 núcleos son el mejor equilibrio entre el área de la matriz, el consumo de energía, el rendimiento y el costo. Varias veces he visto a portavoces de Intel decir que la razón por la que 8 núcleos es ‘lo máximo que podemos caber’, aunque eso es categóricamente falso. Se pueden agregar más núcleos, pero en general funcionarían a una frecuencia más baja para la misma potencia, la interconexión podría no escalar o el tamaño / rendimiento de la matriz elevaría demasiado el precio. La frase “lo máximo que pudimos caber”, según todos los conocimientos técnicos, es una pila humeante. Necesita calificadores adicionales, o simplemente decir ‘el mejor ajuste dado el área, el rendimiento y el costo de la matriz’.

Las mejoras adicionales sobre Comet Lake incluyen unidades AVX512, soporte para 20 carriles PCIe 4.0 y memoria más rápida. Con los nuevos conjuntos de chips, Intel ya ha revelado que la plataforma Rocket Lake tendrá USB 3.2 Gen 2×2 nativo (20 Gbps), y con las placas base Z590, un enlace de doble ancho de banda desde la CPU al conjunto de chips, pasando de DMI x4 a DMI x8, efectivamente un enlace PCIe 3.0 x8.

Rocket Lake en 14nm: lo mejor de una mala situación

Los retrasos en la viabilidad de la fabricación de 10 nm de Intel han sido bien documentados. Hasta la fecha, la compañía ha lanzado varios productos en su proceso de 10 nm para portátiles, como Cannon Lake, Ice Lake, Jasper Lake , Elkhart Lake y Tiger Lake. Ha habido otros productos que no son de consumo, como Agilex FPGA y Snow Ridge 5G SoC, e Intel ha confirmado que sus productos de servidor de 10 nm, ‘ Ice Lake Xeon Scalable ‘, se encuentran actualmente en producción en volumen para un lanzamiento tardío del primer trimestre.

La única línea de productos que falta en esa lista son los segmentos de escritorio y entusiastas que generalmente usan procesadores enchufables combinados con gráficos discretos. Intel siempre se ha comprometido a lanzar procesadores de escritorio en su proceso de 10 nm, sin embargo, aún no hemos visto los resultados de sus esfuerzos. Los problemas que Intel está teniendo con 10nm nunca se han desarrollado por completo, Intel en su lugar optó por promover algunas de las mejoras realizadas, como su nueva tecnología SuperFin, que se encuentra en Tiger Lake y la plataforma de servidor de próxima generación más allá de Ice Lake Xeon Scalable. (para aquellos que llevan un registro, eso sería Sapphire Rapids). Las mejoras de 10 nm hasta ahora han permitido a Intel lanzar procesadores para portátiles y procesadores para servidores, los cuales tienen menor potencia por núcleo que una oferta de escritorio típica.

Como 10nm no ha podido cumplir con los estándares requeridos para el rendimiento a nivel de escritorio, en lugar de dejar una brecha potencial de 3 años en la familia de productos de escritorio, Intel ha estado en un patrón de espera lanzando versiones ligeramente mejoradas de Skylake en variantes ligeramente mejoradas de 14nm. . Los dos primeros miembros de la familia Skylake, Skylake y Kaby Lake, fueron liberados como se esperaba. Mientras esperábamos, vimos a Intel lanzar Coffee Lake, Coffee Lake Refresh y Comet Lake. Cada uno de estos proporcionó actualizaciones menores en frecuencia, o recuento de núcleos o potencia, pero muy poco en el camino de la mejora fundamental de la microarquitectura. El objetivo desde el principio era pasar a 10 nm con la misma arquitectura que los procesadores móviles de Ice Lake, pero eso no era factible debido a las limitaciones de fabricación que limitaban qué tan bien los procesadores escalaban a la potencia del nivel de escritorio.

• Skylake , Core 6 th Gen en agosto de 2015
• Kaby Lake , Core 7 th Gen en enero de 2017
• Coffee Lake , Core 8 th Gen en octubre de 2017
• Coffee Lake Refresh , Core 9 th Gen en octubre de 2018
• Comet Lake , Core 10 th Gen en abril de 2020
• Rocket Lake, Core 11th Gen en marzo de 2021

Con las generaciones anteriores, Intel tradicionalmente había actualizado la tecnología del nodo de proceso o actualizado la microarquitectura, un proceso que Intel llamó Tick-Tock. Originalmente, Intel estaba configurado para realizar un ‘Tick’ normal después de Kaby Lake, y hacer que Cannon Lake con la misma microarquitectura efectiva de Skylake se moviera a 10 nm. Cannon Lake terminó solo como un procesador de computadora portátil sin gráficos de trabajo en una pequeña cantidad de computadoras portátiles en China, ya que fue un desastre (como se muestra en nuestra revisión ). Como resultado, Intel reorientó sus 10nm para procesadores de portátiles con la esperanza de que los avances también fueran aplicables a las computadoras de escritorio, pero la compañía tuvo que lanzar actualizaciones menores en las computadoras de escritorio desde Coffee Lake en adelante para mantener la línea de productos en funcionamiento.

Esto significó que, en algún nivel, Intel sabía que tendría que combinar tanto una nueva arquitectura como un nuevo salto de nodo de proceso en un ciclo de producto. En algún momento, sin embargo, Intel se dio cuenta de que el punto de intersección con tener una nueva microarquitectura y el salto para el escritorio a 10 nm era muy borroso y algo intangible, y en un momento en que su principal competidor estaba comenzando a hacer ruido sobre un nuevo producto que podría alcanzar la paridad en el rendimiento de un solo núcleo. Para mantener en funcionamiento estas importantes líneas de productos, deberían tomarse medidas drásticas.

Después de muchas reuniones con muchas galletas, suponemos, se tomó la decisión de que Intel tomaría el diseño de microarquitectura central de Ice Lake de 10 nm, que no podía alcanzar frecuencias lo suficientemente altas con la alimentación de una computadora de escritorio, y volvería a empaquetar ese diseño para el nodo de 14 nm más confiable que podría alcanzar los números de rendimiento absolutos requeridos. Esto se conoce como ‘backport’ .

Sunny Cove se convierte en Cypress Cove

El nuevo procesador Core 11 th Gen que estamos viendo hoy tiene el nombre en clave Rocket Lake. Ese es el nombre de todo el procesador, que consta de núcleos, gráficos, interconexión y otros aceleradores y bloques de IP diferentes, cada uno de los cuales también tiene sus propios nombres de código, solo para facilitar a los ingenieros la comprensión de qué partes son en uso. Usamos mucho estos nombres en clave, y en el que debemos enfocarnos aquí es el núcleo de la CPU.

La familia de procesadores de portátiles Ice Lake de 10 nm de Intel utiliza núcleos Sunny Cove en el diseño. Son estos núcleos los que se han transferido a 14 nm para su uso en los procesadores Rocket Lake, y debido a que está en un nodo de proceso diferente y hay algunos cambios de diseño menores, Intel los llama núcleos Cypress Cove.

La razón detrás de esto es que tomar un diseño para un proceso de fabricación y diseñarlo para un segundo no es tarea fácil, especialmente si se trata de un paso regresivo: los transistores son más grandes, lo que significa que los bloques lógicos son más grandes y todo el trabajo se realiza con respecto a Las rutas de señalización y datos en el silicio deben rehacerse. Incluso con una reelaboración, la integridad de la señal debe actualizarse para distancias más largas, o deben implementarse retardos y búferes de ruta adicionales. De cualquier manera que lo corte, un núcleo de 10 nm es más grande cuando está diseñado para 14 nm, consume más energía y tiene el potencial de ser fundamentalmente más lento en el nivel de ejecución.

Las divulgaciones oficiales de Intel hasta la fecha sobre los nuevos núcleos Cypress Cove y Rocket Lake provienen de una sesión informativa general en octubre, así como de un anuncio más orientado al producto en CES en enero. Intel está promocionando que el nuevo núcleo Cypress Cove ofrece ‘hasta un + 19%’ de instrucción por reloj (IPC) mejora generacional sobre los núcleos utilizados en Comet Lake, que son variantes de frecuencia más alta de Skylake de 2015. Sin embargo, la microarquitectura subyacente es promocionado como idéntico a Ice Lake para procesadores móviles, como cachés y ejecución, y en general, el nuevo Rocket Lake SoC tiene una serie de otras mejoras generacionales nuevas para los procesadores de escritorio de Intel.

En esta revisión y limitaciones

Como se mencionó al principio, esta es una revisión previa al embargo de revisión oficial para estos procesadores. Podemos publicar esto fuera del NDA ya que pudimos obtener el hardware al por menor. Todavía hay mucha información que no se ha revelado, el tipo de cosas que normalmente acompañan al lanzamiento de un nuevo procesador, y lo que Intel ha dicho todavía forma parte del NDA, cuyos detalles también están bajo el mismo NDA. Por lo tanto, no podremos analizarlos todavía, pero podemos comenzar a enviarle algunos datos de referencia. En esta revisión, nos centramos principalmente en las ofertas generacionales de 8 núcleos en una serie de productos y generaciones.

Pagamos 394 € por nuestro procesador antes de impuestos, lo que equivale a $ 469. Sospechamos que está muy por encima del precio minorista recomendado por Intel, dado que se vendió antes de la fecha de venta oficial y la demanda de procesadores de alto rendimiento es muy alta.

Prueba de configuración y #CPUOverload Benchmarks

De acuerdo con nuestra política de pruebas de procesadores, tomamos una placa base de categoría premium adecuada para el zócalo y equipamos el sistema con una cantidad adecuada de memoria que se ejecuta en la frecuencia máxima admitida por el fabricante. Esto también se ejecuta en subtiempo de JEDEC siempre que sea posible. Las razones se explican aquí .

Si bien no podemos revelar la placa base utilizada debido a razones de NDA, el fabricante ya lo anunció. Mientras tanto, es probable que la BIOS utilizada no sea la variante final que se utilizará para el lanzamiento minorista de Rocket Lake a finales de este mes, y otras BIOS pueden contener posibles ajustes menores al rendimiento o las respuestas turbo.

Los usuarios interesados ​​en los detalles de nuestro paquete de pruebas de CPU actual pueden consultar nuestro artículo #CPUOverload que cubre los temas de la automatización de los puntos de referencia, así como lo que ejecuta nuestro paquete y por qué. También comparamos muchos más datos de los que se muestran en una revisión típica, todo lo cual puede ver en nuestra base de datos de referencia. Lo llamamos ‘ Bench ‘, y también hay un enlace en la parte superior del sitio web en caso de que lo necesite para comparar procesadores en el futuro.

Consumo de energía: Caliente Caliente CALIENTE

No voy a repetir el problema en curso completo con la forma en que las empresas informan sobre la potencia en comparación con el TDP en esta revisión; lo hemos cubierto varias veces antes . Pero en una oración rápida, Intel utiliza un valor publicado para el rendimiento sostenido y un valor “recomendado” no publicado para el rendimiento del turbo, el último de los cuales es ignorado habitualmente por los fabricantes de placas base. La mayoría de las placas base de consumo de gama alta ignoran el valor sostenido, a menudo 125 W, y permiten que la CPU consuma tanto como necesite, siendo los límites reales el consumo de energía total a pleno turbo, las térmicas o las limitaciones de suministro de energía.

Una de las dimensiones de esto de la que no hablamos a menudo es que el consumo de energía de un procesador siempre depende de las instrucciones reales que se ejecutan a través del núcleo. Un núcleo puede estar ‘100%’ activo mientras está sentado esperando datos de la memoria o haciendo una simple adición, sin embargo, un núcleo tiene varias formas de ejecutar instrucciones en paralelo, y las instrucciones más complejas consumen la mayor cantidad de energía. Esto se notó en el espacio del consumidor de escritorio cuando Intel introdujo extensiones vectoriales, AVX, en el diseño de su procesador. La introducción simultánea de AVX2 y AVX-512 significa que ejecutar estas instrucciones consume la mayor cantidad de energía.

AVX-512 viene con su propia discusión, porque incluso entrar en un modo ‘AVX-512’ causa problemas adicionales. La introducción de Intel de AVX-512 en sus procesadores de servidor mostró que para permanecer estable, el núcleo tenía que reducir la frecuencia y aumentar el voltaje mientras también pausaba el núcleo para ingresar al modo de energía especial AVX-512. Esto hizo que la ventaja de AVX-512 fuera adecuada solo para un código de servidor sólido de alto rendimiento. Pero ahora Intel ha habilitado AVX-512 en toda su línea de productos, desde portátiles hasta empresas, lo que permite que estos chips ejecuten código de IA más rápido y posibilita nuevos casos de uso. También estamos un par de generaciones después, y el AVX-512 no recibe el mismo impacto que tuvo, pero aún requiere mucha potencia.

Para nuestros puntos de referencia de potencia, hemos realizado varias pruebas que representan una carga de trabajo informática del mundo real, una carga de trabajo AVX2 sólida y una carga de trabajo AVX-512 sólida. Tenga en cuenta que Intel enumera el Core i7-11700K como un procesador de 125 W.

Nuestra primera prueba con Agisoft Photoscan 1.3 muestra un consumo máximo de energía de alrededor de 180 W, aunque dependiendo de la parte de la prueba, tenemos períodos sostenidos en 155 W y 130 W. Las temperaturas máximas fluctúan con 70ºC, pero pasa la mayor parte del tiempo en alrededor de la marca de 60ºC.

Para la carga de trabajo AVX2, habilitamos POV-Ray. Esta es la carga de trabajo en la que vimos que los procesadores de 10 núcleos de la generación anterior superaron los 260 W.

En reposo, la CPU consume menos de 20 W mientras toca 30ºC. Cuando la carga de trabajo comienza después de aproximadamente 200 segundos, el consumo de energía aumenta muy rápidamente a la banda de 200-225 W. Esta placa base implementa la estrategia de ‘turbo infinito’, por lo que obtenemos una potencia sostenida de 200-225 W durante más de 10 minutos. Durante este tiempo, nuestra CPU alcanza un máximo de 81ºC, lo que es bastante razonable para algunos de los mejores sistemas de refrigeración por aire del mercado. Durante esta prueba, todos los núcleos tenían 4,6 GHz sostenidos.

Nuestra carga de trabajo AVX-512 es 3DPM. Esta es una prueba interna personalizada, acelerada a AVX2 y AVX512 por un ex gurú de Intel HPC hace varios años (para divulgación, AMD tiene una copia del código, pero no ha sugerido ningún cambio).

Esto prueba durante 10-15 segundos y luego permanece inactivo durante 10 segundos, y pasa rápidamente por cualquier sistema que no ejecute un turbo infinito. Lo que vemos aquí en este gráfico de potencia única son los picos alarmantes de 290-292 W. En cuanto a nuestros datos, el turbo de todos los núcleos del AVX-512 es de 4,6 GHz, a veces bajando a 4,5 GHz. Ay. Pero eso no es todo.

Nuestro gráfico de temperatura parece bastante drástico. Al cabo de un segundo de ejecutar el código AVX-512, estamos en los 90ºC, o en algunos casos, 100ºC. Nuestras temperaturas alcanzan un máximo de 104ºC, y aquí es donde entramos en una discusión sobre los puntos calientes térmicos.

Hay varias formas de informar la temperatura de la CPU. Podemos tomar el valor instantáneo de un punto singular del silicio mientras está pasando actualmente por un evento de alta densidad de corriente, como la computación, o podemos considerar la CPU como un todo con todos sus sensores térmicos. Mientras que la CPU en general puede aceptar temperaturas de funcionamiento de 105ºC, los elementos individuales del núcleo pueden llegar a alcanzar los 125ºC instantáneamente. Entonces, ¿cuál es el valor correcto y qué es seguro?

El enfriador que estamos usando en esta prueba es posiblemente el mejor enfriamiento por aire del mercado: un ThermalRight Ultra Extreme de cobre completo de 1.8 kilogramos, combinado con un ventilador de alta presión estática de 170 CFM de Silverstone. Este enfriador se ha utilizado para las variantes de escritorio de gama alta de Intel de 10 núcleos y 18 núcleos a lo largo de los años, incluso las que tienen AVX-512, y no se saltó un latido. Porque estamos viendo 104ºC aquí, ¿estamos fallando de alguna manera?

Otro problema con el que nos encontramos con la nueva tecnología de procesador es la capacidad de enfriar un procesador de manera efectiva. No estoy hablando de enfriar el procesador en su conjunto, sino más bien para esos puntos calientes de intensa densidad de corriente. Vamos a llegar a un punto en el que no podemos eliminar la energía térmica lo suficientemente rápido, o con este diseño, es posible que ya estemos allí.

Embalaje más pequeño

Sin embargo, señalaré un hecho interesante en esta línea de pensamiento, que podría pasar desapercibido para el resto de la prensa: Intel ha reducido la altura vertical total de los nuevos procesadores Rocket Lake.

La altura z, o altura vertical total, de la generación anterior de Comet Lake fue de 4,48 a 4,54 mm. Este número se tomó de un rango de 7 CPU que tenía a mano. Sin embargo, este procesador Rocket Lake es más de 0,1 mm más delgado, con 4,36 mm. La altura más pequeña del paquete más el disipador de calor podría ser un pequeño indicador del rendimiento térmico requerido, especialmente si el espacio de aire (lleno de soldadura) entre la matriz y el disipador de calor es más pequeño. Si ayuda a enfriar y no altera cómo se ajustan los refrigeradores, entonces genial, sin embargo, en algún momento en el futuro, es posible que tengamos que considerar formas diferentes, mejores o más eficientes de eliminar estos puntos calientes térmicos.

Comparación de potencia máxima

Para completar, aquí está nuestro gráfico de consumo máximo de energía. Estos son los números de consumo máximo de energía tomados de una serie de puntos de referencia en los que ejecutamos nuestras herramientas de monitoreo de energía.

Pruebas de CPU: Microbenchmarks

Latencia de núcleo a núcleo

A medida que crece el número de núcleos de las CPU modernas, llegamos a un momento en el que el momento de acceder a cada núcleo desde un núcleo diferente ya no es una constante. Incluso antes de la llegada de diseños de SoC heterogéneos, los procesadores construidos en anillos o mallas grandes pueden tener diferentes latencias para acceder al núcleo más cercano en comparación con el núcleo más lejano. Esto suena cierto especialmente en entornos de servidor de varios sockets.

Pero las CPU modernas, incluso las CPU de escritorio y de consumo, pueden tener una latencia de acceso variable para llegar a otro núcleo. Por ejemplo, en las CPU Threadripper de primera generación, teníamos cuatro chips en el paquete, cada uno con 8 subprocesos, y cada uno con una latencia de núcleo a núcleo diferente, dependiendo de si estaba en la matriz o fuera de la matriz. Esto se vuelve más complejo con productos como Lakefield, que tiene dos buses de comunicación diferentes dependiendo de qué núcleo está hablando con cuál.

Si es un lector habitual de las revisiones de CPU de AnandTech, reconocerá nuestra prueba de latencia de núcleo a núcleo. Es una excelente manera de mostrar exactamente cómo se colocan los grupos de núcleos en el silicio. Esta es una prueba interna personalizada creada por Andrei, y sabemos que existen pruebas competitivas, pero creemos que la nuestra es la más precisa en cuanto a la rapidez con la que puede ocurrir un acceso entre dos núcleos.

Los números de núcleo a núcleo son interesantes, siendo peores (más altos) que la generación anterior en todos los ámbitos. Aquí estamos viendo, en su mayoría, 28-30 nanosegundos, en comparación con 18-24 nanosegundos con el 10700K. Esto es parte de la regresión de latencia L3, como se muestra en nuestras próximas pruebas.

Un par de subprocesos aquí son muy rápidos para acceder a todos los núcleos, algunos 5 ns más rápido que cualquier otro, lo que nuevamente hace que el diseño sea más desconcertante.

Latencia de caché a DRAM

Esta es otra prueba interna construida por Andrei, que muestra la latencia de acceso en todos los puntos de la jerarquía de caché para un solo núcleo. Comenzamos con 2 KiB y probamos la latencia hasta 256 MB, que para la mayoría de las CPU se encuentra dentro de la DRAM (antes de comenzar a decir que el TR de 64 núcleos tiene 256 MB de L3, es solo 16 MB por núcleo, por lo que en 20 MB estás en DRAM).

Parte de esta prueba nos ayuda a comprender el rango de latencias para acceder a un nivel dado de caché, pero también la transición entre los niveles de caché da una idea de cómo funcionan las diferentes partes de la microarquitectura de caché, como los TLB. A medida que los microarquitectos de la CPU buscan formas interesantes y novedosas de diseñar cachés sobre cachés dentro de los cachés, esta prueba básica demuestra ser muy valiosa.

Al observar el gráfico aproximado del 11700K y los límites generales de las jerarquías de caché, nuevamente vemos los cambios de la microarquitectura que debutó por primera vez en los núcleos Sunny Cove de Intel, como el paso de un caché L1D de 32KB a 48KB, también. como la duplicación de la caché L2 de 256 KB a 512 KB.

La caché L3 en estas partes parece no haber cambiado desde una perspectiva de capacidad, con los mismos 16 MB que se comparten entre los 8 núcleos del chip.

En el lado de la DRAM, no estamos viendo muchos cambios, aunque hay una pequeña regresión generacional de 2.1ns en el punto de medición aleatorio completo de 128 MB. Estamos usando memorias RAM idénticas en los mismos tiempos entre las mediciones aquí.

Cabe señalar que estas leves regresiones también se encuentran en las jerarquías de caché, con la nueva CPU, aunque tiene un reloj ligeramente más alto aquí, muestra una latencia absoluta peor que su predecesor, también debe tenerse en cuenta que los diseños más nuevos basados ​​en Zen3 de AMD también muestran una menor latencia en todos los ámbitos.

Mirando más de cerca las latencias estructurales estimadas entre los diseños de dos núcleos en función del tiempo de acceso del ciclo del reloj, estamos viendo cambios similares que Intel había revelado en el pasado sobre la microarquitectura Sunny Cove. El L1D retrocede de 4 ciclos a 5 ciclos con su 50% de aumento de capacidad a 48KB, el L2 retrocede 1 ciclo de 12 a 13 ciclos a medida que duplica su capacidad, mientras que el L3 sorprendentemente ve una regresión estimada de 7.5 ciclos más grande.

La regresión L3 es un poco desconcertante, ya que difiere de las mediciones y revelaciones que Intel tuvo con Sunny Cove en Ice Lake, y se asemeja más a las regresiones de latencia que vimos con el núcleo de Willow Cove en Tiger Lake. Sin embargo, por lo que podemos decir, la asociatividad de conjuntos sigue siendo de 16 vías aquí y, obviamente, el tamaño de la caché también se mantuvo igual en 16 MB. Tampoco veo ningún cambio de ancho de banda en el nuevo diseño. Quizás Intel comente en la revisión completa sobre lo que está sucediendo aquí.

Rampa de frecuencia

Tanto AMD como Intel en los últimos años han introducido características en sus procesadores que aceleran el tiempo desde que una CPU pasa de inactivo a un estado de alta potencia. El efecto de esto significa que los usuarios pueden obtener un rendimiento máximo más rápido, pero el mayor efecto en cadena de esto es la duración de la batería en los dispositivos móviles, especialmente si un sistema puede acelerar rápidamente y acelerar rápidamente, asegurando que se mantenga en el nivel más bajo. y el estado de energía más eficiente durante el mayor tiempo posible.

La tecnología de Intel se llama SpeedShift, aunque SpeedShift no se habilitó hasta Skylake.

Sin embargo, uno de los problemas con esta tecnología es que a veces los ajustes de frecuencia pueden ser tan rápidos que el software no puede detectarlos. Si la frecuencia cambia en el orden de microsegundos, pero su software solo mide la frecuencia en milisegundos (o segundos), se perderán los cambios rápidos. No solo eso, como observador que prueba la frecuencia, podría estar afectando el rendimiento real del turbo. Cuando la CPU está cambiando de frecuencia, esencialmente tiene que pausar todos los cálculos mientras alinea la tasa de frecuencia de todo el núcleo.

Escribimos un extenso artículo de análisis de revisión sobre esto, llamado ‘ Alcanzando el Turbo: alineando la percepción con las métricas de frecuencia de AMD ‘, debido a un problema en el que los usuarios no estaban observando las velocidades máximas de turbo para los procesadores de AMD.

Solucionamos el problema haciendo que la frecuencia probara la carga de trabajo que causaba el turbo. El software es capaz de detectar ajustes de frecuencia en una escala de microsegundos, por lo que podemos ver qué tan bien un sistema puede llegar a esas frecuencias de refuerzo. Nuestra herramienta de rampa de frecuencia ya se ha utilizado en varias revisiones.


Nuestra prueba de rampa muestra un salto directo de 800 MHz a 4900 MHz en alrededor de 17 milisegundos, o un cuadro a 60 Hz.

Pruebas de CPU: oficina y ciencia

Nuestro conjunto anterior de puntos de referencia de ‘oficina’ a menudo ha sido una mezcla de ciencia y sintéticos, por lo que esta vez queríamos mantener nuestra sección de oficina exclusivamente en el rendimiento del mundo real.

Agisoft Photoscan 1.3.3

El concepto de Photoscan consiste en traducir muchas imágenes 2D a un modelo 3D, por lo que cuanto más detalladas sean las imágenes y cuanto más tenga, mejor será el modelo 3D final tanto en precisión espacial como en precisión de textura. El algoritmo tiene cuatro etapas, con algunas partes de las etapas de un solo subproceso y otras de varios subprocesos, junto con cierta dependencia de memoria caché / allí también. Para algunas de las cargas de trabajo con subprocesos más variables, características como Speed ​​Shift y XFR podrán aprovechar las paradas de la CPU o el tiempo de inactividad, lo que brindará aceleraciones considerables en microarquitecturas más nuevas.

Para la actualización a la versión 1.3.3, el software Agisoft ahora admite la operación de línea de comandos. Agisoft nos proporcionó un conjunto de imágenes nuevas para esta versión de la prueba y un script de Python para ejecutarlo. Hemos modificado ligeramente el guión cambiando algunas configuraciones de calidad en aras de la duración de la suite de referencia, así como también ajustando cómo se registran los datos de tiempo finales. La secuencia de comandos de Python vuelca el archivo de resultados en el formato que elijamos. Para nuestra prueba obtenemos el tiempo de cada etapa del benchmark, así como el tiempo total.

Hay una pequeña ganancia de rendimiento aquí en la prueba del mundo real en las tres generaciones de procesadores Intel, sin embargo, todavía está a un paso de AMD.

Apertura de la aplicación: GIMP 2.10.18

Primero hay una prueba que usa un monstruoso archivo xcf de múltiples capas para cargar GIMP. Si bien el archivo es solo una ‘imagen’, tiene tantas capas de alta calidad incrustadas que tardó más de 15 segundos en abrirse y ganar control en el portátil de rango medio que estaba usando en ese momento.

Lo que probamos aquí es la primera ejecución; normalmente, la primera vez que un usuario carga el paquete GIMP desde una instalación nueva, el sistema tiene que configurar algunas docenas de archivos que permanecen optimizados en la apertura posterior. Para nuestra prueba, eliminamos los archivos optimizados configurados para forzar una “carga nueva” cada vez que se ejecuta el software. Resulta que GIMP realiza optimizaciones para cada subproceso de la CPU en el sistema, lo que requiere que los procesadores de mayor número de subprocesos tarden mucho más en ejecutarse.

Medimos el tiempo transcurrido desde que se solicita la apertura del software y hasta que el software se devuelve al sistema operativo para el control del usuario. La prueba se repite durante un mínimo de diez minutos o al menos 15 bucles, lo que ocurra primero, y se descartan los tres primeros resultados.

La prueba de inicialización de la aplicación aquí favorece el rendimiento de un solo núcleo, y AMD gana a pesar de la menor frecuencia de un solo hilo. El 9900KS tiene una ligera ventaja, siendo 5.0 GHz garantizado, pero ninguno de los IPC mejorados de Cypress Cove parece entrar en juego aquí.

Ciencias

En esta versión de nuestro conjunto de pruebas, todas las pruebas centradas en la ciencia que no son trabajos de “simulación” están ahora en nuestra sección de ciencias. Esto incluye el movimiento browniano, el cálculo de dígitos de Pi, la dinámica molecular y, por primera vez, estamos probando un punto de referencia de inteligencia artificial, tanto de inferencia como de entrenamiento, que funciona en Windows usando python y TensorFlow. Siempre que ha sido posible, estos puntos de referencia se han optimizado con lo último en instrucciones vectoriales, a excepción de la prueba de IA; nos dijeron que, si bien utiliza las bibliotecas de kernel de matemáticas de Intel, están optimizadas más para Linux que para Windows, por lo que da un resultado interesante. cuando se utiliza software no optimizado.

Movimiento de partículas 3D v2.1: No AVX y AVX2 / AVX512

Esta es la última versión de este benchmark diseñado para simular algoritmos científicos semi-optimizados tomados directamente de mi tesis de doctorado. Esto implica el movimiento aleatorio de partículas en un espacio 3D utilizando un conjunto de algoritmos que definen el movimiento aleatorio. La versión 2.1 mejora sobre la 2.0 al pasar las estructuras de partículas principales por referencia en lugar de por valor, y disminuyendo la cantidad de double-> float-> double recasts que el compilador estaba agregando.

La versión inicial de v2.1 es un binario C ++ personalizado de mi propio código, y los indicadores están en su lugar para permitir múltiples bucles del código con una longitud de referencia personalizada. De forma predeterminada, esta versión se ejecuta seis veces y envía la puntuación media a la consola, que capturamos con un operador de redirección que escribe en el archivo.

Para v2.1, también tenemos una versión AVX2 / AVX512 totalmente optimizada, que utiliza elementos intrínsecos para obtener el mejor rendimiento del software. Esto lo hizo un ex ingeniero de Intel AVX-512 que ahora trabaja en otro lugar. Según Jim Keller , solo hay un par de docenas de personas que entienden cómo extraer el mejor rendimiento de una CPU, y este tipo es uno de ellos. Para ser honesto, AMD también tiene una copia del código, pero no ha propuesto ningún cambio.

La prueba 3DPM está configurada para generar millones de movimientos por segundo, en lugar de tiempo para completar un número fijo de movimientos.

Cuando el AVX-512 entra en juego, todos los demás se van a casa. La victoria más fácil y clara para Intel.

y-Cruncher 0.78.9506

Si le pregunta a alguien qué tipo de computadora tiene el récord mundial para calcular la mayor cantidad de dígitos de pi, puedo garantizar que una buena parte de esas respuestas podrían apuntar a una supercomputadora colosa construida en una montaña por un supervillano. Afortunadamente, nada podría estar más lejos de la verdad: la computadora con el registro es un servidor Ivy Bridge de cuatro sockets con 300 TB de almacenamiento. El software que se ejecutó para conseguirlo fue y-cruncher.

Construido por Alex Yee durante la última parte de una década y algo más, y-Cruncher es el software de elección para calcular miles de millones y billones de dígitos de las constantes matemáticas más populares. El software ha tenido el récord mundial de Pi desde agosto de 2010 y ha batido el récord un total de 7 veces desde entonces. También tiene registros de e , la proporción áurea y otros. Según Alex, el programa ejecuta alrededor de 500,000 líneas de código, y tiene múltiples binarios, cada uno optimizado para diferentes familias de procesadores, como Zen, Ice Lake, Sky Lake, todo el camino de regreso a Nehalem, usando el último SSE / AVX2 / Instrucciones de AVX512 donde encajan y luego optimizadas aún más para la forma en que se construye cada núcleo.

Para nuestros propósitos, estamos calculando Pi, ya que está más limitado al cálculo que a la memoria. En modo ST y MT calculamos 250 millones de dígitos.

En el modo ST, estamos más dominados por las instrucciones AVX-512, mientras que en MT también se convierte en una mezcla de memoria.

NAMD 2.13 (ApoA1): Dinámica molecular

Uno de los campos de la divulgación científica es el modelado de la dinámica de las proteínas. Al observar cómo la energía de los sitios activos dentro de una gran estructura de proteínas a lo largo del tiempo, los científicos detrás de la investigación pueden calcular las energías de activación necesarias para las posibles interacciones. Esto se vuelve muy importante en el descubrimiento de fármacos. La dinámica molecular también juega un papel importante en el plegamiento de proteínas y en la comprensión de lo que sucede cuando las proteínas se pliegan mal y qué se puede hacer para prevenirlo. Dos de los paquetes de dinámica molecular más populares que se utilizan en la actualidad son NAMD y GROMACS.

NAMD, o Dinámica molecular a nanoescala, ya se ha utilizado en una extensa investigación sobre el coronavirus en la supercomputadora Frontier. Las simulaciones típicas que utilizan el paquete se miden en cuántos nanosegundos por día se pueden calcular con el hardware dado, y la proteína ApoA1 (92,224 átomos) ha sido el modelo estándar para la simulación de dinámica molecular.

Afortunadamente, la computación puede ubicarse en una tasa típica de ‘nanosegundos por día’ después de solo 60 segundos de simulación, sin embargo, lo ampliamos a 10 minutos para tomar un valor más sostenido, ya que para ese momento la mayoría de los límites de turbo deberían superarse. La simulación en sí funciona con pasos de tiempo de 2 femtosegundos. Usamos la versión 2.13 ya que esta era la versión recomendada al momento de integrar este benchmark en nuestra suite. Las últimas compilaciones nocturnas que conocemos han comenzado a habilitar el soporte para AVX-512; sin embargo, debido a la consistencia en nuestro paquete de referencia, lo mantenemos con 2.13. Otro software con el que probamos tiene aceleración AVX-512.

El 11700K muestra algunas mejoras con respecto a las generaciones anteriores de Intel, sin embargo, se ubica mucho en el medio de la APU y el Zen 3.

AI Benchmark 0.1.2 usando TensorFlow

Encontrar un punto de referencia de inteligencia artificial apropiado para Windows ha sido mi santo grial durante bastante tiempo. El problema es que la inteligencia artificial es una palabra de ritmo tan rápido y rápido que cualquier cosa que calcule este trimestre ya no será relevante en el siguiente, y una de las métricas clave en este conjunto de evaluaciones comparativas es poder mantener los datos durante un largo período de tiempo. hora. Hemos tenido pruebas de referencia de IA en teléfonos inteligentes durante un tiempo, dado que los teléfonos inteligentes son un mejor objetivo para las cargas de trabajo de IA, pero también tiene sentido que todo en la PC también esté orientado a Linux.

Afortunadamente, sin embargo, la buena gente de ETH Zurich en Suiza ha convertido el punto de referencia de inteligencia artificial de su teléfono inteligente en algo que se puede usar en Windows. Utiliza TensorFlow, y para nuestros propósitos de referencia, hemos bloqueado nuestras pruebas en TensorFlow 2.10, AI Benchmark 0.1.2, mientras usamos Python 3.7.6.

El punto de referencia se ejecuta a través de 19 redes diferentes, incluidas MobileNet-V2, ResNet-V2, VGG-19 Super-Res, NVIDIA-SPADE, PSPNet, DeepLab, Pixel-RNN y GNMT-Translation. Todas las pruebas sondean tanto la inferencia como el entrenamiento en varios tamaños de entrada y tamaños de lote, excepto la traducción que solo hace inferencia. Mide el tiempo necesario para realizar una determinada cantidad de trabajo y, al final, escupe un valor.

Sin embargo, hay una gran advertencia para todo esto. Hablando con la gente de ETH, utilizan las bibliotecas de kernel de matemáticas (MKL) de Intel para Windows y están viendo algunos inconvenientes increíbles. Me dijeron que MKL para Windows no funciona bien con varios subprocesos y, como resultado, cualquier resultado de Windows funcionará mucho peor que los resultados de Linux. Además de eso, después de un número determinado de subprocesos (~ 16), MKL se rinde y el rendimiento cae sustancialmente.

Entonces, ¿por qué probarlo? En primer lugar, porque necesitamos un punto de referencia de IA, y uno malo es mejor que no tener ninguno. En segundo lugar, si MKL en Windows es el problema, entonces al publicar la prueba, podría poner un arranque en algún lugar para que MKL se arregle. Con ese fin, nos quedaremos con el punto de referencia mientras sea factible.

Cada generación de Intel parece retroceder con AI Benchmark, probablemente debido a problemas de MKL. He identificado previamente el problema para Intel, sin embargo, no he oído hablar de ningún progreso hasta la fecha.

Pruebas de CPU: simulación

La simulación y la ciencia se superponen mucho en el mundo de la evaluación comparativa; sin embargo, para esta distinción, nos separamos en dos segmentos, principalmente en función de la utilidad de los datos resultantes. Los puntos de referencia que se incluyen en la ciencia tienen un uso distinto para los datos que generan; en nuestra sección de simulación, estos actúan más como sintéticos, pero en algún nivel todavía están tratando de simular un entorno determinado.

DigiCortex v1.35

DigiCortex es un proyecto favorito para la visualización de la actividad neuronal y sinapsis en el cerebro. El software viene con una variedad de modos de referencia, y tomamos la referencia pequeña que ejecuta una simulación de sinapsis de neuronas 32k / 1.8B, similar a una pequeña babosa.

Los resultados de la salida se dan como una fracción de si el sistema puede simular en tiempo real, por lo que cualquier valor superior a uno es adecuado para el trabajo en tiempo real. El punto de referencia ofrece un modo ‘sin sinapsis sin disparo’, que en esencia detecta la DRAM y la velocidad del bus, sin embargo, tomamos el modo de disparo que agrega trabajo de CPU con cada disparo.

El software se envió originalmente con un punto de referencia que registraba los primeros ciclos y generaba un resultado. Entonces, si bien los procesadores rápidos de múltiples subprocesos hicieron que el punto de referencia durara menos de unos pocos segundos, los procesadores lentos de doble núcleo podrían funcionar durante casi una hora. También existe el problema de que DigiCortex comience con un mapa de neurona / sinapsis base en ‘modo apagado’, lo que da un resultado alto en los primeros ciclos, ya que ninguno de los nodos está activo actualmente. Descubrimos que el rendimiento se estabiliza después de un tiempo (cuando el modelo está en uso activo), por lo que le pedimos al autor que permitiera una fase de “ calentamiento ” y que el punto de referencia fuera el promedio durante un segundo. tiempo de muestra.

Para nuestra prueba, le damos al punto de referencia 20000 ciclos para calentar y luego tomamos los datos durante los siguientes 10000 ciclos segundos para la prueba; en un procesador moderno, esto toma 30 segundos y 150 segundos respectivamente. A continuación, se repite un mínimo de 10 veces y se rechazan los tres primeros resultados. Los resultados se muestran como múltiplos de cálculos en tiempo real.

El diseño de chiplet único de AMD parece obtener una gran victoria aquí, pero DigiCortex puede usar AVX-512, por lo que el 11700K obtiene un impulso saludable sobre la generación anterior.

Fortaleza enana 0.44.12

Otra solicitud de larga data para nuestro paquete de referencia ha sido Dwarf Fortress, un popular videojuego independiente de gestión / roguelike, lanzado por primera vez en 2006 y que todavía se actualiza regularmente hoy, con el objetivo de un lanzamiento de Steam en algún momento en el futuro.

Emulando las interfaces ASCII de antaño, este título es una bestia bastante compleja, que puede generar entornos sujetos a milenios de gobierno, rostros famosos, campesinos y personajes y eventos históricos clave. Cuanto más te adentras en el juego, dependiendo del tamaño del mundo, más lento se vuelve, ya que tiene que simular más personajes famosos, más eventos mundiales y la forma natural en que las criaturas humanoides se apoderan de un entorno. Como una especie de virus.

Para nuestra prueba usamos DFMark. DFMark es un punto de referencia creado por vorsgren en Bay12Forums que ofrece dos modos diferentes basados ​​en DFHack: generación mundial y embarque. Estas pruebas se pueden configurar, pero oscilan entre 3 minutos y varias horas. Después de analizar la prueba, terminamos eligiendo tres tamaños de generación mundial diferentes:

Pequeño, un mundo de 65×65 con 250 años, 10 civilizaciones y 4 megabeastias
Medium, un mundo de 127×127 con 550 años, 10 civilizaciones y 4 megabeasts
Grande, un mundo de 257×257 con 550 años, 40 civilizaciones y 10 megabeasts

DFMark genera el tiempo para ejecutar una prueba determinada, por lo que esto es lo que usamos para la salida. Realizamos un ciclo de la prueba pequeña tantas veces como sea posible en 10 minutos, la prueba media tantas veces en 30 minutos y la prueba grande tantas veces en una hora.

Con los mundos pequeños, el 11700K recibe un pequeño impulso sobre el hardware Intel anterior, pero esto se iguala a medida que los mundos se hacen más grandes.

Emulación Dolphin v5.0

Muchos emuladores a menudo están limitados por el rendimiento de la CPU de un solo hilo. Este punto de referencia ejecuta un programa de Wii que traza una compleja escena en 3D dentro del emulador de Dolphin Wii. El rendimiento en este punto de referencia es un buen indicador de la velocidad de la emulación de CPU Dolphin, que es una tarea intensiva de un solo núcleo que utiliza la mayoría de los aspectos de una CPU. Los resultados se dan en segundos, donde la propia Wii puntúa 1051 segundos.

Pruebas de CPU: renderizado

Las pruebas de renderizado, en comparación con otras, suelen ser un poco más sencillas de digerir y automatizar. Todas las pruebas arrojan algún tipo de puntaje o tiempo, generalmente de una manera obtenible que hace que sea bastante fácil de extraer. Estas pruebas son algunas de las más extenuantes de nuestra lista, debido a la naturaleza altamente enhebrada del renderizado y el trazado de rayos, y pueden consumir mucha energía. Si un sistema no está configurado correctamente para hacer frente a los requisitos térmicos del procesador, los puntos de referencia de renderizado es donde se mostraría más fácilmente a medida que la frecuencia cae durante un período de tiempo prolongado. La mayoría de los puntos de referencia en este caso se vuelven a ejecutar varias veces, y la clave para esto es tener un tiempo de inactividad / espera apropiado entre los puntos de referencia para permitir que las temperaturas se normalicen desde la última prueba.

Blender 2.83 LTS

Una de las herramientas populares para renderizar es Blender, ya que es un proyecto público de código abierto en el que puede participar cualquier persona en la industria de la animación. Esto se extiende a conferencias, uso en películas y realidad virtual, con un Blender Institute dedicado y todo lo que pueda esperar de un paquete de software profesional (excepto quizás un paquete de soporte de grado profesional). Al ser de código abierto, los estudios pueden personalizarlo de tantas formas como necesiten para obtener los resultados que necesitan. Termina siendo un gran objetivo de optimización tanto para Intel como para AMD en este sentido.

Para fines de evaluación comparativa, recurrimos a uno que representaba un fotograma de un proyecto detallado. La mayoría de las reseñas, como hemos hecho en el pasado, se centran en uno de los renders clásicos de Blender, conocido como BMW_27. Puede llevar desde unos minutos hasta casi una hora en un sistema normal. Sin embargo, ahora que Blender ha pasado a un modelo de soporte a largo plazo (LTS) con la última versión 2.83, decidimos optar por algo diferente.

Usamos esta escena, llamada PartyTug at 6AM por Ian Hubert , que es la imagen oficial de Blender 2.83. Tiene un tamaño de 44,3 MB y utiliza algunas de las propiedades informáticas más modernas de Blender. Como es más complejo que la escena de BMW, pero utiliza diferentes aspectos del modelo de cálculo, el tiempo de procesamiento es aproximadamente similar al anterior. Hacemos un bucle de la escena durante al menos 10 minutos, tomando el tiempo medio de las terminaciones realizadas. Blender ofrece una herramienta de línea de comandos para comandos por lotes y redirigimos la salida a un archivo de texto.

Una victoria marginal para Intel en Blender es un buen resultado, así como algunos puntos porcentuales sobre el 9900KS de 5.0 GHz.

Corona 1.3:

Corona se anuncia como un popular motor de renderizado fotorrealista de alto rendimiento para 3ds Max, con desarrollo también para compatibilidad con Cinema 4D. Para promover el software, los desarrolladores produjeron un punto de referencia descargable en la versión 1.3 del software, con una escena trazada por rayos que involucraba un vehículo militar y mucho follaje. El software realiza múltiples pasadas, calculando la escena, la geometría, el preacondicionamiento y el renderizado, con el rendimiento medido en el tiempo para terminar el benchmark (la métrica oficial utilizada en su sitio web) o en rayos por segundo (la métrica que usamos para ofrecer un rendimiento más lineal. escala).

El punto de referencia estándar proporcionado por Corona se basa en la interfaz: la escena se calcula y se muestra frente al usuario, con la capacidad de cargar el resultado en su base de datos en línea. Nos pusimos en contacto con los desarrolladores, quienes nos proporcionaron una versión sin interfaz que permitió la entrada de la línea de comandos y la recuperación de los resultados con mucha facilidad. Damos la vuelta al punto de referencia cinco veces, esperando 60 segundos entre cada una y tomando un promedio general. El tiempo para ejecutar este punto de referencia puede ser de alrededor de 10 minutos en un Core i9, hasta más de una hora en un procesador AMD 2014 de cuatro núcleos o Pentium de doble núcleo.

Jugabilidad de Crysis solo con CPU

Uno de los memes más utilizados en los juegos de computadora es ‘Can It Run Crysis?’. El juego original de 2007, construido en el motor Crytek por Crytek, fue anunciado como un título computacionalmente complejo para el hardware en ese momento y varios años después, lo que sugiere que un usuario necesitaba hardware de gráficos del futuro para ejecutarlo. Avance rápido durante más de una década, y el juego se ejecuta con bastante facilidad en las GPU modernas.

Pero, ¿podemos también aplicar el mismo concepto al renderizado puro de CPU? ¿Puede una CPU, por sí sola, renderizar Crysis? Desde que los procesadores de 64 núcleos ingresaron al mercado, uno puede soñar. Así que creamos un punto de referencia para ver si el hardware puede hacerlo.

Para esta prueba, estamos ejecutando el punto de referencia de la GPU de Crysis, pero en modo de procesamiento de CPU. Esta es una prueba de 2000 cuadros, con ajustes medios y bajos.

(4-3b) Procesamiento de CPU Crysis a 1080p bajo

POV-Ray 3.7.1

Un elemento básico de referencia desde hace mucho tiempo, POV-Ray es otro programa de renderizado que es bien conocido por cargar cada hilo en un sistema, independientemente de los niveles de memoria caché y memoria. Después de un largo período en el que POV-Ray 3.7 fue el último lanzamiento oficial, cuando AMD lanzó Ryzen, el código base de POV-Ray de repente vio un rango de actividad tanto de AMD como de Intel, sabiendo que el software (con el punto de referencia incorporado) sería una herramienta de optimización para el hardware.

Tuvimos que poner una bandera en la arena cuando se trataba de seleccionar la versión que era justa tanto para AMD como para Intel, y que seguía siendo relevante para los usuarios finales. La versión 3.7.1 corrige un error significativo en el código de principios de 2017 que se desaconsejó en los manuales de Intel y AMD con respecto a la escritura después de la lectura, lo que dio lugar a un buen aumento del rendimiento.

El punto de referencia puede tardar más de 20 minutos en un sistema lento con pocos núcleos, o alrededor de uno o dos minutos en un sistema rápido, o segundos con un EPYC de recuento doble de alto núcleo. Debido a que POV-Ray consume una gran cantidad de energía y corriente, es importante asegurarse de que el enfriamiento sea suficiente aquí y que el sistema permanezca en su estado de alta potencia. El uso de una placa base con un suministro de energía deficiente y un flujo de aire bajo podría crear un problema que no será obvio en algunas posiciones de la CPU si el límite de energía solo causa una caída de 100 MHz a medida que cambia los estados P.

V-Ray

Ya tenemos un par de renderizadores y trazadores de rayos en nuestra suite, sin embargo, el punto de referencia de V-Ray llegó para un punto de referencia solicitado lo suficiente como para que lo incluyamos en nuestra suite. Construido por ChaosGroup, V-Ray es un paquete de renderizado 3D compatible con una serie de aplicaciones de imágenes comerciales populares, como 3ds Max, Maya, Undreal, Cinema 4D y Blender.

Ejecutamos la aplicación de referencia independiente estándar , pero de forma automatizada para extraer el resultado en forma de kilomuestras / segundo. Realizamos la prueba seis veces y tomamos un promedio de los resultados válidos.

Cinebench R20

Otro establo común de una suite de referencia es Cinebench. Basado en Cinema4D, Cinebench es una máquina de referencia especialmente diseñada que procesa una escena con opciones de subproceso único y múltiple. La escena es idéntica en ambos casos. La versión R20 significa que se dirige a Cinema 4D R20, una versión un poco más antigua del software que actualmente se encuentra en la versión R21. Cinebench R20 se lanzó dado que la versión R15 había estado disponible durante mucho tiempo y, a pesar de la diferencia entre el punto de referencia y la última versión del software en el que se basa, los resultados de Cinebench a menudo se citan mucho en los materiales de marketing.

Los resultados para Cinebench R20 no son comparables a los de R15 o anteriores, porque tanto la escena que se usa es diferente, como las actualizaciones en el baño de códigos. Los resultados se generan como una puntuación del software, que es directamente proporcional al tiempo empleado. Utilizando los indicadores de referencia para cargas de trabajo de una sola CPU y varias CPU, ejecutamos el software desde la línea de comandos que abre la prueba, la ejecuta y descarga el resultado en la consola que se redirige a un archivo de texto. La prueba se repite durante un mínimo de 10 minutos tanto para ST como para MT, y luego se promedian las ejecuciones.

La mejora en Cinebench R20 es una buena medida con respecto a las generaciones anteriores de Intel. Sin embargo, el Tiger Lake móvil tiene una puntuación de 593 a 28 W, todavía por delante del 11700K, y todos están detrás de AMD.

Pruebas de CPU: codificación

Uno de los elementos interesantes de los procesadores modernos es el rendimiento de la codificación. Esto cubre dos áreas principales: cifrado / descifrado para la transferencia segura de datos y transcodificación de video de un formato de video a otro.

En el escenario de cifrado / descifrado, cómo se transfieren los datos y por qué mecanismo es pertinente para el cifrado sobre la marcha de datos confidenciales, un proceso mediante el cual los dispositivos más modernos se están inclinando por la seguridad del software.

La transcodificación de video como herramienta para ajustar la calidad, el tamaño de archivo y la resolución de un archivo de video se ha disparado en los últimos años, como por ejemplo, para proporcionar el video óptimo para los dispositivos antes del consumo o para los transmisores de juegos que desean cargar la salida desde su cámara de video. en tiempo real. A medida que avanzamos hacia el video 3D en vivo, esta tarea solo se volverá más extenuante y resulta que el rendimiento de ciertos algoritmos es una función de la entrada / salida del contenido.

HandBrake 1.32

La transcodificación de video (codificación y decodificación) es un tema candente en las métricas de rendimiento a medida que se crea más y más contenido. La primera consideración es el estándar en el que se codifica el video, que puede ser sin pérdida o con pérdida, el rendimiento comercial por tamaño de archivo, calidad comercial por tamaño de archivo o todo lo anterior puede aumentar las tasas de codificación para ayudar a acelerar las tasas de decodificación. Junto a los códecs favoritos de Google, VP9 y AV1, hay otros que se destacan: H264, el códec más antiguo, está prácticamente en todas partes y está diseñado para ser optimizado para video de 1080p, y HEVC (o H.265) que tiene como objetivo proporcionar lo mismo. calidad como H264 pero con un tamaño de archivo menor (o mejor calidad para el mismo tamaño). HEVC es importante ya que 4K se transmite por aire, lo que significa que se deben transferir menos bits para obtener el mismo contenido de calidad.Hay otros códecs que llegan al mercado diseñados para casos de uso específicos todo el tiempo.

Handbrake es una herramienta preferida para la transcodificación, y las versiones posteriores utilizan una gran cantidad de API más nuevas para aprovechar los coprocesadores, como las GPU. Está disponible en Windows a través de una interfaz o se puede acceder a través de la línea de comandos, y esta última facilita nuestras pruebas, con un operador de redirección para la salida de la consola.

Tomamos la versión compilada de este video de YouTube de 16 minutos sobre CPU rusas a 1080p30 h264 y lo convertimos en tres archivos diferentes: (1) 480p30 ‘Discord’, (2) 720p30 ‘YouTube’ y (3) 4K60 HEVC.

Hasta el 4K60 HEVC final, en modo solo de CPU, la CPU Intel presenta algunos buenos números de generación a generación.

7-Zip 1900

La primera herramienta comparativa de compresión que utilizamos es el 7-zip de código abierto, que normalmente ofrece un buen escalado en varios núcleos. 7-zip es la herramienta de compresión más citada por los lectores como una en la que preferirían ver los puntos de referencia, y el programa incluye una herramienta de referencia incorporada tanto para la compresión como para la descompresión.

La herramienta se puede ejecutar desde el interior del software o mediante la línea de comandos. Tomamos la última ruta ya que es más fácil de automatizar, obtener resultados y pasar por nuestro proceso. Los indicadores de línea de comando disponibles ofrecen una opción para ejecuciones repetidas, y la salida proporciona el promedio automáticamente a través de la consola. Dirigimos esta salida a un archivo de texto y regexizamos los valores requeridos para la compresión, descompresión y una puntuación combinada.

Un aumento con respecto a la generación anterior, pero AMD tiene una ventaja del 25%.

Codificación AES

Los algoritmos que utilizan codificación AES se han extendido por todas partes como una herramienta omnipresente para el cifrado. Nuevamente, esta es otra prueba limitada de CPU, y las CPU modernas tienen vías AES especiales para acelerar su rendimiento. A menudo vemos escalado tanto en frecuencia como en núcleos con este punto de referencia. Usamos la última versión de TrueCrypt y ejecutamos su modo de referencia sobre 1 GB de datos en DRAM. Los resultados que se muestran son el promedio de GB / s de cifrado y descifrado.

WinRAR 5.90

Para el conjunto de pruebas de 2020, pasamos a la última versión de WinRAR en nuestra prueba de compresión. WinRAR en algunos sectores es más fácil de usar que 7-Zip, de ahí su inclusión. En lugar de usar un modo de referencia como hicimos con 7-Zip, aquí tomamos un conjunto de archivos representativos de una pila genérica

33 archivos de video, cada 30 segundos, en 1.37 GB,
2834 archivos de sitios web más pequeños en 370 carpetas en 150 MB,
100 pistas de música Beat Sabre y archivos de entrada, por 451 MB

Se trata de una mezcla de formatos comprimibles e incompresibles. Los resultados que se muestran son el tiempo necesario para codificar el archivo. Debido al almacenamiento en caché de DRAM, ejecutamos la prueba durante 20 minutos y tomamos el promedio de las últimas cinco ejecuciones cuando el punto de referencia está en un estado estable.

Para la automatización, utilizamos las herramientas de temporización internas de AHK desde el inicio de la carga de trabajo hasta que la ventana se cierra, lo que significa el final. Esto significa que los resultados están contenidos dentro de AHK, con un promedio de los últimos 5 resultados que es bastante fácil de calcular.

Pruebas de CPU: heredado y web

Para recopilar datos para compararlos con puntos de referencia anteriores, todavía mantenemos una serie de pruebas en nuestra sección “heredada”. Esto incluye todas las versiones principales anteriores de CineBench (R15, R11.5, R10), así como x264 HD 3.0 y la primera versión muy ingenua de 3DPM v2.1. No transferiremos los datos de las pruebas anteriores a Bench, de lo contrario, se llenaría con 200 CPU con un solo punto de datos, por lo que se llenará a medida que probamos más CPU como las demás.

Pruebas web: Kraken, Octane y velocímetro

La evaluación comparativa con herramientas web siempre es un poco difícil. Los navegadores cambian casi a diario y la forma en que se utiliza la web cambia aún más rápido. Si bien existe cierto margen para evaluaciones comparativas avanzadas basadas en computación, la mayoría de los usuarios se preocupan por la capacidad de respuesta, lo que requiere un back-end sólido para trabajar rápidamente y proporcionarlo en el front-end. Los puntos de referencia que elegimos para nuestras pruebas web son esencialmente estándares de la industria, al menos una vez.

Cabe señalar que para cada prueba, el navegador se cierra y se vuelve a abrir uno nuevo con un caché nuevo. Usamos una versión fija de Chromium para nuestras pruebas con las capacidades de actualización eliminadas para garantizar la coherencia.

Mozilla Kraken 1.1

Kraken es un punto de referencia de 2010 de Mozilla y realiza una serie de pruebas de JavaScript. Estas pruebas son un poco más complicadas que las pruebas anteriores, y analizan la inteligencia artificial, la manipulación de audio, la manipulación de imágenes, el análisis json y las funciones criptográficas. El punto de referencia comienza con una descarga inicial de datos para el audio y las imágenes, y luego se ejecuta 10 veces dando un resultado cronometrado.

Repasamos la prueba de 10 ejecuciones cuatro veces (por lo que es un total de 40 ejecuciones) y promediamos los cuatro resultados finales. El resultado se da como tiempo para completar la prueba, y estamos alcanzando un límite asintótico lento con respecto a los procesadores IPC más altos.

Google Octane 2.0

Nuestra segunda prueba también está basada en JavaScript, pero utiliza mucha más variación de las técnicas JS más nuevas, como la programación orientada a objetos, la simulación del kernel, la creación / destrucción de objetos, la recolección de basura, las manipulaciones de matrices, la latencia del compilador y la ejecución de código.

Octane se desarrolló después de la interrupción de otras pruebas, con el objetivo de ser más similar a una web que las pruebas anteriores. Ha sido un punto de referencia popular, lo que lo convierte en un objetivo obvio para las optimizaciones en los motores de JavaScript. En última instancia, se retiró a principios de 2017 debido a esto, aunque todavía se usa ampliamente como una herramienta para determinar el rendimiento general de la CPU en una serie de tareas web.

Velocímetro 2: marcos de JavaScript

Nuestra prueba web más reciente es el Velocímetro 2 , que es una prueba sobre una serie de marcos de JavaScript para hacer tres cosas simples: crear una lista, habilitar cada elemento de la lista y eliminar la lista. Todos los marcos implementan las mismas señales visuales, pero obviamente las aplican desde diferentes ángulos de codificación.

Nuestra prueba pasa por la lista de marcos y produce una puntuación final indicativa de ‘rpm’, una de las métricas internas de referencia.

Repetimos sobre el punto de referencia durante una docena de bucles, tomando el promedio de los últimos cinco.

Pruebas heredadas

Pruebas de CPU: SPEC

SPEC2017 es una serie de pruebas estandarizadas que se utilizan para probar el rendimiento general entre diferentes sistemas, diferentes arquitecturas, diferentes microarquitecturas y configuraciones. El código debe compilarse y luego los resultados pueden enviarse a una base de datos en línea para su comparación. Cubre un rango de cargas de trabajo enteras y de punto flotante, y puede estar muy optimizado para cada CPU, por lo que es importante verificar cómo se compilan y ejecutan los puntos de referencia.

Ejecutamos las pruebas en un arnés construido a través del Subsistema de Windows para Linux, desarrollado por nuestro propio Andrei Frumusanu. WSL tiene algunas peculiaridades extrañas, con una prueba que no se ejecuta debido a un tamaño de pila fijo de WSL, pero para las pruebas similares es lo suficientemente bueno. Debido a que nuestras puntuaciones no son presentaciones oficiales, de acuerdo con las pautas de SPEC, tenemos que declararlas como estimaciones internas de nuestra parte.

Para los compiladores, usamos LLVM tanto para C / C ++ como para pruebas de Fortan, y para Fortran usamos el compilador Flang. La razón fundamental de utilizar LLVM sobre GCC son mejores comparaciones multiplataforma con plataformas que solo tienen soporte LLVM y artículos futuros en los que investigaremos más este aspecto. No estamos considerando compiladores de código cerrado como MSVC o ICC.

clang versión 10.0.0
clang versión 7.0.1 (ssh: //git@github.com/flang-compiler/flang-driver.git 24bd54da5c41af04838bbe7b68f830840d47fc03)

-Fast -fomit-frame-pointer
-march = x86-64
-mtune = core-avx2
-mfma -mavx -mavx2

Nuestros indicadores del compilador son sencillos, con conmutadores ISA básicos, rápidos y relevantes para permitir instrucciones AVX2. Decidimos construir nuestros binarios SPEC en AVX2, lo que pone un límite a Haswell en cuanto a la edad que podemos tener antes de que caigan las pruebas. Esto también significa que no tenemos binarios AVX512, principalmente porque para obtener el mejor rendimiento, el intrínseco AVX-512 debe ser empaquetado por un experto adecuado, como con nuestro punto de referencia AVX-512. Todos los principales proveedores, AMD, Intel y Arm, son compatibles con la forma en que estamos probando SPEC.

Tenga en cuenta que los requisitos para la licencia SPEC establecen que cualquier resultado de referencia de SPEC debe etiquetarse como ‘estimado’ hasta que se verifique en el sitio web de SPEC como una representación significativa del rendimiento esperado. Esto lo hacen con mayor frecuencia las grandes empresas y los OEM para mostrar el rendimiento a los clientes, sin embargo, es bastante exagerado para lo que hacemos como revisores.

Para el nuevo i7-11700K basado en Cypress Cove, no hemos tenido tiempo de investigar las nuevas diferencias de instrucción AVX-512, ya que esta es la primera CPU con socket de escritorio para el consumidor con las nuevas extensiones ISA, es algo que revisaremos en el revision completa. Sin embargo, según nuestras pruebas en las contrapartes centrales del servidor, no hay diferencias notables en SPEC.

En la suite SPECint2017, vemos que el nuevo i7-11700K es capaz de superar a sus predecesores de escritorio en todos los ámbitos en términos de rendimiento. El mayor salto de rendimiento se encuentra en 523.xalancbmk, que consiste en el procesamiento de XML con un gran salto de + 52,4% en comparación con el 10700K.

El resto de las mejoras se encuentran en el rango de + 0% a + 15%, con una ventaja geométrica total promedio de + 10% frente al 10700K. La ventaja de IPC debe estar en el rango de + 13%.

En las puntuaciones de FP, no hay nada que destaque demasiado, con mejoras generales uniformes en todos los ámbitos. La mejora total aquí es de + 16,5%, con la mejora de IPC en el rango de + 19%.

Aunque los nuevos núcleos Cypress Cove en el 11700K tienen buenas mejoras generacionales de IPC, eso es todo comparado con el predecesor bastante antiguo, lo que significa que para el rendimiento de un solo hilo, los avances no son suficientes para mantenerse al día con la última competencia Zen3 de AMD. , o para el caso, los núcleos Firestorm en el nuevo M1 de Apple.

Más interesantes son los resultados de SPEC de subprocesos múltiples. Aquí, la nueva generación de Intel muestra una mejora de rendimiento de + 7.3% y + 19.5% con respecto a su predecesor directo. Dados los aumentos de consumo de energía que hemos visto en esta generación, esos son resultados bastante poco impresionantes y, en realidad, representan una regresión de rendimiento / W. El actual 5600X de 6 núcleos de AMD en realidad está muy cerca del nuevo 11700K, pero consume una fracción de la energía.

Pruebas de juegos

Conclusión: la guerra de desgaste

Los equipos de productos de escritorio de Intel han tenido sus manos en un aprieto durante un tiempo. El objetivo siempre fue migrar de 14 nm a 10 nm cuando la intersección de rendimiento, costo y potencia llegaba al punto óptimo. Originalmente se esperaba que esto sucediera después de 2017, con el lanzamiento después de Kaby Lake, pero estamos aquí en 2021 y esto aún no ha sucedido. El proceso de fabricación de 10 nm de Intel no puede escalar al nivel adecuado de frecuencia, potencia y costo que se necesita para un procesador de escritorio eficaz.

Ahora Intel está lleno de gente inteligente: junto con el equipo de fabricación, los equipos internos de microarquitectura que construyen los núcleos de la próxima generación ya habrían avanzado entre 3 y 5 años en su ciclo de diseño, esperando implementar las mejores ideas cuando la fabricación estuviera lista. Sin embargo, con un enchufe en la tubería y sin forma de parchearlo fácilmente, Intel tuvo que decidir qué hacer en el peor de los casos: ¿qué pasa si 10nm nunca está listo?

La primera parte de esa respuesta está hoy en nuestras manos. A pesar de no estar diseñado para 14 nm, Intel tomó su diseño de núcleo Sunny Cove de 10 nm (y gráficos integrados Xe) y lo reconstruyó desde cero. Esto suena arduo: es necesario repensar todas las soluciones para que las cosas funcionen en 10 nm y resolver nuevos problemas con la sincronización y la integridad de la señal. No fue diseñado para 14 nm, y para significar su diferencia, se llamó Cypress Cove. Estos ingenieros sin duda están frustrados de que tuvieran diseños centrales sobre la mesa, listos para funcionar en 10 nm, pero tuvieron que volver a dibujarlos en un estilo diferente donde son más grandes y necesitan más energía, solo para sacar algo de la puerta. . Ese estilo diferente es Rocket Lake, y específicamente el Core i7-11700K que hemos probado hoy.

Mejoras para escritorio, más o menos

Rocket Lake trae a la mesa un gran diseño de núcleo con nuevas características como AVX-512 y PCIe 4.0. El núcleo es tan grande que para mantener el tamaño de la matriz, el rendimiento y los costos similares a los de la generación anterior, el diseño final solo tiene ocho núcleos en lugar de diez. Esto parecería ser una regresión del 20% en el rendimiento absoluto; sin embargo, Intel está promoviendo una ganancia de rendimiento promedio de + 19%, igualando todo, al tiempo que proporciona las nuevas funciones enumeradas anteriormente. Ese + 19% también debería aplicarse a situaciones de un solo hilo, lo que permite un tiempo de respuesta de un solo usuario más rápido.

Para validar las afirmaciones de Intel aquí, ejecutamos nuestros puntos de referencia estándar de la industria, como SPEC, y comparamos el i7-10700K con el i7-11700K. A pesar de estas pruebas, podemos confirmar que Intel tiene razón en esa afirmación de + 19%, sin embargo, eso no es un aumento general del rendimiento y hay un gran asterisco al lado de ese número.

Todas las cargas de trabajo en su núcleo, incluso cuando se navega por la web o con el procesamiento de textos, se pueden dividir en enteros (números enteros, la mayoría de las cargas de trabajo) y punto flotante (números con decimales, cargas de trabajo con matemáticas). En nuestras pruebas, vimos lo siguiente:

• Punto flotante de un solo hilo: + 19,0%
• Punto flotante multiproceso: + 19,5%

Suena genial, ¿verdad?

• Entero de un solo hilo: + 13.0%
• Número entero de subprocesos múltiples: + 7,3%

Oh. Si bien la afirmación de Intel de un + 19% es técnicamente correcta, solo parece aplicarse a cargas de trabajo con muchas matemáticas. Los beneficios del rendimiento no basado en matemáticas siguen siendo mejores que el promedio, del 7 al 13%, pero rara vez varían, ya que las grandes afirmaciones de Intel vienen con un asterisco fácilmente identificable.

Cuando miramos nuestros datos del mundo real, en casi todos los puntos de referencia, el 11700K iguala o supera al 10700K, y muestra la ganancia de IPC en pruebas como Dolphin, Blender, POV-Ray, Agisoft, Handbrake, pruebas web y, obviamente, SPECfp. Obtiene una gran victoria en nuestra prueba 3DPM AVX, porque tiene AVX-512 y ninguna de las otras CPU.

Un comentario sobre los juegos: latencia del núcleo

Los usuarios que miren nuestros resultados de juego sin duda se sentirán decepcionados. Las mejoras que Intel ha realizado en su procesador parecen hacer muy poco en nuestras pruebas de juegos y, en muchos casos, vemos regresiones de rendimiento en lugar de mejoras. Si Intel está promocionando un + 19% de IPC, ¿por qué los juegos se ven tan afectados negativamente?

La respuesta de nuestro lado de la valla es que Rocket Lake tiene algunas regresiones en el rendimiento de núcleo a núcleo y su perfil de latencia de memoria.

Como señaló Andrei en nuestras pruebas de jerarquía de caché, el mayor cambio es que la latencia L3 ahora es ~ 51 ciclos, en lugar de ~ 43 ciclos. Probablemente aquí es donde entra gran parte de la caída del rendimiento de latencia de núcleo a núcleo, ya que ahora estamos viendo latencias de 28-30 nanosegundos en la mayoría de los núcleos, en lugar de 18-24 como se observa en Comet Lake. El L3 mucho más lento en ciclos sin procesar es contrario a lo que vimos en la versión Sunny Cove de este núcleo, y sin una respuesta obvia sobre por qué este podría ser el caso, pero se presta mucho al rendimiento de los juegos. Intel puede revelar en una fecha posterior las razones exactas de este cambio estructural.
Pero los márgenes, la potencia y la temperatura

Pasando a esta revisión, los usuarios que han seguido la plataforma de escritorio de Intel saben que los modos de energía sostenida en los modelos de recuento de núcleos altos son mucho más altos de lo que sugiere el número en la caja. Esto no solo se limita a los procesadores overclockeables, como en nuestra revisión i9-10850K donde vimos 260 W, sino que incluso el i7-10700 con una potencia de 65 W empujaría 200 W, especialmente en placas base que ignoraban los límites turbo recomendados (que es prácticamente todas las placas base para juegos de consumo).

La migración de los núcleos Sunny Cove, ya conocidos por consumir mucha energía, a un nodo de proceso más antiguo y luego agrupar AVX-512 en la mezcla, ha tenido a varios entusiastas preocupados por cómo enfocaría Intel el consumo de energía. Según nuestras pruebas de hoy, la respuesta simple es ofrecer una bendición a la deidad de su elección por una buena CPU. Nuestro Core i7-11700K tiene una potencia de 125 W. Pero en la práctica, para una carga de trabajo AVX2 moderada, vimos 225 W de consumo de energía y una temperatura de 81ºC, mientras que una carga de trabajo general rondaba los 130-155 W a 60ºC.

El peligro es que durante nuestras pruebas, la potencia alcanzó un pico de llamativos 292 W. Esto fue durante una carga de trabajo AVX-512 de todos los núcleos, configurada automáticamente en 4,6 GHz, y la CPU alcanzó los 104ºC momentáneamente. No hay indicios de que la frecuencia se reduzca al alcanzar esta temperatura, y nuestro enfriador es suficiente para la carga térmica, lo que significa que, en algún nivel, podríamos estar alcanzando los límites de densidad térmica del procesamiento matemático amplio en los 14 nm de Intel. Para mantener bajas las temperaturas, se deben utilizar nuevos métodos de enfriamiento. Noté que Intel ha reducido el espacio de aire dentro del paquete de la CPU, con toda la altura z reducida de 4,48 mm a 4,36 mm. Es un pequeño cambio, lo que significa menos material para que la energía térmica se transfiera, lo que mejora el enfriamiento.

Los usuarios que busquen hacer overclock en estos procesadores tendrán que implementar aquí una fuerte compensación AVX-512.

Una roca (et) y un lugar duro, pero la única opción disponible

Rocket Lake es el producto de una idea para respaldar un diseño y garantiza que el popular segmento de mercado de procesadores de consumo esté más cerca de la vanguardia del diseño de Intel, a pesar de la falta de disponibilidad del último nodo de proceso de Intel para hardware de escritorio.

En el futuro, Intel se ha comprometido (en pocas palabras) con una filosofía menos rígida que en el pasado: usar el diseño correcto en el nodo de proceso correcto, en lugar de unir los dos. Rocket Lake es posiblemente el primer producto que proviene de esa filosofía, a pesar de ser una parte posterior que se produjo después de que se diseñó el núcleo en primer lugar. Pero Intel medirá su éxito como una vara de medir inicial para esfuerzos similares en el futuro. Y tendrá éxito, por razones externas a Intel.

Nuestros resultados muestran claramente que el rendimiento de Intel, aunque sustancial, todavía está por detrás de su principal competidor, AMD. En una comparación de núcleo a núcleo, Intel es un poco más lento y mucho más ineficiente. El dinero inteligente sería conseguir el procesador AMD. Sin embargo, debido a la alta demanda y la priorización de los contratos comerciales y empresariales, las únicas piezas disponibles en los estantes minoristas en este momento son de Intel. Cualquier usuario que busque comprar o construir una PC hoy en día tiene que esquivar, agacharse, sumergirse, sumergirse y esquivar su camino para encontrar una a la venta, y también esperar que no esté a un precio enormemente inflado. La solución menos estresante sería comprar Intel y usar la última plataforma de Intel en Rocket Lake.

Normalmente, este es el punto en el que concluiría con un comentario sobre qué recomendar. Pero la respuesta clara durante esta crisis de chip es comprar el procesador que puede encontrar a un precio razonable. Todavía no tenemos precios oficiales en Rocket Lake, pero si un minorista estaba feliz de vender unidades antes del lanzamiento oficial, entonces tal vez haya suficiente cantidad para todos.

4 respuestas a «Revisión de Intel Core i7-11700K»

  1. Prsonalmnte si vi mejoras interesantes, solo k no se enfocaron al sector del gaming especificamente, pero las mejoras en cuanto al trabajo son de apludir

    1. javi.
      mejora casi no existen. solo en algunas cosas que usan AVX-512, y en esos casos con un comnsumo cde energia casi el doble que el AMD equivalente
      y en trabajos mas “normales” consume 100W mas
      la temperatura, mucho mayor
      es que hay cosas, incluso que no son juegos, que queda por detras de “equivalentes” de intel de dos generaciones atras

      1. era de esperar, esos cores fueron diseñados para 10nm, por mucho qu digan que fueron escalados a 14nm las leyes de la física se siguen aplicando, si quieres buenos cpus intel los de laptops con gráficos xe.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *