lunes, 20 de agosto de 2018

¿Qué es el Ping, cómo funciona y para qué sirve?

¿Cuál dirías que es el factor más importante a la hora de decir si una conexión a Internet es de buena calidad? Probablemente muchos de vosotros hayáis pensando en el ancho de banda o la estabilidad, pero hay otro factor que determina en gran medida la calidad de una conexión: hoy abordamos la latencia y conocemos al comando que permite saber todo sobre ella, Ping.


El ancho de banda de una conexión a Internet se suele expresar en megabits por segundo (no confundir con megabyte, que son ocho veces más) y mientras mayor sea más capacidad tendremos para enviar o recibir datos a través de la red. Si hacemos una analogía con una autopista, el ancho de banda serían los carriles; cuantos más mejor.

La latencia, por su parte, mide el tiempo que tarda en transmitirse un paquete de datos como los que han sido necesarios para que puedas estar leyendo estas líneas. Si queremos ser más precisos, podemos definir latencia como la suma de los retardos temporales que se producen dentro de una red. Volviendo a nuestra autopista, con la latencia es el tiempo que tardan los “coches” en recorrerla.

Ping, el medidor de latencia


Ping es una utilidad de diágnostico muy popular en el entorno de las redes informáticas y que suena a casi cualquier usuario que tenga mínima experiencia con ordenadores. El término, según su creador, proviene de los sónares de los submarinos que envían una señal sonora y miden cuánto tarda en volver para determinar si hay algún obstáculo. De nuevo, esta analogía nos puede servir para comprender como funciona.


El origen de ping viene del sónar de los submarinos.

Cuando ejecutamos “un ping” enviamos un mensaje ICMP en un paquete IP desde nuestro ordenador, que incluye un código, un número identificador, una secuencia de 32 bits y un espacio opcional de datos que deben concidir con el mensaje de respuesta. De esta forma se calcula el tiempo que tarda en ir y volver y se puede saber si se han perdido datos por el camino.

Mientras menor sea el tiempo que registra el comando ping mayor será la calidad de nuestra conexión (y menor su latencia). Existen aplicaciones avanzadas para sacar el máximo partido de ping (os recomiendo probar ZenMap o Pinkie, por ejemplo) pero para la mayoría de usuarios les basta con lo que ofrecen los sistemas operativos por defecto

Cómo sacar partido a Ping


Ejecutar el comando ping es tan sencillo como abrir la consola de comandos (en Windows basta escribir CMD en el buscador) y teclear:


Por ejemplo ping google.com o ping 91.198.174.192. El resultado que obtendréis debe ser similar a esta captura. En Windows, por defecto, se envían cuatro paquetes, obteniendo el tiempo que tarda cada uno en milisegundos y el TTL o tiempo de vida, el número de saltos que recorre el paquete desde que lo enviamos hasta que lo recibimos de nuevo.

¿Cuánto es un buen ping? Lo ideal es tener menos de 5 ms, aunque es realmente complicado conseguirlo. En España, con una conexión de calidad media, deberíamos estar entre los 20 y los 40 ms, considerando los 60 ms como el límite máximo para considerarlo como aceptable. A partir de los 70 algunos ya percibirán “lag” y de 100 en adelante es complicado disfrutar de cualquier juego en modo competitivo.


Vamos a dar un paso más y descubramos algunos parámetros que permiten personalizar el funcionamiento de Ping.
  • Con el modificador -n podemos establecer el número de paquetes que se envían. Por defecto, en Windows son cuatro.
  • Con -w podemos ajustar el tiempo de espera en milisegundos. Por defecto es de 1.000, lo que equivale a un segundo.
  • Si añadimos -l podemos ajustar el tamaño del paquete. Por defecto, se envían de 32 bytes.
  • Con el -a podemos conocer la dirección IP que corresponde a un dominio. Por ejemplo prueba ping -a google.com
  • Para conocer la IP desde la que nos han enviado un correo basta teclear ping y la dirección. Ejemplo ping tucorreo@gmail.com
  • Si quieres saber cuanto tardas en comunicarte con un servidor concreto prueba ping -n 10

Qué implica tener un ping elevado en mi conexión


En función del uso que des a tu conexión a Internet, tener una latencia elevada puede suponer un problema. El ejemplo más evidente son los videojuegos en modo competitivo, donde las diferencias de latencia (o lag, como también lo habréis visto) pueden ser muy molestas y hacerte perder partidas.


El lag también está presente en servicios como la videoconferencia online o el streaming, donde la estabilidad es fundamental para evitar el que el vídeo o el audio se entrecorten. Las causas de tener una elevada latencia dependen de muchos factores, desde la calidad de la conexión al uso de tu red o dónde se sitúe el servidor del servicio que estés utilizando. En ocasiones, una mala configuración del sistema operativo o el uso de routers o PLC de baja calida también puede provocar problemas.

Cómo reducir la latencia de una conexión a Internet


Desde el punto de vista del usuario, las opciones se limitan a lo que pasa dentro de casa. Obviamente hay operadores y conexiones mejores que otras, así que partamos de la base que tienes la conectividad que te puedes permitir. Aquí van algunos consejos.
  • Si te preocupa la latencia, usa siempre cable Ethernet. Aunque la conexión WiFi ha mejorado con el tiempo, su latencia siempre es más alta que con una conexión por cable.
  • Si no puedes conectar por Ethernet, planteaté un PLC. Cada vez son más económicos y ofrecen un rendimiento muy superior al WiFi.
  • Cuidado con el uso compartido. Si tienes una conexión limitada, no es buena idea que alguien vea Netflix al mismo tiempo que juegas. A más exigencia en la red, mayor latencia.
  • Desactiva el uso de VPN y cualquier software de “optimización” de conexión.
  • Mantén actualizado tu software y protegido mediante un buen antivirus.
  • Si te puedes permitir fibra, mucho mejor que ADSL.
  • Si todo falla, habla con tu compañía. En ocasiones, una instalación defectuosa o hardware en mal estado pueden provocar un lag excesivo.
 Saludos.

La Nvidia GeForce RTX 2070 tendrá 2304 CUDA Cores

Ya tenemos por aquí las que serían las primeras especificaciones técnicas de la Nvidia GeForce RTX 2070, la única tarjeta gráfica que aún no había sucumbido a las filtraciones. Según indicó Videocardz en su cuenta de Twitter, según sus fuentes, le han indicado que dicha tarjeta gráfica incluye un silicio Turing con un total de 2304 CUDA Cores, los cuales irán acompañado de 8 GB de memoria GDDR6 @ 14 GHz.

Esta memoria iría unida a una interfaz de memoria de 256 bits arrojando un ancho de banda de 448 GB/s, que podría ser de 384 GB/s si finalmente existe una variante que emplee unos chips de memoria más básicos @ 12 GHz.


En lo que respecta al rendimiento y precio de la Nvidia GeForce RTX 2070, por ahora, al no tener información fiable, podemos decir que aún se desconoce, únicamente sabiendo que será anunciada mañana, lunes de agosto, junto a las GeForce RTX 2080 Ti y GeForce RTX 2080, por lo que todas las incógnitas quedarán resueltas en poco más de 24 horas.


Saludos.

La Nvidia GeForce RTX 2080 Ti Founders Edition traerá doble ventilador

Nada mejor que arrancar el día con nuevas filtraciones, la cuales confirman los rumores: la Nvidia GeForce RTX 2080 Ti de referencia, la Founders Edition, empleará un sistema de refrigeración de doble ventilador. Esto confirma lo que ya temíamos, un aumento de consumo y con ello de temperaturas obligando a Nvidia a mejorar significativamente el sistema de refrigeración.


Realmente no es que sea una mala noticia, todo lo contrario, ya que si este sistema de refrigeración es lo suficientemente bueno, y barato, respecto a los modelos Custom, por primera vez podría tener sentido comprar una de estas gráficas (quitando casos muy concretos como modelo de referencia para líquidas). Ahora bien, si su precio es similar, o no se distancia suficiente de los modelos personalizados con mejores temperaturas, pues estaremos en las mismas de siempre.

Por lo demás, nada nuevo, la Nvidia GeForce RTX 2080 Ti emplea una arquitectura Turing empleando el silicio TU102 con 4352 CUDA Cores junto a 11 GB de memoria GDDR6 unida a una interfaz de memoria de 352 bits. Esta tarde, a las 18:00pm GMT +1 toca evento en directo, quizás el más esperado de los ultimos años, pues no solo se presentará esta gráfica, sino la GeForce RTX 2080, la GeForce RTX 2070 y se mostrarán nuevas características y tecnologías.

vía: Videocardz

Saludos.

domingo, 19 de agosto de 2018

Asus GeForce RTX 2080 ROG Strix y GeForce RTX 2080 Dual

Por fin nos quitamos algo de aburrimiento viendo la Asus GeForce RTX 2080 ROG Strix y la Asus GeForce RTX 2080 Dual. La primera, cómo no, es el modelo tope de gama, mientras que la segunda es un modelo más básico y económico.

La Asus GeForce RTX 2080 ROG Strix presenta un diseño bastante sobrio para ser una Asus ROG, es más, no parece ni que sea una Asus. De esta gráfica destaca, al igual que en todas, el enorme sistema de refrigeración empleado, donde aquí tenemos un único, pero muy extenso radiador de aluminio atravesado por varios heatpipes de cobre refrigerados por medio de una configuración de triple ventilador.


La Asus GeForce RTX 2080 Dual quizás no sea una gráfica que recomendemos su compra, y es que el sistema de refrigeración Dual siempre se ha usado en la gama media.

En la serie GeForce GTX 10, el modelo más avanzado que usó este sistema de refrigeración fue la GeForce GTX 1060, y viendo como todos los fabricantes están optando por configuraciones de triple ventilador, junto a radiadores enormes, debido al TDP de 285W , se ve bastante complicado disipar bien el calor con un radiador más pequeño que la ROG Strix, del cual no se ve ningún heatpipe, por lo que podría usar solo una base de cobre o algún heatpipe plano en la parte inferior con suerte, y todo ello con un ventilador menos, mientras que los dos restantes mueven menos flujo de aire.


Por último la Asus GeForce RTX 2080, vamos, sistema de refrigeración de referencia, con ventilador blower y PCB de referencia. Sabiendo que las GeForce GTX 10 ya se calentaban bastante, no nos queremos imaginar este modelo, que además de calentorro será ruidoso.

Por lo demás, hay que recordar que todas estas gráficas disponen de tres puertos DisplayPort 1.4 (7680 x 4320p @ 60 Hz), un HDMI 2.0b, un puerto USB Type-C para el estándar VR VirtualLink, pierde el conector Nvidia SLI por un Nvidia NVLink @ 100 GB/s, y el precio de los modelos personalizados rondaría los 800 dólares, lo que podríamos traducir en unos 900-950 euros.



vía: Videocardz

Saludos.

EVGA GeForce RTX 2080 XC Ultra, la primera GeForce RTX compacta

Siguen las filtraciones, esta vez tocándole el turno a la EVGA GeForce RTX 2080 XC Ultra, la cual se trata de la primera gráfica GeForce RTX compacta que nos encontramos, además de ser la primera tarjeta gráfica de la serie XC Ultra de EVGA.

En este caso, que sea compacta, no es que sea la mejor de las noticias tras conocer su TDP de 285W, de ahí que todos los fabricantes estén empleando sistemas de refrigeración de triple ventilador, aunque en este caso EVGA parece usar un radiador de aluminio mucho más grueso y parece que incorpora 1 o 2 heatpipes más para compensarlo, todo ello visible gracias al emplear una carcasa traslúcida, que ahora queda muy bonito, pero no cuando el polvo invada su interior, claro.


La EVGA GeForce RTX 2080 XC Ultra es la primera GeForce RTX que no parece una lancha, y en su interior se encuentra un silicio Turing TU104 con 2944 CUDA Cores acompañado de 8 GB de memoria GDDR6 @ 14 GHz con una interfaz de memoria de 256 bits arrojando un ancho de banda de 448 GB/s.

La información se completa al mismo estilo que el resto de gráficas RTX: con tres puertos DisplayPort 1.4 (7680 x 4320p @ 60 Hz), un HDMI 2.0b, un puerto USB Type-C para el estándar VR VirtualLink, pierde el conector Nvidia SLI por un Nvidia NVLink @ 100 GB/s, y el precio de este modelo sería de 800 dólares, lo que podríamos traducir en unos 900-950 euros.



Saludos.

sábado, 18 de agosto de 2018

Así se ve el PCB de la Nvidia GeForce RTX 2080 y el silicio Turing TU104

Seguimos con las filtraciones de la Nvidia GeForce RTX 2080, la cual esta vez podemos ver al desnudo, y eso significa poder encontrarnos con un PCB en forma de muestra para su calificación, es decir, una unidad de pre-producción. En ella nos encontramos con el silicio Turing TU104, TU104-400-A1 para ser exactos, que es el que da vida a la GeForce RTX 2080.


Este PCB cuenta con 8 módulos de memoria GDDR6, cada uno de ellos sería de 1 GB para sumar los 8 GB GDDR6 @ 14 GHz que incorporará la gráfica. Ya sin sorpresas, podemos ver, nuevamente, que se alimentará mediante dos conectores PCI-Express de 8+8 pines, mientras que los conectores Nvidia SLI pasan a mejor vida para dar cabida a la nueva interconexión de 100 GB/s Nvidia NVLink junto a un puerto USB Type-C para cumplir con el nuevo estándar VirtualLink, el cual cumplirán todos los fabricantes de gafas de realidad virtual en sus futuros lanzamientos.

Videocardz dará a conocer en breve las especificaciones de la Nvidia GeForce RTX 2080 Ti y GeForce RTX  2080. Tras ello, ya solo quedará conocer el rendimiento y su precio final.




Saludos.

MSI GeForce RTX 2080 Ti DUKE

Tras filtrarse las MSI GeForce RTX 2080 Gaming X Trio, ahora le toca el turno a la MSI GeForce RTX 2080 Ti DUKE, gráfica que en esta ocasión ofrece un diseño mucho más atractivo al no ser tan “agresivo” o “macarra”, donde la iluminación LED RGB también pasa a un segundo plano mostrándose tras un acrílico difuminada. Este modelo da la sensación de ser algo más largo, lo que le habría valido para incluir tres ventiladores del mismo tamaño a diferencia del modelo anterior, aunque desconocemos si hay algún recorte en términos de componentes del PCB o sistema de refrigeración.


Por la parte trasera también es más atractiva, mostrando el enorme dragón característico de MSI, junto al nombre de la serie, y como un refuerzo al final de aluminio fijado por medio de tres tornillos. Por lo demás nada nuevo, sin conector Nvidia SLI pero con el NVLink de 100 GB/s, el puerto VirtualLink para las gafas de realidad virtual de nueva generación, y es lógico pensar que tanto la DUKE GTX 2080 Ti como la DUKE GTX 2080 lleguen a una menor velocidad que el modelo anteriormente citado. Obviamente, en el día de hoy seguiremos viendo más modelos.



vía: Videocardz

Saludos.

MSI GeForce RTX 2080 Ti Gaming X Trio

Ya tenemos la primera imagen de una RTX 2080 Ti custom, la MSI GeForce RTX 2080 Ti Gaming X Trio. La tarjeta gráfica que destaca por emplear un nuevo sistema de refrigeración conformado por la ya obligada configuración de triple ventilador para una máxima refrigeración sin sacrificar tanto la sonoridad.


Esta gráfica cobra vida por medio de dos conectores PCI-Express de 8+8 pines, y ofrece una destacada iluminación RGB. La gráfica dice adiós a los conectores Nvidia SLI en la serie GeForce RTX e integra el conector NVLink y el nuevo estándar VR VirtualLink, es decir, un puerto USB Type-C para conectar la nueva generación de gafas de Realidad Virtual.


Poco más conocemos de la MSI GeForce RTX 2080 Ti Gaming X Trio, salvo que incluirá un backplate de aluminio y que se ha visto acompañada de su hermana menor, la MSI GeForce RTX 2080 Gaming X Trio, la cual presenta una estética idéntica. El lunes, cuando se presenten en sociedad, se darán a conocer otros modelos personalizados de otros ensambladores, además de la GeForce RTX 2070.


Saludos.

viernes, 17 de agosto de 2018

Descarga gratis por tiempo limitado el juego Orwell para PC [Steam |Windows|Mac|Linux]

La Humble Store nos permite descargar de forma gratuita Orwell, un galardonado juego independiente desarrollado por el estudio alemán Osmotic Studios, que nos mete dentro de un simulador / juego de aventuras. Antes de que leas para nada, por desgracia el juego está íntegramente en inglés, podemos mirarlo como una buena excusa para repasar nuestro inglés, ya aprender no, pues todo el día con un diccionario al lado pierde la gracia.

A modo de resumen, recuerda a un Watch Dogs, en el sentido que podremos investigar a todos los personajes de la pantalla. Nada más arrancar el juego, utilizaremos el sistema Orwell, un “Gran Hermando”, para descubrir al causante de un atentado.

Para proceder a su descarga, basta con logearnos (o crear una cuenta) en Humble Bundle, añadir el juego al carrito, y listo, recibiremos una key que deberemos meter en Steam para añadir el juego a nuestra biblioteca de por vida. Orwell se puede descargar de forma gratuita hasta las 19:00pm (GMT +1 / 1 hora menos en Canarias) del sábado (18 de agosto).

El Gran Hermano ha llegado – y eres tú. Investigar la vida de los ciudadanos para encontrar a los responsables de una serie de ataques terroristas. Información de internet, comunicaciones personales y archivos privados son accesibles para ti. Pero, ten cuidado, la información que tú suministras tendrá consecuencias…
Orwell es un nuevo programa de seguridad gubernamental que tiene el poder de examinar la presencia en línea de cada persona en The Nation. Puede controlar todas las comunicaciones personales y acceder a cualquier ordenador. Para preservar la privacidad de los ciudadanos, los investigadores humanos examinan los datos hallados por Orwell y deciden qué información se debe transmitir a las fuerzas de seguridad y cuáles deben ser rechazadas.
Seleccionado entre miles de candidatos, usted es el primer investigador humano de Orwell. Y cuando un ataque terrorista roca la ciudad capital de la nación de Bonton, Orwell, y tú, sois puestos inmediatamente a prueba.
Comenzando con una sola persona de interés, ayudarás a las fuerzas de seguridad a construir y perfilar una red de potenciales culpables. Pero ¿son realmente terroristas? ¿Qué dice la información que revela a Orwell sobre ellos? ¿Qué pasa si descubre cosas sobre ellos que ni siquiera sus seres queridos saben? ¿Cuál es el precio real de mantener la seguridad que la Nación está anhelando?


Saludos.

Intel confirma la soldadura de Indio en el Core I9-9900K

Gracias a las últimas filtraciones de nuestro compañero de Videocardz, podemos conocer de forma oficial que Intel usará una soldadura para unir el die y el encapsulado del Intel Core i9-9900K. Por desgracia, esta sería la única CPU en contar con este gran avance en refrigeración, por lo que otras CPUs de alto rendimiento como el Intel Core i7-9700K (la segunda CPU de 8 núcleos) o el Intel Core i5-9600K seguirán usando pasta de dientes, un compuesto térmico de baja calidad.



Esta información queda confirmada mediante una de las diapositivas filtradas, donde como nuevas características y tecnologías sale “Solder Thermal Interface Material (STIM)“, pero todo ello está ligado al procesador Intel Core i9, y como solo habrá uno para el socket LGA1151, este es el Core i9-9900K, donde los 8 núcleos y 16 hilos de procesamiento con una frecuencia Base/Turbo de 3.60/5.00 GHz (velocidad máxima para un solo núcleo) verán su temperatura reducida en hasta 20ºC gracias a la soldadura.


Por desgracia, es una segunda mala noticia para el Intel Core i7-9700K, el cual no solo debe lidiar con ser el primer Core i7 en ver cómo se le ha suprimido la tecnología HyperThreading (8 núcleos + 8 hilos), sino que también verá como su refrigeración será mucho peor que el Core i9. Si lo miramos desde el lado empresarial, es una buena estrategia para forzar la compra del Core i9.

Por su parte, con el Core i5-9600K sucede lo mismo, tenemos 6 núcleos y 6 hilos, por lo que es un salto hacia atrás respecto a la 8ª Generación, la cual es capaz de ofrecer hasta 6 núcleos y 12 hilos ahora inexistentes.

En lo que respecta a fecha de lanzamiento, por ahora las fechas se mueven entre el mes de octubre y septiembre de este año (2018).




Saludos.

jueves, 16 de agosto de 2018

Microsoft hace fácil las copias de los ficheros en la nube con Windows 10 y OneDrive


Microsoft está desplegando entre los usuarios de Windows 10 una nueva característica de protección de carpeta para OneDrive.

La característica incluida por el gigante de Redmond ofrecerá sincronización automática de los documentos, las imágenes y las carpetas del escritorio a su servicio de almacenamiento en la nube, para así al menos tener ahí una copia de los datos más importantes para el usuario. Esto también permitirá sincronizar los ficheros entre distintos PC con Windows 10, haciendo que todo esté siempre en orden y sin traspapelar ni machacar versiones más recientes de los ficheros con otras más antiguas, ya que OneDrive se encargará de mantenerlos al día y en su versión correcta.

Microsoft empezó a desplegar la característica de protección de carpeta en junio para los usuarios business, pero ahora se extenderá a todos aquellos que usen OneDrive y Windows 10. La compañía ha comentado a The Verge que esto hará “más fácil mover contenidos a OneDrive, tener acceso a todos los ficheros importantes sobre todos los dispositivos y mantener los ficheros protegidos con características como la detección y la recuperación ante ransomware.”


Para habilitar la característica que nos ocupa en esta entrada solo hay que dirigirse a la configuración de OneDrive en Windows 10 y luego ir a la pestaña de Guardado Automático. Se trata de una característica que puede terminar siendo muy útil, no solo para tener copias de seguridad, sino también para mantener un flujo de trabajo fluido y ordenado entre distintos ordenadores.

Aunque es importante tener en cuenta que Microsoft tiene una serie de limitaciones para las carpetas protegidas de OneDrive (incluidos los archivos PST de Outlook o OneNote), para la mayoría de los usuarios posiblemente no supongan ningún inconveniente. 

Saludos.

Primera gráfica discreta de Intel después de 20 años


Intel ha aprovechado la feria gráfica SIGGRAPH 2018 para publicar un vídeo en Twitter que muestra su primera tarjeta gráfica de las últimas dos décadas.

El vídeo también confirma que la gráfica discreta Intel estará en el mercado en 2020, como adelantará el ex-CEO de la compañía, Brian Krzanich. La contratación de Raja Koduri, ex-responsable del grupo Radeon Technologies de AMD, confirmó que Intel iba muy en serio con este tipo de soluciones que debe abrir una nueva alternativa al duopolio actual de NVIDIA y AMD.

Hasta ahora, Intel se había limitado a desarrollar gráficos integrados en sus procesadores. Esta soluciones han aumentando el rendimiento en los últimos años y el chip híbrido Core con GPU Radeon ha sido una gran sorpresa como muestra de la asociación con un rival como AMD.

Claro qué, competir en rendimiento con las soluciones dedicadas para PCs de juegos, las profesionales para estaciones de trabajo y las GPGPU para centros de datos es un salto a todos los niveles. Pocos dudan de la capacidad de Intel en el diseño y fabricación de chips, pero construir una nueva arquitectura de GPU desde cero no es una tarea pequeña

Intel necesita proporcionar un nivel de rendimiento y eficiencia que se encuentre cercano al nivel de NVIDIA y AMD, además de un completo ecosistema de software en torno al hardware. El mismo Koduri prometió gráficas discretas de gama alta para una amplia gama de segmentos de computación”.

La nueva gráfica discreta Intel no es la primera


Esta no es la primera incursión de Intel en soluciones gráficas dedicadas. La compañía lanzó la gráfica Intel i740 en 1998, pero fue un fracaso comercial. Lo intentó de nuevo con las i752 y tampoco funcionaron. Antes que la tarjeta gráfica i754 llegara al mercado, Intel canceló toda la línea de producto.

En este punto, no está claro qué novedad podrá presentar Intel en 2020. El mercado gráfico ha cambiado mucho en las últimas dos décadas y hoy está completamente dominado por NVIDIA y AMD (tras la compra de ATI). Intel ha mejorado las prestaciones de sus integradas, pero hasta ahí podemos leer. En la imagen vemos una tarjeta que parece ser de una sola ranura PCIe y un ventilador de aleta metálica como solución de enfriamiento.

Poco más. Teniendo en cuenta la transición de los procesadores a los 10 nanómetros en 2020 con los “Ice Lake”, ese debería ser el proceso tecnológico de fabricación a utilizar para esta gráfica discreta Intel. Su rendimiento es una incógnita. Su importancia sí es grande: un tercer actor en la pelea del segmento gráfico.



Saludos.

miércoles, 15 de agosto de 2018

Nueva lista de vulnerabilidades en las cpus Intel con “L1 Terminal Fault”

Está claro que Intel tiene un serio problema con su actual y futura microarquitectura, y es que la compañía se ha pronunciado oficialmente confirmando una nueva lista de vulnerabilidades que afectan a toda su familia de procesadores Intel, y eso incluye desde los procesadores de escritorio Intel Core hasta los de uso profesional como los Intel Xeon.

La vulnerabilidad, llamada “L1 Terminal Fault” (L1TF), afecta a los procesadores Intel que admiten la tecnología SGX (Software Guard Extensions), que es en su mayoría. Un grupo multinacional de investigadores de la Universidad de KU Leuven, Technion – Instituto de Tecnología de Israel, Universidad de Michigan, Universidad de Adelaida y Data61, hizo una crónica de la vulnerabilidad. El exploit implica interpretar y derivar datos del tiempo de la caché L1.

La anterior vulnerabilidad, NetSpectre, era un exploit de derivación de bit, lo que se mide aquí, es cómo la memoria SRAM de la memoria caché L1 se actualiza a diferentes patrones de bits y la transcripción a bits y bytes en el otro extremo. De esta forma, para solucionarlo, Intel tendría que aleatorizar los temporizadores de la memoria caché L1.


Por suerte, esto ya era algo de lo que habían avisado a Intel hace mucho tiempo, y junto al anuncio de la vulnerabilidad Intel también anunció que las actualizaciones de microcódigos para sus CPUs ya están en línea. La empresa estaba segura de tener una solución para esta vulnerabilidad antes de que se divulgara públicamente.

La compañía, en un comunicado, dijo que está trabajando incansablemente para que los clientes instalen las actualizaciones. 

Las tres variantes de la vulnerabilidad están registradas como CVE-2018-3615, CVE-2018-3620 y CVE-2018-3646.



Saludos.