Conecta con nosotros

A Fondo

Intel Core i5 750 y Core i7 870

Probamos los nuevos procesadores de Intel diseñados para máquinas de sobremesa y basados en la arquitectura Nehalem. Estos procesadores vienen acompañados del nuevo chipset Intel P55 Express y ofrecen un rendimiento óptimo incluso con las tareas más exigentes. Nuestro laboratorio técnico analiza la última propuesta del líder mundial en microprocesadores.

Publicado el

Probamos los nuevos procesadores de Intel diseñados para máquinas de sobremesa y basados en la arquitectura Nehalem. Estos procesadores vienen acompañados del nuevo chipset Intel P55 Express y ofrecen un rendimiento óptimo incluso con las tareas más exigentes. Nuestro laboratorio técnico analiza la última propuesta del líder mundial en microprocesadores.

La arquitectura Nehalem, que suponía una mejora notable sobre lo visto anteriormente, debutó el año pasado con un rotundo éxito en lo que a refinamiento, eficacia y rendimiento se refería. Su encarnación fue el procesador Intel Core i7, que con la serie 9xx de procesadores (i7 965, 940, 920 y posteriormente 975 y 950 también) se enfocó por precio y especificaciones a un público entusiasta, gamers o profesionales que necesitaban un rendimiento extremo a medio camino entre el mercado doméstico y el profesional.

Ficha técnica

Los precios eran elevados y también el de las placas base específicas para este tipo de procesadores, de modo que no llegaron a una audiencia extensa de usuarios. Tampoco lo necesitaba realmente, pues los procesadores AMD Phenom X4 y Phenom II X4 no evolucionaron demasiado en cuestión de rendimiento o arquitectura, y la familia Core 2 Duo y Core 2 Quad seguía siendo competitiva tanto por rendimiento como por precio.

La democratización de Nehalem

La familia Core i7 9xx presentaba algunas características que no suponían realmente un incremento significativo del rendimiento en condiciones normales, pero sí de la complejidad del procesador y de las placas. El zócalo LGA 1366, con un incremento espectacular del número de pines debido a la integración de un controlador de memoria de triple canal o la tecnología QPI, supone un reto para  cualquier fabricante, y además su utilidad se manifiesta con más claridad en los sistemas con varios procesadores.

Así pues, tenía poco sentido integrar estas características en los procesadores “convencionales”. Así que Intel ha suprimido QPI para dar paso a una tecnología de intercomunicación directa entre la CPU y el controlador de los periféricos, anulando la disposición tradicional de los chipsets en forma de “north bridge” y “south bridge”. Además, la memoria es ahora de doble canal en vez de tres. Con todo, el número de pines se redujo a 1156, y la estructura del chipset se simplificó en gran medida respecto al X58.

El nuevo conjunto de chips, o más bien el nuevo chip encargado  de controlar los recursos en la placa, es el Intel P55 Express, y en el momento del lanzamiento ya habrá disponibilidad de placas por parte de los principales fabricantes. MSI, GIGABYTE o ASUS tienen modelos confirmados, así como la propia Intel con el modelo Intel Desktop Boards DP55KG como tope de gama. En los próximos días publicaremos análisis detallados de estos productos.

La propuesta de Intel con su chipset P55 Express.

Memoria de doble canal

La elección de la memoria para los nuevos sistemas no debería suponer una ruptura respecto a la plataforma anterior. Eso sí, los nuevos procesadores Core i5 y Core i7 integran un controlador de memoria de doble canal, de modo que la instalación de los módulos preferida será de dos en dos en vez de en conjuntos de tres. Sigue siendo memoria DDR3, y la precaución de no emplear módulos con un voltaje por encima de 1,65 V se mantiene vigente.

No hay problema en instalar dos módulos de los tres que componen un kit para las placas con chipset X58, aunque sólo si ya se tuviese un kit de ese tipo, o de otro modo será complicado hacer uso de todos los módulos de memoria RAM. Pasar de triple a doble canal sólo tendrá un impacto negativo en pruebas de rendimiento sintéticas, pero no demasiado en las pruebas con aplicaciones reales, por no decir nada.

Los nuevos procesadores

La arquitectura de los procesadores Intel Core i5 y Core i7 con zócalo 1156LGA presentan la misma arquitectura que los Core i7 con zócalo 1366LGA. Nehalem aún tiene que durar y evolucionar, pero no de manera drástica. En esta nueva tanda de procesadores, por ejemplo, se ha trabajado en aras de un mayor aprovechamiento de la potencia y una mayor eficiencia.

El TDP se ha reducido hasta unos cómodos 95 W y mejorado el comportamiento dinámico de los núcleos, que ahora pueden alcanzar nada menos que hasta 3,6 GHz cuando las aplicaciones sólo hacen uso de un número limitado de núcleos entre uno y tres. Además, ha cambiado el tamaño de los procesadores y por ello es necesario instalarlos en placas con el zócalo compatible. Los ventiladores en principio también cambian, pero se pueden adaptar los compatibles con el antiguo zócalo mediante los accesorios correspondientes si el fabricante los pone a disposición de los usuarios.

El target de estos nuevos procesadores es esencialmente distinto al de los primeros Intel Core i7: tanto la placa como los procesadores pueden tener precios razonables al presentar una complejidad menor en el caso de las placas, y al tratarse de una arquitectura bastante consolidada en el caso de las CPU. Los Core i5 750 serán más económicos, para seguir con los Core i7 860 y Core i7 870.

El chipset P55 Express también tiene sus propias limitaciones, como es el máximo de 2 PCI-Express en una configuración 2 x 8. De este modo, el gaming extremo se queda fuera de estas configuraciones, aunque sí es compatible con CrossFire de AMD y SLI de NVIDIA. Además, las comparaciones inmediatas no serán con los Core i7 de la serie 9xx, sino con los procesadores Core 2 Duo y Core 2 Quad con microarquitectura Core.

 

Core i5 750 (Lynnfield)

Core i7 860 (Lynnfield)

Core i7 870 (Lynnfield)
MicroarquitecturaNehalemNehalemNehalem
Precio (por cada 1.000 unidades)199 dólares285 dólares555 dólares
Velocidad2,66 / hasta 3,2 GHz2,8 / hasta 3,46 GHz2,93 / hasta 3,6 GHz
Memoria caché  L1 / L2 / L34 x 32 KB / 2 x 256 KB / 8 MB Intel Smart Caché4 x 32 KB / 2 x 256 KB / 8 MB Intel Smart Caché4 x 32 KB / 2 x 256 KB / 8 MB Intel Smart Caché
Número de transistores774 millones774 millones774 millones
Superficie296 mm2296 mm2296 mm2
Controlador de memoriaDoble canal DDR3 / 1.333 MHzDoble canal DDR3 / 1.333 MHzDoble canal DDR3 / 1.333 MHz
Zócalo1156 LGA1156 LGA1156 LGA
Núcleos / Hyper-Threading4 / No4 / Sí (8 núcleos)4 / Sí (8 núcleos)



Top 5 cupones

A Fondo

Las empresas que más ayudan a pymes y autónomos españoles

Publicado el

La consultora Advice Strategic Consultants, de la que es socio director general nuestro colaborador, Jorge Díaz-Cardiel, ha llegado a la conclusión de que la Fundación Bancaria La Caixa, El Corte Inglés, Telefónica, Inditex y CaixaBank son las cinco primeras grandes empresas que, según las pymes y autónomos españoles, “más les ayudan” en el desempeño de su labor empresarial.

Se trata de unos resultados basados en las encuestas realizadas a pymes, microempresas y autónomos de varios sectores, así como entrevistas a líderes de opinión de nuestro país para contrastar opiniones. Según la consultora,  la coincidencia entre los dos públicos entrevistados es casi del 99%, mientras que el Índice de confianza estadística es el 98,2%.

Así, el primer dato destacable es que Fundación Bancaria La Caixa, seguida por El Corte Inglés, Telefónica, Inditex y CaixaBank son las empresas que las pymes y autónomos españoles más y mejor valoran, porque les ayudan en el desempeño de su labor empresarial. Les siguen líderes sectoriales: Danone, Calidad Pascual, HP, Apple, Sage Spain, Microsoft, Meliá Hotels International, Iberostar, Seat, Naturgy (antes, Gas Natural Fenosa), Iberia, Abertis, Pelayo, Mapfre, Cellnex Telecom y MSD.

En cada sector hay no menos de una docena de empresas que destacan, en ámbitos que aportan mucho al PIB, sea el turismo, con un 11%, o las TIC, con un 8,4%, por ejemplo”, indicó Díaz Cardiel. En total, las pymes y autónomos entrevistados han analizado 400 grandes empresas en un período de encuestación de tres meses.

Son sectores y empresas sistémicos para la economía y sociedad españolas. “El caso más emblemático es La Fundación Bancaria La Caixa, presidida por Isidre Fainé y más conocida como La Caixa”, añade Díaz Cardiel. De CaixaBank dependen las participaciones en Telefónica (5%) y Repsol (9,5%), aunque Criteria Caixa también posee un 1% de Telefónica, siendo La Caixa, por tanto, el primer accionista de la operadora.

Razones de valoración positiva de las grandes empresas

Preguntados los entrevistados por qué CaixaBank, un banco, seguido de Santander (con Popular, que aportó muchos clientes pymes y autónomos al banco cántabro), BBVA y Bankinter son tan importantes para ellos, la respuesta fue clara: “el acceso a la financiación bancaria, que en el caso de las pymes españolas alcanza el 88 por ciento versus el 50 por ciento de Alemania y el 30 por ciento en Estados Unidos. Durante los años de crisis, la principal preocupación de pymes y autónomos fue la sequía del crédito empresarial, abierto a empresas solventes entre 2014 y 2018, lo que ha facilitado la inversión empresarial”, explica Jorge Díaz Cardiel.

Telefónica, seguida por los otros operadores de telecomunicaciones, es importante para las pymes porque les hace llegar la fibra óptica, acceso a Internet, convergencia, contenidos, cloud, big data e inteligencia artificial. Contenidos, mediante su alianza con Netflix y cloud, gracias a su acuerdo con Amazon Web Services (AWS). Vodafone, Orange y Más Móvil siguen el mismo camino, “imitando al incumbente y líder del mercado”.

Pymes y autónomos han destacado el crecimiento de Telefónica, en un extremo, por la oferta y la calidad y de Más Móvil, en el otro extremo, porque ofrece precios bajos. Al mismo tiempo, señalan que “Vodafone baja y Orange sube”.

El Corte Inglés y la economía y la sociedad españolas están indisolublemente unidas, dicen pymes y autónomos, que dicen conocer bien El Corte Inglés en un 99%. “El Corte Inglés provee de todo -productos, servicios-, ofrece calidad de servicio, buena atención al cliente y, cada vez más, comercio electrónico para comprar online”. Otros grandes de la distribución, le siguen, como Inditex y Mercadona, entre otros. En Tecnologías de la Información, HP (hardware) y Sage Spain y Microsoft (software).

“La hostelería tiene campeones nacionales, Melia Hotels International, primero, e Iberostar Group, segundo. La expansión internacional de Meliá está ayudando a muchas pymes a seguir al líder hotelero, efecto de arrastre, que también se aprecia en Inditex o, en el caso de CaixaBank, líder del mercado ibérico, de expansión de nuestras pymes al país vecino, Portugal”. La automoción está dominada por Seat, empresa que tiene, como el resto de su sector en menor medida, una industria auxiliar (muy fuerte) del automóvil, compuesta de pymes, pero muy dependientes de los planes de las grandes empresas automovilísticas, cada vez menos españolas y más foráneas, por “lo que las decisiones se toman fuera de España, lo que preocupa a pymes y autónomos en automoción”.

En Energía, lidera Naturgy (antes denominada Gas Natural Fenosa), seguida por Iberdrola; en Aerolíneas, Iberia; en Seguros, Pelayo, primero, y Mapfre, después; en Gestión de Infraestructuras inalámbricas, Cellnex Telecom, “el mejor valor en bolsa (Ibex-35, en 2017 y 2018), con revalorización del 62%”.

Parámetros

Lo que más valoran las pymes y autónomos de las grandes empresas:

  • Que se les provea de contratos, carga de trabajo (98%)
  • Ayuda en la generación de Empleo (95%)
  • Facilidad de acceso a la Financiación bancaria (90%)
  • Mejoras en la gestión (84%)
  • Mejoras en sus procesos internos y de relación con clientes (76%)
  • Formación, especialmente importante en Telecomunicaciones, TIC y servicios financieros (75%)
  • Digitalización, transformación digital, (70%) que se traducen en más productividad y más competitividad.
  • Internacionalización, salida al exterior, exportar (69%)

Continuar leyendo

A Fondo

Las 7 tecnologías que se adoptarán masivamente en los próximos cinco años

Publicado el

Las 7 tecnologías que se adoptarán masivamente en los próximos cinco años

Durante los próximos cinco años, varias tecnologías que hoy están comenzando a gozar de cierto reconocimiento y popularidad entre el público se adoptarán de manera masiva. A ciencia cierta, no se sabe cuáles son, pero en Gartner ya aventuran cuáles serán las siete que sí lo harán. Y que lo harán en un periodo de entre dos y cinco años a partir de 2018.

Según datos de la consultora, la primera en conseguir el comienzo de su adopción masiva será el reconocimiento de voz. Esto sucederá dentro de unos dos años. Según Matthew Cain, Vicepresidente y analista de Gartner, “los efectos del reconocimiento de voz sólo pueden apreciarse si se observan día a día. Los consumidores y los trabajadores de las empresas interactúan cada vez más con aplicaciones sin tocar un teclado para ello. Además, las aplicaciones de voz a texto han proliferado, gracias a la adopción de chatbots y de asistentes personales virtuales en las empresas. También por la adopción de dispositivos con interacción de la voz por parte de los consumidores. Entre ellos, de smartphones y consolas de juegos. Y específicamente, de los altavoces con asistentes virtuales“.

Los chatbots y los asistentes virtuales, que están ganando poco a poco presencia en la empresa, son implementaciones que aportan más valor añadido al reconocimiento de voz. Ambos emplean Inteligencia Artificial y machine learning para atender a la gente o para automatizar tareas. Escuchan y observan comportamientos y se encargan de construir y mantener modelos de datos, así como de predecir y recomendar acciones. Los chatbots son precisamente otra de las tecnologías que experimentarán un mayor crecimiento en los próximos años. En la actualidad menos de un 4% de las organizaciones han puesto en marcha interfaces conversacionales como los chatbots, pero según la Encuesta para CIOs de 2018 de Gartner, ya hay un 38% de empresas y entidades que están planeando experimentar con estas tecnologías o, directamente, ponerlas en marcha en su día a día.

Otras tecnologías que van a crecer notablemente de aquí a cinco años son la analítica aumentada y la personal. Ambas están consiguiendo que la analítica esté disponible cada vez para más empleados. Así, todos tienen la oportunidad de hacer sus pinitos como científicos de datos. La analítica aumentada emplea machine learning automatizado para cambiar la manera en que se desarrollan, consumen y comparte n los datos.

Los que se dedican a la analítica y el análisis de datos deberían integrarla en sus estrategias de transformación digital para llevar información más avanzada a más personas. Entre ellas, a los científicos de datos “ciudadanos”, un grupo que va a ser cada vez más importante y numeroso. Según Gartner, para 2020, gracias sobre todo a la automatización de las tareas relacionadas con la ciencia de datos, estos científicos de datos van a superar a los que se dedican a ello profesionalmente en cuanto al análisis avanzado producido.

Como consecuencia de esto llegará la que hemos llamado la analítica personal, el análisis de los datos relevantes en función del contexto que proporcionará información personalizada, así como predicciones o recomendaciones efectuadas para que los usuarios particulares puedan beneficiarse de ellos. Gracias a esto, la ciencia de datos ciudadana ya es una tendencia que ha captado la atención de Gartner. Se trata de una rama del conocimiento que sienta las bases de la analítica de próxima generación, y que según la consultora, se convertirá rápidamente en una parte importante de la forma en que se hacen posible y se escalan las funciones de ciencias de datos en una empresa. Según apuntan sus analistas, para 2020 más del 40% de las tareas de ciencias de datos pasarán a estar automatizadas, lo que dará como resultado una mayor productividad y un mayor uso de datos por parte de los científicos de datos “ciudadanos”.

Otra de las tendencias tecnológicas que más va a crecer en los próximos años es el uso de plataformas de aprendizaje flexibles. Estas se encargan de ajustar la manera en que el contenido para enseñar se presenta a los usuarios. Para ello utiliza como base sus respuestas o sus preferencias, y su objetivo es optimizar la destreza digital de las plantillas de las empresas. Se calcula que su adopción se generalizará entre los próximos dos y cinco años.

Continuar leyendo

A Fondo

Red Hat celebra el aniversario de “Kubernetes, el nuevo Linux de la nube”

Publicado el

kubernetes

En los últimos años han cambiado muchas cosas en el ámbito tecnológico. El fenómeno de la computación en la nube, entendido como la implementación y despliegue de infraestructuras y servicios, se ha asentado, trayendo consigo beneficios y nuevos retos para los cuales ha sido necesaria la introducción de nuevas soluciones. Así, la potencia y versatilidad de la nube propició la tecnología de contenedores, y el rápido aumento de esta hizo lo propio con lo que conocemos como sistemas de orquestación. Es decir, Kubernetes, porque si bien hay otros, el proyecto de código abierto ha logrado posicionarse en muy poco tiempo como el referente absoluto de su categoría.

De hecho, son nombres como Docker o Kubernetes los que han abierto un mercado que apenas existía unos años atrás, convirtiéndose prácticamente en sinónimos de los términos que representan, léase contenedores u orquestación de contenedores. No es de extrañar, pues, la importancia que ha adquirido Kubernetes, o que Red Hat lo haya bautizado como “el nuevo Linux de la nube”. Nacido originalmente en el seno de Google, el gigante de Internet contó pronto con la colaboración de otras partes, entre las que se contaba la vendedora líder del Linux corporativo que ahora le rinde homenaje.

Aunque fue en junio de 2014 cuando se lanzó la primera versión alfa de Kubernetes, Red Hat celebra el tercer aniversario del proyecto, que un año más tarde lanzaría su versión 1.0. Sea como fuere, con el lanzamiento de su primera versión estable Kubernetes pasó a ser gestionado por la Cloud Native Computing Foundation (CNCF), uno de los proyectos de The Linux Foundation apoyado por las grandes empresas del sector, incluyendo a Google, Amazon, Cisco, Microsoft, Intel y otras tantas, que a la postre han sido las que han aupado y hecho crecer la tecnología al nivel que ostenta actualmente.

También Red Hat estuvo desde el principio. “El interés de la industria comenzó a consolidarse en torno a Kubernetes gracias a su capacidad para soportar un desarrollo de software rápido e iterativo y el desarrollo de aplicaciones que podrían permitir el cambio en todos los entornos, desde local hasta la nube pública”, recuerdan desde la compañía. “Antes de Kubernetes, el mundo de TI intentó abordar estas necesidades empresariales con las ofertas tradicionales de la Plataforma como Servicio (PaaS), pero con frecuencia estas soluciones eran demasiado dogmáticas en cuanto a los tipos de aplicaciones que se podían ejecutar sobre ellas y cómo esas aplicaciones eran diseñadas y desplegadas”.

El objetivo fue siempre el mismo: simplificar la orquestación y gestión de sistemas mediante una plataforma abierta que permitiese al cliente implementar una gama más amplia de aplicaciones con mayor flexibilidad. Y desde su primera versión Kubernetes se ha utilizado como un elemento básico tanto para los Contenedores como servicio (CaaS) como para las plataformas basadas en PaaS.

Kubernetes como el nuevo Linux de la nube

La demanda de las empresas para pasar a la nube híbrida y la infraestructura multicloud, la demanda de aplicaciones combinadas con la necesidad de admitir aplicaciones tradicionales y nativas de la nube en la misma plataforma; el deseo de administrar sistemas distribuidos con software contenedorizado y una infraestructura de microservicios; la necesidad de que los desarrolladores y administradores se centren en la innovación en lugar de en la gestión… Kubernetes nació para dar respuestas a todas estas cuestiones. Es por ello que lo habitual actualmente es ofrecer soluciones que integren Kubernetes como piedra angular, tal y como hace Red Hat con OpenShift.

“Y, todo es código abierto, lo que lo pone a disposición de todos y permite a los contribuyentes de todo el mundo resolver mejor esta nueva era de desafíos informáticos de forma conjunta, en entornos abiertos, no protegidos por entornos en silos o plataformas propietarias”, explican desde Red Hat. “En más de 25 años contribuyendo con proyectos de código abierto, que van desde el kernel de Linux hasta OpenStack, hemos visto pocos proyectos que puedan reclamar la velocidad de Kubernetes. Es un testimonio de la capacidad de los contribuyentes del proyecto para trabajar en colaboración para resolver una gran necesidad empresarial que Kubernetes ha movido tan rápidamente desde la versión 1.0 a un amplio apoyo del sector en tres años”, añaden.

Tras tres años, Kubernetes se muestra como uno de los esfuerzos de colaboración de código abierto más exitosos desde Linux. Habiendo aprendido las lecciones de anteriores iniciativas de colaboración a gran escala e intercomunitarias como OpenStack, la comunidad de Kubernetes ha logrado avanzar hacia un nuevo nivel de gestión efectiva que abarca diversidad y un espíritu de apertura, todo lo cual ha impulsado cantidades increíbles de innovación en todos los aspectos del proyecto“, sostiene Diane Mueller, responsable de Red Hat Cloud Platform.

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!