Conecta con nosotros

Noticias

El líder en gestión de registros

La consultora Forrester Research ha nombrado a Open Text como líder en gestión de registros, según el estudio The Forrester WaveTM: Records Management, Q2 2009, en el que se han evaluado un total de ocho proveedores. Su solución en este campo, OpenText Records Management, ha obtenido la puntuación más alta entre las distintas ofertas del mercado.

Publicado el

La consultora Forrester Research ha nombrado a Open Text como líder en gestión de registros, según el estudio The Forrester WaveTM: Records Management, Q2 2009, en el que se han evaluado un total de ocho proveedores. Su solución en este campo, OpenText Records Management, ha obtenido la puntuación más alta entre las distintas ofertas del mercado.

 

Forrester ha desarrollado una serie completa de 89 criterios de evaluación agrupados en tres niveles de categorías: valor actual, estrategia y presencia en el mercado.

Según el informe de la consultora, el cumplimiento de las normativas y descubrimiento electrónico (eDiscovery) son los factores que están impulsando la adopción de soluciones de Gestión de Registros. "Las empresas necesitan un enfoque coherente en la gestión de registros para afrontar el crecimiento explosivo del volumen y la diversidad de contenidos y para cumplir con los requisitos legales de mitigación de riesgos", indica el informe.

"El rápido crecimiento de los contenidos digitales coincide con las cada vez más complejas necesidades de cumplimiento normativo y descubrimiento electrónico, que hacen fracasar los esfuerzos de las empresas en este sentido. Diversas aplicaciones, herramientas y tipos de ficheros junto con arquitecturas de información desorganizadas y no documentadas, un aumento de las demandas judiciales, una jurisprudencia tan cambiante al respecto y un ecosistema fragmentado de proveedores vienen a agravar aún más este escenario", continúa el documeto.

 

El informe señala que las organizaciones deben centrarse en cinco tendencias clave a la hora de evaluar las distintas opciones de gestión de registros entre las que se incluyen el aumento de la demanda para mitigar los retos y riesgos legales, la evolución de las necesidades de certificación de gestión de registros, y ampliar el enfoque más allá de los registros físicos hacia una gama más amplia de activos digitales.

Open Text Records Management es un componente fundamental de la Suite ECM de Open Text y permite gestionar de manera completa el ciclo de vida de los contenidos en toda la empresa. Ayuda a las organizaciones a archivar todo el contenido corporativo según las políticas de la organización, ayudando por tanto a cumplir con la normativa y reducir los riesgos asociados con las auditorías y demandas judiciales. La solución ofrece gestión de registros y del ciclo de vida de los contenidos a través de múltiples sistemas y aplicaciones, incluyendo SAP, Oracle, Microsoft SharePoint, correo electrónico, sistemas de ficheros, activos digitales, contenidos web y más.

Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Noticias

HPE presenta Astra, el mayor superordenador del mundo basado en ARM

Publicado el

HPE presenta Astra, el mayor superordenador del mundo basado en ARM

HPE, en colaboración con el Departamento de Energía de Estados Unidos, ha desarrollado el superordenador más potente del mundo basado en ARM. Según manifiesta la propia compañía, su destino serán los Laboratorios Nacionales Sandia, en Estados Unidos, unas instalaciones que pertenecen a la Administración de seguridad nuclear nacional, y se utilizarán para ejecutar modelos avanzados, así como para poner en ejecución simulaciones de cargas de trabajo.

Todas sus operaciones estarán relacionadas con asuntos como la seguridad nacional, la ciencia y la energía. Y la NNSA también lo utilizará, ya con más concreción, para mejorar el análisis en experimentos de ciencias que hacen un uso intensivo de los datos.

Según manifiestan desde HPE; este nuevo superordenador puede alcanzar un rendimiento pico de más de 2,3 petaflops, así como de ofrece un rendimiento de memoria un 33% mejor y una mayor densidad del sistema. Y se integrará en el HPE Apollo 70, que cuenta con 145.000 cores en 2.592 servidores de procesador dual.

Tal como apunta HPE, en el mundo hay una demanda insaciable para contar con cada vez mayor poder de computación. Esto se debe a que cada vez hay más empresas alrededor del mundo que buscan ejecutar tareas de investigación que requieren mucha potencia de computación, dado que precisan procesar y analizar grandes conjuntos de datos. Por tanto, los fabricantes de hardware, que tratan de satisfacer sus demandas, ya están buscando ir un paso más allá en cuanto a supercomputadores, y buscan desarrollar ya un sistema de computación a exascala.

Tal como lo ve Mike Vildibill, Vicepresidente del Grupo de tecnologías avanzadas de HPE, “al integrar procesadores ARM en el HPE Apollo 70, una arquitectura de HPC desarrollada de manera personalizada, estamos llevando componentes potentes, como el rendimiento óptimo de memoria y una mayor densidad, a superordenadores que no pueden igualar las tecnologías que hay en el mercado. Los Laboratorios Nacionales Sandia han sido un socio activo en el desarrollo de la plataforma basada en ARM desde las primeras etapas de su desarrollo, y su integración en el desarrollo del mayor superordenador del mundo basado en ARM es una inversión estratégica para el Departamento de energía y hacia la industria en general, mientras avanzamos hacia la computación a exascala“.

Continuar leyendo

Noticias

IBM compra Oniqua Holdings, compañía de optimización de activos con apoyo de IoT

Publicado el

IBM

IBM ha confirmado la compra de la compañía Oniqua Holdings, dedicada a la optimización de activos en sectores que los utilizan de manera intensiva. Por ejemplo, en el gasístico, el petrolífero, los transportes, las fábricas y los servicios públicos. Se desconocen los términos de la compra, así como la cantidad que IBM ha pagado por la compañía.

Como hemos mencionado, Oniqua está especializada en el desarrollo de software de optimización de inventario para ciertos sectores e industrias. Sus productos se centran sobre todo en los sistemas de mantenimiento y reparación que suelen emplear sectores como los que hemos mencionado. Y su papel es controlar y vigilar la eficacia operacional de las máquinas, el equipo y los diversos componentes necesarios para su funcionamiento.

De esta manera, mediante sus sistemas, los clientes de Oniqua pueden monitorizar sus sistemas para predecir una avería antes de que se produzca o detectarlas de manera temprana, lo que les permite reducir al máximo el tiempo que las máquinas estarán sin funcionar. Y planificar cuándo tienen que pararlas para hacer cambios y reparaciones.

IBM también cuenta con una oferta propia para este tipo de sistemas, una plataforma de nombre Maximo. Pero con esta compra, van a cambiar algunas cosas. Los planes de IBM pasan por fusionar la plataforma y los servicios de Oniqua con Maximo, con el objetivo de que IBM cuente con un peso mayor en el sector de Internet de las cosas Industrial.

En el comunicado en el que se confirma la compra de la compañía, Jay Bellissimo, Responsable global de empresas locales  IBM, ha manifestado que “combinando la solución de optimización de activos líder del mundo Maximo con la solución de optimización de inventario MRO de Oniqua, ofreceremos una plataforma de “soluciones como servicio” de nueva generación que permita a las empresas conectar con facilidad con los datos que necesitan para que puedan predecir fallos de equipamiento, optimizar los componentes sueltos, rebajar el tiempo de mantenimiento planeado y optimizar el mantenimiento de activos“.

Continuar leyendo

Noticias

Investigadores desarrollan modelo que evita vulnerabilidades como Meltdown y Spectre

Publicado el

Investigadores desarrollan modelo que evita vulnerabilidades como Meltdown y Spectre

Un grupo de seis expertos en computación de la Universidad de California, el Centro William and Mary y la Universidad Binghamton ha desarrollado un modelo con un nuevo principio de diseño que, de utilizarse, evitaría problemas y vulnerabilidades como Meltdown y Spectre. Esto se debe, según Betanews, a que está pensado para acabar con las vulnerabilidades de ejecución especulativa.

Los investigadores que han desarrollado el modelo aseguran que este modelo, al que han denominado SafeSpec, es compatible con la especulación, pero de una forma que es “inmune a las filtraciones necesarias para que se den ataques como Meltdown y Spectre“. Además, este nuevo diseño también evita los problemas asociados a los parches utilizados para corregir ambas vulnerabilidades.

Para conseguir el desarrollo de este modelo, los investigadores han explorado “si la especulación puede o no darse de manera que esté exenta de filtraciones, permitiendo que la CPU retenga las ventajas de rendimiento de la especulación, al mismo tiempo que se eliminan las vulnerabilidades a las que expone la especulación“. Por lo tanto, desarrollaron el modelo SafeSpec para que se almacenase el estado especulativo “en estructuras temporales a las que no pueden acceder las instrucciones comunicadas”.

En el estudio en el que detallan su investigación, los investigadores aseguran que este nuevo método de diseño no solo acaba con las variantes conocidas de Meltdown y Spectre. También con las nuevas variantes que puedan aparecer. Para asegurarse, los investigadores han desarrollado nuevas variantes de ambas vulnerabilidades, y han comprobado que no tienen efecto. No sólo esto, sino que aplicando este diseño se mejora el rendimiento de la CPU.

Tal como han comentado los investigadores en el trabajo en el que han detallado su descubrimiento, aplicaron este principio de diseño “a la protección de las cachés y las TLB (memorias caché) de la CPU, que son los principales vectores de filtraciones que se utilizan en los ataques especulativos publicados. Nuestro diseño cierra completamente los tres ataques publicados, así como las nuevas variantes que desarrollamos para filtrar a través de la I-cache de las TLBs. Hemos demostrado que se necesita un diseño cuidadoso para prevenir una forma de filtración que puede darse mientras las instrucciones comparten el estado especulativo. Hemos mitigado esta filtración mediante una calibración conservadora del estado especulativo. Si se hace de esta manera, los ataques transitorios se convierten en impracticables“.

No obstante, no esperes a ver cómo desaparecen las vulnerabilidades de ejecución especulativa de un plumazo. Todavía queda mucho que hacer en este campo, aunque los investigadores que han participado en este estudio creen que este diseño que han desarrollado es un paso muy importante hacia su final.

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!