Conecta con nosotros

Noticias

Cinco mitos sobre Big Data que tienes que descartar

Publicado el

big_data_map

¿Es el Big Data tan grande como parece sugerir su nombre? ¿Tienen los expertos en Big Data todas las respuestas? ¿Cuál el valor real de los datos y qué conclusiones sugieren en la práctica? En Insead Knowledge nos cuentan cómo también el mundo del big data está teniendo que empezar a enfrentarse a sus propios mitos, que tanto para bien como para mal, están empezando a contaminar la disciplina dando a entender una cosa que en realidad no es. Estos son algunos de ellos.

1. El Big Data no es tan “Big” como piensas

Cuando hablamos de Big Data la tendencia natural es pensar en enormes cantidades de datos que hay que estructurar y exprimir para obtener el mayor valor. Y aunque en determinados escenarios la cantidad de datos puede ser fenomenal, no es esta su principal característica como hemos visto por ejemplo en el artículo “El Small Data del Internet de las Cosas se impone al Big Data”.

Big Data se refiere en realidad a un tipo diferente de datos. Datos que normalmente se actualizan con alta frecuencia y que cambian en tiempo real, proveniendo además de fuentes distintas. El Big Data puede tener en este sentido un caracter individual o granular y empieza en algo tan pequeño como un cliente pagando con su tarjeta de crédito en una gasolinera. En realidad el Big Data comprende ingentes cantidades de small data, de forma similar a como una tormenta del desierto contiene miles de millones de granos de arena.

2. Tienes que abarcar todas las posibilidades que ofrece el Big Data

Aprender Big Data, como muchas otras materias críticas, no es sencillo. Si nos interesa el Big Data no podemos empezar desde cero, sino que tendremos que ir paso a paso, persiguiendo objetivos concretos. Antes de lanzarnos a abrazar todas las posibilidades que ofrece, tendremos que planificar y estudiar con cuidado qué es lo que queremos conseguir y qué queremos hacer con la información, cuál es su propósito de uso.

3. Cuanto más granulares sean los datos, mucho mejor

Como hemos comentado antes, el Big Data parte de datos granulares que cambian en tiempo real y provienen de varias fuentes de información. ¿Quiere decir esto que cuando más granular sea el dato y más pequeño sea el intervalo de tiempo, vamos a obtener un análisis mejor? No siempre. A veces nos puede interesar una aproximación a cómo se están comportando los datos que se generan cada minuto ante una situación determinada, pero muchas otras veces nos será mucho más útil dar un paso atrás para tener una visión completa de la situación.

En un partido de fútbol por ejemplo, el hecho de que un equipo marque un gol en el primer minuto, no quiere decir que vaya acabar ganando el partido ¿Verdad? En análisis en tiempo real, demasiado “cercano a la acción” a veces puede llevarnos a deducir conclusiones que se van a presentar como erróneas a corto o medio plazo.

4. El Big Data es siempre “Good Data”

Existe una gran diferencia una montaña de datos y una montaña de buenos datos. Los datos de baja calidad contienen una gran cantidad de errores, datos que nos van a conducir a una más que probable malinterpretación. Imaginemos por ejemplo todas esas imágenes que han sido mal etiquetadas por los usuarios, o texto no estructurado, escrito por adolescentes, en el que no está del todo claro si refleja un sentimiento positivo o negativo.

En análisis del big data supone entre otras cosas descartar enormes cantidades de datos que aportan muy poco para centrarnos en la única parte que puede aportar algo al análisis que queremos realizar.

5. El Big Data siempre da respuestas concretas

En muchos sentidos, una de las características fundamentales del Big Data es su ambigüedad. El emplear muchas fuentes de datos de forma simultánea puede conducirnos a veces conclusiones diferentes de las que podrían sugerir las propias pruebas que tenemos frente a nosotros.

Si tomamos otro conjunto de datos, del mismo grupo, analizados incorrectamente puede llevarnos a una conclusión diferente e incompatible con la primera.  ¿Cuáles son los datos o las conclusiones que tenemos que tomar entonces por buenas?

El Big Data sigue requiriendo la intervención del factor humano, aportar un juicio racional capaz de resolver conflictos, datos ambiguos, etc. El experto tiene que no sólo ser capaz de programar modelos de análisis interesantes, sino además tener la capacidad de tomar las decisiones correctas ante los conflictos que sí o sí, se van a presentar.

¿Quieres convertirte en un experto en Big Data?

Revisados los mitos, sigue siendo cada vez más interesante aprender cómo poner en marcha una estrategia de Big Data o cómo se puede aplicar el poder de los datos a nuestro negocio. En estos casos recomendamos el curso “Experto en Big Data”programa especializado impartido por U-tad que permitirá a sus titulados dominar tanto el diseño como la administración y explotación de infraestructuras de última generación de Big Data.

Entre otras cosas, el profesional que apueste por este programa,  estará capacitado para realizar proyectos de desarrollo y administración de soluciones de Big Data con tecnologías como Hadoop; diseñar estrategias de inteligencia de negocio en grandes conjuntos de datos; proyectos de integración de Big data con el Data Warehouse de una compañía; gestión del conocimiento en grandes bases de datos distribuidas; liderazgo de planes de análisis de datos en entornos masivos como redes sociales, operadoras de telecomunicaciones, comercio electrónico o e-Health, entre otras.

Como salidas profesionales más claras, los profesionales que cursen el curso “Experto en Big Data”se encontrarán ante un panorama formado por puestos como ingeniero en Big Data, analista de datos, consultor de business intelligence, auditor de sistemas de Big Data, gestor de infraestructuras o administrador de sistemas en el mismo campo.

Si quieres conocer más detalles de este programa y cómo puede contribuir a tu carrera profesional, no lo dudes más y ¡Descárgate aquí el folleto informativo!

 

Noticias

Microsoft trabaja en una computadora cuántica escalable

Publicado el

computadora cuántica

Microsoft ha anunciado una asociación con investigadores de la Universidad de Copenhague para construir la que denomina “primera computadora cuántica escalable” del mundo.

El director científico de Microsoft, Peter Krogstrup, ha explicado que la “computadora del mañana” podrá realizar cálculos complejos en minutos u horas, frente a la capacidad de las computadoras actuales que necesitarían millones de años para completarlos.

Krogstrup cree que las nuevas computadoras cuánticas tendrán implicaciones significativas en la sociedad. Por ejemplo, ayudará a desarrollar y mejorar la medicina, permitiendo a las personas crear nuevos medicamentos. También cambiará la dirección de cómo funciona la ciberseguridad. En general, Microsoft afirma que los nuevos sistemas “establecerán nuevos estándares sobre cómo se calculan y procesan los datos”.

Microsoft también ha presentado el Quantum Materials Lab en Kongens Lyngby, Dinamarca, para explicar su visión de cómo construir estas computadoras futuristas. Microsoft ha transformado el área en un “parque cuántico” que visitantes podrán recorrer para aprender sobre los avances en estas tecnologías y los fundamentos detrás de la construcción de la nueva computadora cuántica.

Computadora cuántica: el futuro

Todas las grandes tecnológicas tienen proyectos de desarrollo de computadoras cuánticas. Unas bases científicas asentadas en investigaciones premiadas con el Nobel de Física de 2012 para el francés Serge Haroche y el estadounidense David J. Wineland por sus trabajos en óptica cuántica que analizaron la interacción entre luz y materia, y que han terminado de sentar las bases para la futura creación de un supercomputador cuántico. 

Un galardón que llegó tras los anuncios de grandes avances en computación bajo tecnología cuántica como el realizado por IBM (seguramente la compañía más avanzada en estas tecnologías) asegurando que estaban cerca de conseguir acceso a las tecnologías mínimas que les permitiera construir una computadora cuántica básica.

Desde entonces los progresos han sido abundantes. Bristlecone es el proyecto de computadora cuántica universal con el que están experimentando en Google. Con 72 qubits, el gigante de Internet cree que podrán lograr la pretendida “supremacía cuántica”, cuando este tipo de computadoras supere (en el mundo real) a las máquinas basadas en silicio.

Como sabes, frente a la arquitectura de la computación tradicional capaces de adoptar valores de “1” o “0”, la información en computación cuántica se almacena en qubits (bits cuánticos) que pueden adoptar simultáneamente ambos valores (superposición). Hasta ahora se pensaba que un ordenador cuántico de tan sólo 50 qubits sería suficiente para superar a cualquier superordenador actual del top-500 mundial, pero IBM mostró que algunas aplicaciones específicas necesitarían al menos 56 qbits.

Además, una gran cantidad de qubits no es lo único que se necesita para alcanzar la supremacía cuántica. También se necesitan qubits con bajas tasas de error para que no arruinen los cálculos. Y hablamos de simulaciones… Según Google, una computadora cuántica ideal tendría al menos cientos de millones de qubits y una tasa de error inferior al 0,01%.

Un ordenador cuántico universal podrá programarse para realizar cualquier tarea de computación y será exponencialmente más rápido que los sistemas actuales para un gran número de aplicaciones, primero científicas, después de negocio, para terminar en el mercado de consumo. Aún faltan décadas para que la industria pueda contar con estas computadoras, pero el futuro parece marcado.

Más información | Microsoft

Continuar leyendo

Noticias

Apple compra Shazam por 400 millones de dólares

Publicado el

Shazam ya es propiedad de Apple. A principios de septiembre la Comisión Europea dio luz verde al gigante de Cupertino para hacerse con el conocido servicio de identificación de canciones que ha causado furor durante años, una operación complicada que ha tardado diez meses en llegar a buen puerto.

Las adquisiciones que realizan los gigantes tecnológicos tienen que superar un proceso de validación fundamental por parte de los organismos reguladores de diferentes regiones con un objetivo claro: proteger la libre competencia y evitar la creación de monopolios. En este caso investigar a fondo la compra de Shazam por parte de Apple tiene mucho sentido, ya que ambas manejan una gran cantidad de datos de sus usuarios tienen intereses y actividades relacionadas con el mundo de la música.

Shazam no se limita a identificar canciones, sino que además redirige al usuario a plataformas a través de las cuales pueden conseguir los contenidos musicales que estén buscando. Si introducimos Apple Music en la ecuación nos daremos cuenta de una de las cuestiones más importantes que justifican esa dilatada investigación por parte de la Comisión Europea, sin olvidarnos del tema de los datos que ya hemos comentado.

Tras el beneplácito de la Unión Europea Apple tiene todo lo que necesitaba para confirmar el cierre de la operación de compra de Shazam, un servicio que dejará de mostrar publicidad a los usuarios. Esta medida supone un cambio importante y confirma que la compañía de la manzana pasará a integrarla de forma natural en los servicios que ofrece a los usuarios de iOS, por lo que valorará los ingresos que genere en conjunto.

Es pronto para adelantar qué otros cambios podría acabar introduciendo Apple en Shazam, pero no sería una locura verla integrada por completo en Apple Music y potenciada a través de la inteligencia artificial. En cualquier caso una compra muy acertada por parte del gigante de Cupertino, cuya evolución habrá que seguir de cerca.

Continuar leyendo

Noticias

El MIT investiga como usar el CO2 para crear baterías de litio

Publicado el

¿Y si el dioxido de carbono pudiera transformarse en energía? Este es el desafío que plantea el nuevo estudio del MIT que quiere crear una batería que utilice el CO2 que se genera en las plantas energéticas en un carbonato mineral sólido. En lugar de tratar de convertir el dióxido de carbono a productos químicos especializados que utilizan catalizadores metálicos, lo que actualmente es un gran desafío, esta batería podría convertir continuamente el dióxido de carbono en un carbonato mineral sólido a medida que se descarga.

Todavía se trata de una investigación muy temprana, pero abre un camino muy prometedor que podría resolver dos de los mayores problemas del planeta Tierra: la emisión de gases invernadero a la atmósfera y la creación de otra fuente de energía limpia.

La batería se fabricaría en litio, carbón y electrolitos. Según cuenta uno de los ingenieros del estudio Betra Gallant a la revista Joule, “el dióxido de carbono no es muy reactivo, por lo que tratar de encontrar nuevas vías de reacción es muy importante“. Actualmente las plantas energéticas equipadas con captura de sistemas de carbono utilizan el 30% de las electricidad que generan para capturar, liberar y almacenar el dioxido de carbono. Según los investigadores, cualquier cosa que pueda reducir el coste de este proceso o que ueda resultar en un producto final que tenga valor, podría cambiar significavamente el sistema económico.

En geneneral, la forma de conseguir que el dioxido de carbono muestre actividad significativa en condiciones electroquímicas es con grandes aportes de energía que tiene que aplicarse con un gran voltaje. Esto supone un proceso costoso e ineficiente. Idealmente, el gas sufriría reacciones que producen algo que vale la pena, como un químico o un combustible útil. Sin embargo, los esfuerzos de conversión electroquímica, generalmente realizados en agua, siguen siendo obstaculizados por la alta cantidad de energía requerida y la escasa selectividad de los productos químicos producidos.

Betar Gallant y sus compañeros, expertos en reacciones electroquímicas no acuosas, como las que subyacen en las baterías de litio, analizaron si la química de captura del dióxido de carbono podría utlizarse para producir electrolitos cargados de con dioxido de carbono, una de las tres partes esenciales de una batería, donde el gas capturado podría ser utilizado durante la descarga para una potencia de salida.

Este enfoque es diferente de liberar el dióxido de carbono a la fase gaseosa para el almacenamiento a largo plazo, como ahora se usa en la captura y secuestro de carbono (CCS). Ese campo generalmente busca formas de capturar el dióxido de carbono de una planta de energía a través de un proceso de absorción química y luego almacenarlo en formaciones subterráneas o alterarlo químicamente en un combustible o materia prima química.

En cambio, este equipo desarrolló un nuevo enfoque que podría usarse potencialmente en la corriente de desechos de la planta de energía para hacer material para uno de los componentes principales de una batería.

Si bien el interés ha crecido recientemente en el desarrollo de baterías de dióxido de carbono y litio, que utilizan el gas como reactivo durante la descarga, la baja reactividad del dióxido de carbono ha requerido típicamente el uso de catalizadores metálicos. No solo son caros, sino que su función sigue siendo poco conocida, y las reacciones son difíciles de controlar.

Sin embargo, al incorporar el gas en estado líquido, Gallant y sus colaboradores encontraron la manera de lograr la conversión electroquímica de dióxido de carbono utilizando solo un electrodo de carbono. La clave es preactivar el dióxido de carbono incorporándolo a una solución de amina.

“Lo que hemos demostrado por primera vez es que esta técnica activa el dióxido de carbono para una electroquímica más fácil“, dice Gallant. “Estas dos sustancias químicas (aminas acuosas y electrolitos de batería no acuosos) normalmente no se usan juntas, pero descubrimos que su combinación imparte comportamientos nuevos e interesantes que pueden aumentar el voltaje de descarga y permitir la conversión sostenida del dióxido de carbono“.

A través de una serie de experimentos, demostraron que este enfoque funciona y pueden producir una batería de dióxido de carbono y litio con voltaje y capacidad que sea competitiva con las baterías de litio de última generación. Además, la amina actúa como un promotor molecular que no se consume en la reacción.

La clave fue desarrollar el sistema electrolítico correcto, explica Khurram. En este estudio inicial de prueba de concepto, decidieron usar un electrolito no acuoso porque limitaría las vías de reacción disponibles y, por lo tanto, haría más fácil caracterizar la reacción y determinar su viabilidad. El material de amina que eligieron se usa actualmente para aplicaciones de CCS, pero no se había aplicado anteriormente a las baterías.

Imagen: Jason Blackeye on Unsplash

Continuar leyendo

Top 5 cupones

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!