Conecta con nosotros

Noticias

Karina García, otra historia de éxito en YouTube

Publicado el

Karina García

La primera gran evolución de Internet tras su globalización fue, todos lo recordamos, la web 2.0. Un cambio con el que la generación de los contenidos dejó de recaer de un lado (los creadores de las páginas web, fueran estas del tipo que fueran) y pasaron a ser los usuarios los responsables de los mismos. Por aquellos entonces se empezó a hablar de UGC (User Generated Content). Y, aunque en un primer momento, se limitaba casi exclusivamente a texto (especialmente en foros y webs colaborativas) e imágenes solo de manera muy puntual, el rápido crecimiento (y su consecuente abaratamiento) en la capacidad de almacenamiento de los centros de datos, así como el aumento en el ancho de banda en todos los puntos facilitaron que, poco a poco, fuera posible compartir otro tipo de contenidos. Y entonces llegó YouTube.

El popular servicio de vídeo online, que posteriormente ha evolucionado adoptando muchas funciones de red social, fue creado en febrero de 2005, y poco más de un año y medio después fue adquirido por Google, que pagó nada menos que 1.650 millones de dólares (una compra que muchos analistas consideraron absurda…). Desde entonces, la plataforma se ha convertido en la principal elección para la publicación de vídeos, lo que ha dado lugar a que múltiples historias de éxito se hayan construido a su alrededor. Tanto es así que incluso se ha creado y profesionalizado la figura del youtuber, un concepto puesto en marcha por la compañía en 2011 que pretendía proporcionar ingresos (basados principalmente en Google Adsense), y que ha dado lugar a un sinfín de historias de éxito, principalmente de adolescentes y jóvenes, que han convertido la profesionalización de sus publicaciones en una nada desdeñable fuente de ingresos.

Hoy CNBC dedica un artículo a uno de los últimos y más claros ejemplos de ese tipo de éxito que pueden ofrecer las redes sociales y, especialmente, YouTube. Hablamos de Karina García, una joven de 23 años aficionada al popular DIY (do it yourself, hazlo tú mismo), un tipo de vídeos con mucho éxito en YouTube, y que gracias a su habilidad con el slime, una masa gelatinosa, elástica y moldeable, y la simpatía que transmite en sus vídeos, ha logrado alcanzar ya los 6,7 millones de suscriptores, además de haber provocado un incremento del 50% en las ventas de esta llamativa masilla. Además, gracias a la popularidad que ha obtenido, no solo logra un buen nivel de ingresos (proporcionados principalmente por los patrocinadores de sus vídeos), sino que también ha podido lanzar al mercado su propio kit DIY de slime, que espera complementar próximamente con otros dedicados a las bombas de baño (esas esferas que, al introducirlas en la bañera, son efervescentes y liberan aromas y sales de baño) y pintalabios, Todo, por supuesto, para que las personas que los adquieran puedan hacer sus creaciones personales.

Este, el de Karina García, es otro de esos casos que nos recuerdan que, al analizar el futuro (tanto el que ya está llegando como aquel para el que todavía falta mucho), nos faltan muchos elementos para poder hacer predicciones fiables. ¿Quién habría imaginado, hace solo diez años, que publicar vídeos en YouTube podría convertirse en una manera de ganarse la vida? Nadie, y sin embargo a día de hoy existe incluso un juego en el que nuestro desafío es lograr convertirnos en un youtuber de éxito. Además, y en este caso, hay un elemento adicional que debemos tener muy en cuenta, especialmente si ya peinamos canas: los adultos simplemente han puesto en marcha una plataforma, y han sido los jóvenes los que han decidido darle este uso. Esto, en mi opinión, es un ejemplo perfecto de la razón por la que hay que tener en cuenta todos los puntos de vista. Y es que a mí, personalmente, jamás se me habría ocurrido este tipo de comunicación, pero millennials y post-millennials (generaciones Y y Z) han inventado un nuevo uso para una herramienta ya existente, y la han convertido en su medio de comunicación.

¿Y qué comunican? Pues en el caso de Karina García, gran parte de los casi 230 (alrededor de 100 dedicados al slime) vídeos que ha publicado en su canal son tutoriales (a veces sola y en otras ocasiones acompañada) que, y este es un aspecto también muy importante del fenómeno youtuber, consiguen romper la brecha generacional (algo que no consiguen otro tipo de contenidos), atrayendo a un público mucho más heterogéneo. Y es que al igual que ocurre con, por ejemplo, los contenidos dedicados al maquillaje (un tema estrella dentro de YouTube), la audiencia potencial es muy, muy elevada. Un volumen de audiencia que, a su vez, atrae a los anunciantes, creando una suerte de círculo virtuoso, y que en este caso concreto permite que una joven de 23 años, que hasta hace solo dos no tenía nada claro su futuro, actualmente declare unos ingresos mensuales de seis dígitos. Algo que consigue dedicando, eso sí, bastante trabajo. Una vez grabados los brutos (todo el material en vídeo, antes de la edición), puede llegar a dedicar hasta cinco horas para editar y montar un vídeo de menos de 10 minutos. Un tiempo que debemos sumar a la preproducción (diseño de la idea, planificación) y a la grabación, en la que debemos incluir distintas tomas, planos de recursos, planos fijos, locución (que se graba sobre el vídeo ya editado. Y esto debemos multiplicarlo por tres, que es el número de vídeos que García se plantea como objetivo subir cada semana a su canal. No está nada mal para una persona que, por cierto, se confiesa bastante tímida.

Noticias

HPE presenta Astra, el mayor superordenador del mundo basado en ARM

Publicado el

HPE presenta Astra, el mayor superordenador del mundo basado en ARM

HPE, en colaboración con el Departamento de Energía de Estados Unidos, ha desarrollado el superordenador más potente del mundo basado en ARM. Según manifiesta la propia compañía, su destino serán los Laboratorios Nacionales Sandia, en Estados Unidos, unas instalaciones que pertenecen a la Administración de seguridad nuclear nacional, y se utilizarán para ejecutar modelos avanzados, así como para poner en ejecución simulaciones de cargas de trabajo.

Todas sus operaciones estarán relacionadas con asuntos como la seguridad nacional, la ciencia y la energía. Y la NNSA también lo utilizará, ya con más concreción, para mejorar el análisis en experimentos de ciencias que hacen un uso intensivo de los datos.

Según manifiestan desde HPE; este nuevo superordenador puede alcanzar un rendimiento pico de más de 2,3 petaflops, así como de ofrece un rendimiento de memoria un 33% mejor y una mayor densidad del sistema. Y se integrará en el HPE Apollo 70, que cuenta con 145.000 cores en 2.592 servidores de procesador dual.

Tal como apunta HPE, en el mundo hay una demanda insaciable para contar con cada vez mayor poder de computación. Esto se debe a que cada vez hay más empresas alrededor del mundo que buscan ejecutar tareas de investigación que requieren mucha potencia de computación, dado que precisan procesar y analizar grandes conjuntos de datos. Por tanto, los fabricantes de hardware, que tratan de satisfacer sus demandas, ya están buscando ir un paso más allá en cuanto a supercomputadores, y buscan desarrollar ya un sistema de computación a exascala.

Tal como lo ve Mike Vildibill, Vicepresidente del Grupo de tecnologías avanzadas de HPE, “al integrar procesadores ARM en el HPE Apollo 70, una arquitectura de HPC desarrollada de manera personalizada, estamos llevando componentes potentes, como el rendimiento óptimo de memoria y una mayor densidad, a superordenadores que no pueden igualar las tecnologías que hay en el mercado. Los Laboratorios Nacionales Sandia han sido un socio activo en el desarrollo de la plataforma basada en ARM desde las primeras etapas de su desarrollo, y su integración en el desarrollo del mayor superordenador del mundo basado en ARM es una inversión estratégica para el Departamento de energía y hacia la industria en general, mientras avanzamos hacia la computación a exascala“.

Continuar leyendo

Noticias

IBM compra Oniqua Holdings, compañía de optimización de activos con apoyo de IoT

Publicado el

IBM

IBM ha confirmado la compra de la compañía Oniqua Holdings, dedicada a la optimización de activos en sectores que los utilizan de manera intensiva. Por ejemplo, en el gasístico, el petrolífero, los transportes, las fábricas y los servicios públicos. Se desconocen los términos de la compra, así como la cantidad que IBM ha pagado por la compañía.

Como hemos mencionado, Oniqua está especializada en el desarrollo de software de optimización de inventario para ciertos sectores e industrias. Sus productos se centran sobre todo en los sistemas de mantenimiento y reparación que suelen emplear sectores como los que hemos mencionado. Y su papel es controlar y vigilar la eficacia operacional de las máquinas, el equipo y los diversos componentes necesarios para su funcionamiento.

De esta manera, mediante sus sistemas, los clientes de Oniqua pueden monitorizar sus sistemas para predecir una avería antes de que se produzca o detectarlas de manera temprana, lo que les permite reducir al máximo el tiempo que las máquinas estarán sin funcionar. Y planificar cuándo tienen que pararlas para hacer cambios y reparaciones.

IBM también cuenta con una oferta propia para este tipo de sistemas, una plataforma de nombre Maximo. Pero con esta compra, van a cambiar algunas cosas. Los planes de IBM pasan por fusionar la plataforma y los servicios de Oniqua con Maximo, con el objetivo de que IBM cuente con un peso mayor en el sector de Internet de las cosas Industrial.

En el comunicado en el que se confirma la compra de la compañía, Jay Bellissimo, Responsable global de empresas locales  IBM, ha manifestado que “combinando la solución de optimización de activos líder del mundo Maximo con la solución de optimización de inventario MRO de Oniqua, ofreceremos una plataforma de “soluciones como servicio” de nueva generación que permita a las empresas conectar con facilidad con los datos que necesitan para que puedan predecir fallos de equipamiento, optimizar los componentes sueltos, rebajar el tiempo de mantenimiento planeado y optimizar el mantenimiento de activos“.

Continuar leyendo

Noticias

Investigadores desarrollan modelo que evita vulnerabilidades como Meltdown y Spectre

Publicado el

Investigadores desarrollan modelo que evita vulnerabilidades como Meltdown y Spectre

Un grupo de seis expertos en computación de la Universidad de California, el Centro William and Mary y la Universidad Binghamton ha desarrollado un modelo con un nuevo principio de diseño que, de utilizarse, evitaría problemas y vulnerabilidades como Meltdown y Spectre. Esto se debe, según Betanews, a que está pensado para acabar con las vulnerabilidades de ejecución especulativa.

Los investigadores que han desarrollado el modelo aseguran que este modelo, al que han denominado SafeSpec, es compatible con la especulación, pero de una forma que es “inmune a las filtraciones necesarias para que se den ataques como Meltdown y Spectre“. Además, este nuevo diseño también evita los problemas asociados a los parches utilizados para corregir ambas vulnerabilidades.

Para conseguir el desarrollo de este modelo, los investigadores han explorado “si la especulación puede o no darse de manera que esté exenta de filtraciones, permitiendo que la CPU retenga las ventajas de rendimiento de la especulación, al mismo tiempo que se eliminan las vulnerabilidades a las que expone la especulación“. Por lo tanto, desarrollaron el modelo SafeSpec para que se almacenase el estado especulativo “en estructuras temporales a las que no pueden acceder las instrucciones comunicadas”.

En el estudio en el que detallan su investigación, los investigadores aseguran que este nuevo método de diseño no solo acaba con las variantes conocidas de Meltdown y Spectre. También con las nuevas variantes que puedan aparecer. Para asegurarse, los investigadores han desarrollado nuevas variantes de ambas vulnerabilidades, y han comprobado que no tienen efecto. No sólo esto, sino que aplicando este diseño se mejora el rendimiento de la CPU.

Tal como han comentado los investigadores en el trabajo en el que han detallado su descubrimiento, aplicaron este principio de diseño “a la protección de las cachés y las TLB (memorias caché) de la CPU, que son los principales vectores de filtraciones que se utilizan en los ataques especulativos publicados. Nuestro diseño cierra completamente los tres ataques publicados, así como las nuevas variantes que desarrollamos para filtrar a través de la I-cache de las TLBs. Hemos demostrado que se necesita un diseño cuidadoso para prevenir una forma de filtración que puede darse mientras las instrucciones comparten el estado especulativo. Hemos mitigado esta filtración mediante una calibración conservadora del estado especulativo. Si se hace de esta manera, los ataques transitorios se convierten en impracticables“.

No obstante, no esperes a ver cómo desaparecen las vulnerabilidades de ejecución especulativa de un plumazo. Todavía queda mucho que hacer en este campo, aunque los investigadores que han participado en este estudio creen que este diseño que han desarrollado es un paso muy importante hacia su final.

Continuar leyendo

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!