Conecta con nosotros

A Fondo

Cloud, Open Source y todo como servicio: así ha cambiado la tecnología en la última década

Publicado el

Los que en 1989 vimos «Regreso al futuro II» teníamos muy pocas dudas de que a más tardar en el año 2000, cualquier juguetería de barrio nos vendería uno de esos monopatines voladores que ayudaron a Michel J.Fox a escapar de sus perseguidores. Pero aquí estamos, a un paso del 2020 y seguimos esperando. Por supuesto no es la primera vez que algo parecido nos pasa. Películas como «Desafío total» (1990) nos convencieron de que los coches autónomos no tenían por qué ser esa quimera que luego demostraron ser y diez años más tarde con «Matrix», echamos un vistazo a todas esas maravillas que podíamos tener gracias a la realidad virtual.

Desgraciadamente los androides no sueñan con ovejas eléctricas y solo de vez en cuando, la tecnología se atreve a dar el gran salto pero… ¿cómo era la tecnología hace diez años y qué esperábamos de la década siguiente? ¿Qué creíamos que podía pasar y qué ha pasado en realidad? En MCPRO hemos echado la vista atrás para contaros lo que ha pasado desde una perspectiva empresarial.

El reinado del cloud computing

El omnipresente cloud era en 2010 una de esas tendencias tecnológicas de las que se empezaba a hablar. Había cloud por supuesto, pero no eran tantos los que confiaban que alcanzaría a tener la importancia que tiene en la actualidad para todo tipo de empresas.

Una de las compañías que lo tenían claro era CA. En una noticia sobre «tendencias tecnológicas» que publicamos en MCPRO hace una década, el fabricante aseguraba que «el cloud computing pasará a ser la forma predominante en que operen las organizaciones, ya sea a través de nubes privadas, públicas o híbridas. Además, el papel que desempeña la tecnología en la empresa va a cambiar a medida que cloud computing se consolide».

Podemos decir que en este caso, CA acertó de lleno. Cuando quedan pocos días para estrenar 2020, resulta complicado encontrar empresas que de una u otra forma no confíen en el cloud y hoy en día nadie niega que esta tecnología ha revolucionado la informática empresarial.

¿El fin de la era del PC?

«La era post-PC está próxima. Los PC’s se van a ser como los camiones. Siempre vamos a tenerlos entre nosotros, pero solo un pequeño número de personas lo va a necesitar». Quien así hablaba a mediados de 2010 no era otro que Steve Jobs, quien en D8, el foro organizado por «All Things Digital», explicaba que no habría que esperar mucho para que las tablets acabasen por sustituir a los PC’s para la mayoría de nuestras tareas diarias, tanto domésticas como profesionales, y los ordenadores «clásicos» estarían relegados a las tareas más pesadas.

¿Qué es lo que ha ocurrido en realidad? Que tras el hype que experimentó el iPad 2 y que llevó a que se vendieran  más de 144 millones de tablets en 2012 (de todas las marcas) y hasta los 230 millones en 2014, el interés por este tipo de dispositivos ha ido cayendo de forma paulativa de año en año y en 2018 se registraron menos de 100 millones de unidades vendidas.

¿Los motivos? En primer lugar que los usuarios no tardaron en descubrir que las tabletas resultaban mucho más adecuadas para consumir contenidos que para crearlos, por lo que los ciclos de renovación se han ido alargando, cuando no se han paralizado por completo ante unos smartphones que han ido creciendo en pulgadas y que han ido fagocitando a las tablets más pequeñas. En segundo término, hay una cuestión de software fundamental. Hasta la presentación del nuevo iPadOS en 2019 (y aún tiene mucho que demostrar) los sistemas operativos que incluían las tablets distaban mucho de ofrecer una experiencia similar a la de un PC.

Nos guste más o nos guste menos, casi todos seguimos a día de hoy utilizando un PC para nuestro trabajo diario y aunque es cierto que el smartphone se ha convertido en una herramienta de trabajo o que hay «experimentos» convergentes que tienen interés, parece que va a seguir siéndolo durante bastante tiempo.

El auge y la posterior caída del 3D: ¿lecciones aprendidas para la realidad virtual?

En 2009 James Cameron estrenaba Avatar y tras ignorarlo durante décadas, el mundo volvió a enamorarse del cine en tres dimensiones. El éxito de los Na’vi de James Cameron convenció a Hollywood que había una nueva mina de oro por explotar y durante los primeros años de la década eran muy pocos los blockbusters que no se ofrecía con su correspondiente versión en 3D, en ocasiones con resultados interesantes y en otras de forma completamente injustificada. Los cines por supuesto se tuvieron que adaptar, afrontando una intensa renovación de las salas.

Y no fueron los únicos. A los salones de cada llegaban las televisiones en tres dimensiones. LG, Samsung o Sony se prestaron al juego y a principios de la década sus modelos tope de gama ofrecían la posibilidad de consumir este tipo de contenidos. También los fabricantes de ordenadores de portátiles se unieron a la fiesta y modelos como el HP Envy 17 3D o el Acer 5738 3D ofrecían a los usuarios la posibilidad de visualizar sus archivos de una forma realmente diferente.

La cosa por supuesto no podía durar y no duró. Para el año 2015 las televisores 3D desaparecieron del mercado y aunque aún se seguían produciendo algunas películas para salas adaptadas a las tres dimensiones, el interés de los espectadores y las productoras acabó desapareciendo casi por completo.

De los errores que cometió la industria con el 3D tiene mucho que aprender la de la realidad virtual y la aumentada. Una vez más las expectativas son altas pero probablemente por los mismos problemas (falta de contenidos, utilidad real, precio de los dispositivos, etc.) no acaba de despegar si exceptuamos las aplicaciones industriales y que se destinan a resolver problemas muy concretos. Facebook Oculus, Microsoft HoloLens o MagicLeap corren el riesgo de convertirse en las nuevas televisiones 3D.

La tecnología como servicio va a quedarse

Cuando Marc Benioff se lanzó a ofrecer software como servicio con Salesforce, probablemente no imaginaba el terremoto que provocaría unos cuantos años más tarde. Desde luego no lo tuvo fácil. Porque aunque en 2010 parecía claro que el SaaS iba a ser el futuro para muchas compañías, una gran parte sentía en sus huesos el peso legacy de todas las licencias y software con el que venían trabajando y muchas otras, sencillamente no confiaban en eso de almacenar sus datos en el servidor de un tercero.

Pero a medida que la década se ha ido dejando años, el SaaS ha demostrado no solo no ser una opción «exótica» destinada a pequeñas empresas, sino que se ha convertido en la «nueva normalidad» para todo tipo de empresas. Y es más, a finales de la década descubrimos que SaaS, PaaS o IaaS eran solo punta de lanza de programas mucho más ambiciosos, en los que toda la tecnología se podía ofrecer como servicio y no hablamos únicamente de los servicios de streaming.

En primer lugar bajo una modalidad DaaS (Device as a Service) pero en segundo lugar y de forma más significativa, en los propios centros de datos de las empresas. Programas como HPE Greenlake Central permiten a todo tipo de empresas a través de escenarios de cloud híbrido, acceder a cualquiera de los equipamientos y capacidades que tiene HPE en su portfolio, en un camino que en mayor o menor medida están siguiendo el resto de fabricantes. Y es que la tecnología está a punto de dejar de ser una inversión, para pasar a contabilizar únicamente como gasto.

Linux no ha triunfado en el escritorio, pero se ha convertido en imprescindible

A principios de 2010, el dicho «este va a ser el año de Linux» en el escritorio era uno de esos chascarrillos que hablaban de un sistema operativo que pese a sus muchas bondades, ni había triunfado ni parecía que más allá de su presencia en servidores, iba a triunfar. Pero entonces comenzaron a pasar cosas. Google comenzó a vender teléfonos basados en Android y para mitad de la década, ese sistema operativo basado en Linux estaba en todas partes.

La segunda cosa que pasó es que al calor del cloud, las empresas comenzaron a comprender que los años en los que una empresa podía innovar de forma individual habían llegado a su fin y que resultaba mucho más interesante unirse para colaborar en determinados proyectos que beneficiaban a todos…así que…¿qué mejor que el software libre para hacerlo?

En pocos años los desarrollos Linux y OpenSource se convirtieron en los «reyes del mambo» y empezamos a ver Kubernetes, OpenStack, Hyperledger y tantos otros que hubiesen sido imposible de desarrollar (y mantener) por una única corporación. ¿Se seguían beneficiando de forma individual? Por supuesto. Pero más importante aún, sabían que no había vuelta atrás: descubrieron que se necesitaban.

Incluso esa Microsoft que en 2001 declaraba en boca de Steve Ballmer eso de «Linux es un cáncer» ha pisado en los últimos años los de Redmond han pisado el acelerador del Software Libre, se ha convertido en una de las empresas que más contribuye a la comunidad y se ha unido la Linux Foundation. ¡Si hasta se rumorea que va a publicar una versión de Office 365 para Linux!

 

 

Periodista tecnológico con más de una década de experiencia en el sector. Editor de MuyComputerPro y coordinador de MuySeguridad, la publicación de seguridad informática de referencia.

Lo más leído