Conecta con nosotros

Noticias

Las claves del Big Data y la analítica en la sanidad

Publicado el

Que existen multitud de fuentes heterogéneas arrojando millones de datos es un mantra que llevamos escuchando demasiado tiempo en el sector TIC y, desde hace menos, en el resto de la industria, sobre todo al abordar de una forma más directa el tema del Big Data. Pero hay un área donde el análisis y el tratamiento de la información adquiere un papel tan relevante como es el de salvar vidas. Hablamos de la sanidad.

Los modelos predictivos resultantes de aplicar técnicas de Big Data a las fuentes manejadas por los profesionales de la salud pueden tener muchas ventajas para la población, pero también para las farmacéuticas, los sanitarios y la administración. Los médicos y sus pacientes podrán tener una mejor detección de los efectos secundarios de los fármacos, tratamientos más personalizados, de más calidad y más rápidos, así como un avance en la medicina personalizada y preventiva. Por otro lado, la industria farma podrá diseñar medicamentos más efectivos y con menor coste, algo de lo que también se beneficiará la administración, que podrá comprobar la eficacia de las nuevas drogas gracias a la recogida de datos proveniente del mundo real.

En este punto hay que aclarar que esto no sustituye, sino que complementa, los ensayos controlados.

Pero, la de los datos no es sino una más de las tendencias TIC que pueden beneficiar de forma incontable a la industria sanitaria. Para muestra, un botón: durante la celebración de una de las ferias tecnológicas más importantes del mundo, el CES, que tiene lugar siempre en Alemania a principios de año, pudimos comprobar la cantidad de sinergias que se están creando entre sector TIC y el sanitario pero, sobre todo, comprendimos que solo vemos una mínima parte de las posibilidades que aún están por explotar.

El denominado “Digital Health Summit” ofreció una visión única y global del avance de la medicina moderna, la salud y el bienestar en temas de medicina de precisión, dispositivos móviles, Inteligencia Artificial y aprendizaje automático profundo, junto a los nuevos aparatos que son capaces de cuantificar nuestra salud y la gran transformación, que está a la vuelta de la esquina. Concluían que esta no solo es una oportunidad de hacer negocio sino que es un imperativo mundial.

Los tres mensajes que se lanzaron en Digital Health Summit fueron los siguientes:

  • Los nuevos avances TIC están teniendo un impacto extraordinario en la salud cerebral, sobre todo en el tratamiento del Alzheimer, la depresión, las adicciones y demás afecciones neurológicas.
  • La terapia digital, también conocida como “el software como medicamento”, es un tratamiento revolucionario que trata las enfermedades y las condiciones más exigentes que existen hoy en día.
  • Ahora, los pacientes pueden controlar su salud usando dispositivos portátiles clínicos y telemedicina.

Como la incipiente y prometedora relación entre las TIC y la medicina se antoja demasiado extensa, nos hemos centrado en las ventajas que el campo de la analítica puede aporta a nuestra salud. Sus retos están bien resumidos en el estudio “Big Data en Salud: retos y oportunidades” realizado por la Universidad Politécnica de Madrid (UPM) :

La aplicación del paradigma de Big Data al entorno de la salud supondrá una mejora de magnitud aún no predecible en la calidad de la atención a los pacientes, así como en la prevención, diagnóstico y tratamiento de enfermedades, unido a una reducción notable en los costes de sanidad. Para alcanzar estos logros es fundamental la integración de todos los datos procedentes de muy diferentes fuentes, así como el desarrollo de nuevas tecnologías que permitan la explotación de dichos datos.

No obstante, el verdadero valor de Big Data en salud se conseguirá solo si los diferentes actores implicados en el proceso (administraciones públicas, empresas privadas, hospitales, médicos, centros de investigación, universidades, …) se comprometen en este proyecto de forma conjunta para llevar el ámbito sanitario a una nueva era. Esto solo se podrá llevar a cabo en el marco de un ecosistema de Big Data en salud en el que se integre conjuntamente con la tecnología, políticas adecuadas sobre privacidad y confidencialidad, infraestructuras y una cultura de uso compartido de los datos. Todo ello conlleva una serie de retos que hay que afrontar desde diferentes perspectivas y grado de profundidad.

En este punto no hay que olvidar cuáles son las principales fuentes de las que se nutre el Big Data en este sector: los datos biométricos (escáneres, rayos X, huellas dactilares..); las grandes transacciones de datos, como reclamaciones u otros registros de facturación; webs y datos de redes sociales o de aplicaciones de smartphones; información de máquina a máquina (como los sensores, medidores…) y otros datos generados por los profesionales como: correos electrónicos, notas de los médicos, EMR o, incluso, documentos en papel.

Campos de aplicación

La Fundación Vodafone España y Red.es es (dependiente del Ministerio de Industria, Energía y Turismo) presentaron en su día un interesante informe sobre “Big Data en salud digital” en el que, entre otras cosas, exponían los principales campos de aplicación de esta tecnología en la industria sanitaria.

1 – La genómica, que trata de “encontrar la manera de capturar, almacenar, procesar e interpretar toda esa información biológica codificada en el genoma humano”, mediante potentes sistemas de análisis y la estandarización de los procesos de secuenciación. Esta aplicación permite predecir si una persona tendrá más o menos posibilidades de desarrollar una patología, con lo cual se podrá prescribir un tratamiento preventivo antes de que se desarrolle la enfermedad.

Según el experto Michael Schatz, citado en el estudio, se calcula que la cantidad de datos de genómica producidos diariamente a día de hoy se duplicará cada 7 meses. En 2025, esa cifra oscilará entre 2 y 40 exabytes por año, por lo que 1.000 millones de personas tendrán sus genomas completos secuenciados.

2 – Investigación clínica. Relacionado con la anterior, la analítica determinará con mayor rapidez y precisión las causas de las enfermedades para actuar contra ellas, además mejorará la calidad de la documentación científica y reducirá el infradiagnóstico de ciertas patologías.

3 – Lucha contra las epidemias. Utilizando técnicas de analítica en tiempo real se puede saber de forma inmediata dónde y a qué ritmo se está extendiendo un virus para la correcta gestión de vacunas. Además, esta técnica reduce los costes asociados a los estudios poblacionales a gran escala, que suelen ser muy altos.

4 – Monitorización de enfermos crónicos. A través de wereables, herramientas de “autocuidado” y los registros de salud electrónicos, los profesionales pueden llevar a cabo un seguimiento muy fiable de cierto tipo de enfermedades y su evolución. Además, también es muy cómodo para el paciente, ya que les evita desplazarse a los hospitales y son sencillas de usar.

Jornadas “Big Data y analytics en el sector salud”

El otro día asistimos a unas jornadas sobre la aplicación del Big Data y la analítica, organizadas por Executive Forum, y en el que participaron representantes de Ilunion, Sanitas, IBM y el Instituto de Ingeniería para el Conocimiento (IIC). Todo ellos explicaron qué están haciendo sus organizaciones en esta materia, qué beneficios les está reportando y hacia dónde va esta tendencia.

Elías Ramírez, subdirector TIC de ILUNION

Una de las principales fuentes de datos de la compañía española es su servicio de contact center que gestiona unos 8 millones de citas al año. Esta experiencia les proporcionó el conocimiento adecuado para realizar una optimización de los sistemas de citación de varios hospitales. Así, bajo un único indicativo, los agentes de ILUNION hacen las citaciones para esos clientes, cuya información se une al tráfico de la web, la documentación digitalizada, las conversaciones con los pacientes…

Ramírez indicó que el valor de un análisis de Big Data es el de poder mejorar la atención al paciente, optimizar recursos y facilitar la toma de decisiones. Así, recordó dos ejemplos que productos que fracasaron tras el análisis de los datos. En primer lugar, contó el caso del medicamento Vioxx, un analgésico que triunfó en el mercado, reportándole a su fabricante (Merk) ventas anuales de más de 2.500 millones de dólares. Sin embargo, un estudio con técnicas de análisis de datos de pacientes que lo habían probado arrojó resultados escalofriantes: la posibilidad de sufrir un ataque de corazón se triplicaba en ellos. Evidentemente el medicamento se retiró del mercado y la farmacéutica fue demandada.

El siguiente caso expuesto por ILUNION estaba vinculado a un producto de Google: Flu Trends. En base a sus datos de consulta, el buscador podía adivinar con varios días de antelación si iba a surgir un brote de gripe y dónde. Su efectividad a la hora de tomar medidas de prevención hizo que la aplicación se extendiera a otros países (incluido España). Sin embargo, en 2014 surgió un problema y es que Google predijo un brote de gripe grave en EE.UU. y no fue tal, por lo que sufrió fuertes críticas. ¿Qué fallo? al no hacer énfasis en el algoritmo de análisis sino en el volumen de datos, el buscador no pudo tener en cuenta que, en ese año, la gente estaba preocupada por la gripe A y muchas personas sanas quisieron informarse, buscándolo por internet, pero no porque estuvieran enfermas.

En estos casos no se tuvo en cuenta aspectos que hoy sí se están desarrollando tecnológicamente, como puede ser el elemento de la emoción. “Utilizamos herramientas de speech analytics o emotions analytics que buscan saber qué emociones se encuentran en el interlocutor a la hora de hablar con ellos y se analiza“, indicó Ramírez.

Julia Díaz, directora de Health&energy predictive analytics de IIC

Aunque el 2016 ha pasado hace poco, en cuestión de innovación TIC puede ser un mundo. En ese año, de lo que más se hablaba era de IoT, inteligencia de las máquinas, acciones cognitivas, aprendizaje automático o Machine Learning y lenguaje natural. A estas, Julia Díaz añade la Inteligencia Artificial como la entendemos hoy en día y el procesamiento del lenguaje natural que, “aunque es parte de la IA y surgió en el ámbito sanitario, por aquel entonces el mercado no estaba preparado y ahora es su momento”.

Basando sus conclusiones en la consultora Gartner, Díaz apuesta sobre todo por la automatización, el aprendizaje, los dispositivos, el IoT y, por supuesto, la IA como tendencias que van a revolucionar el campo de la salud. “Y los científicos de datos van a ser los ebanistas de estas herramientas porque van a tener un profundo conocimiento de la informática, de las matemáticas y del negocio junto a una técnicas de comunicación muy desarrolladas”.

El fin último de estos profesionales va a ser dar valor a la sociedad utilizando dos tipos de analíticas:

  • Descriptiva: variables relevantes, patrones frecuentes, nivel de ruido … para saber aspectos como por qué la radiación impacta en tal o cual enfermedad, por poner un ejemplo.
  • Predictiva: se basa en lo anterior y su objetivo es llegar a anticiparse a la enfermedad. Por ejemplo, llega un paciente a un hospital a hacerse una prueba y salta una alarma que indica que va a tener un nuevo brote de la enfermedad en X tiempo. Con esta información podrían prevenir que ocurriera.

Durante su presentación, Julia García quiso matizar el hecho de que todos estos sistemas son de “recomendación no de prescripción, quien prescribe es el médico porque dos pacientes no somos iguales aunque tengamos los mismos números (que es lo que mide la máquina) y es necesaria la labor del profesional sanitario”. También indicen en el diagnóstico hechos como la geografía y la cultura del paciente. “Esto no es café para todos“, indicó.

A la hora de realizar proyectos de Big Data, García da las siguientes recomendaciones:

  • Están dirigidos por el experto médico e informático.
  • En un segundo lugar, se presenta el proyecto a la persona decisora.
  • Una vez que se tiene acceso a los datos y aunque tiente hacer un uso adicional, estos solo han de usarse para el fin declarado.
  • Superar los problemas de privacidad.
  • Hay que medirse para mejorar siempre y ser competitivos.

Juan José Casado, ejecutivo de Big Data y Analytics de Sanitas

“Los seres humanos, dentro de poco, seremos nubes de millones de datos y todo esto va a generar un nuevo conocimiento”.

En la historia de la medicina nunca se habían generado tantos datos como ahora. Gracias a los sensores, wareables y demás dispositivos se está generando una información que nos va a llevar a grandes avances en los próximos años. Desde Sanitas están realizando desde hace tiempo un enorme esfuerzo en analizar y controlar todo este Big Data, “el objetivo es tener una nueva forma de entender la salud, pasando de gestionar la enfermedad a generar vida: predecir enfermedades, implementar medidas preventivas, personalizar tratamientos e ir hacia una medicina más activa donde el paciente juegue un papel activo en su salud“, indicó Casado.

El reto, por tanto, es avanzar hacia lo que se denomina como “un modelo de salud sostenible”. La dificultad es conectar todos los millones de datos relacionados con un paciente, uniendo su genoma con la biogenómica y donde tienen fuerte impacto variables como el entorno, la alimentación, el ejercicio… “El problema es que todos estos puntos están separados en silos de información, el reto es unirlos y ver las causas y los efectos para que nuestros clientes vivan más y de forma más saludable”.

Sanitas también está viéndose inmersa en una transformación digital en torno a dos ejes: el mobile first (trasladar el negocio al móvil) y el IA first (cómo los procesos, servicios y productos se van a ver afectados por la Inteligencia Artificial). “El reto es que, en 2020, una de cada cuatro consultas sean digitales”. Todo ello siguiendo dos líneas de trabajo:

1 – Impulsar la salud basada en datos: cómo procesar el lenguaje natural, cómo hacer que las conversaciones realizadas entre médico y paciente puedan ser valoradas. Con datos como síntomas, diagnósticos, tratamientos, fechas, etc… se puede generar nuevo conocimiento, por ejemplo, cómo se relacionan diferentes datos clínicos entre sí, cómo unos órganos están relacionados con otros, etc…

2 – Mejorar la experiencia de nuestros clientes y la calidad de nuestros servicios. Utilizando técnicas de Machine Learning se pueden predecir cuántas personas van a ir a urgencias al día y así se puede adaptar al personal a esas necesidades, reduciendo los tiempos de espera.

Juan Carlos Sánchez, responsable de IBM Watson Health

La gran plataforma de IBM para la analítica de datos, Watson, no podía faltar en esta jornada. Así, su responsable se ocupó de explicar la parte más técnica de las soluciones aplicadas a la salud, donde los principales objetivos son: reducir la demandar, eficienciar el sistema para ser mejores gestores de activos y procesos y generar riquezas y nuevas profesiones.

Asimismo, recordó a los asistentes la importancia de la seguridad. “El acceso a datos masivos en un entorno seguro es clave para impulsar el I+D del negocio”.

Otras herramientas IT imprescindibles en la salud: las redes

Aunque no se vean, los sistemas de comunicación son una de las bases no solo para que cualquier herramienta tecnológica funcione, sino también para garantizar la calidad del servicio que se ofrece al paciente. Especialmente importante es tener un buen sistema de redes en los hospitales, dado la cantidad de profesionales que trabajan allí y la necesidad de intercambio de información que tienen. Para valorar el estado de este sector en la industria sanitaria hemos hablado con Jean-Clovis Pichon, consejero delegado en España y responsable del sector Sanidad en EUSO. Alcatel-Lucent Enterprise.

MuyComputerPRO: ¿Cómo valoraría el actual sistema de redes de los hospitales españoles? ¿hay mucha diferencia, en este sentido, entre la sanidad pública y privada?

Jean-Clovis Pichon: El sector de la sanidad tiene que enfrentarse, en España y en todas partes, a profundas transformaciones. Más allá del envejecimiento de la población, de la explosión del gasto sanitario, de los potenciales cambios de modelo, del impacto de los nuevos paradigmas tecnológicos (Movilidad, Redes Sociales, Inteligencia Artificial, Transformación Digital) es una realidad que impacta tanto en la sanidad pública como en la privada. Redefine absolutamente la relación con el paciente. La velocidad de inversión puede ser diferente en ambas, pero el horizonte es idéntico.

MuyComputerPRO: ¿Qué beneficios traería para la sanidad reforzar y mejorar estas instalaciones?

Jean-Clovis Pichon: El principal beneficio es mejorar la experiencia del paciente a lo largo de su recorrido en el sistema de sanidad: facilitando el acceso seguro al personal hospitalario a los datos / imágenes del paciente y al conocimiento médico, proporcionando canales de comunicaciones múltiples (voz, chat, imagen), integrándose con aplicaciones sanitarias, autorizando la multiplicación de dispositivos portátiles o permitiendo el despegue de la telemedicina. Como ilustración, casos de uso de despliegue de atención ambulatoria antes y después de las operaciones, o seguimiento remoto de pacientes con enfermedades crónicas, ya están en fases de despliegues en varios países gracias a esas transformaciones tecnológicas.

MuyComputerPRO: ¿Qué tipos de redes son las idóneas para dar un buen servicio a los hospitales?

Jean-Clovis Pichon: Son redes que:

  • Conecten pacientes, personal sanitario, IoT y visitantes.
  • Permitan el mejor rendimiento de las aplicaciones sanitarias con la mayor seguridad.
  • Reduzcan el esfuerzo del despliegue, aumentando la disponibilidad y la seguridad.
  • Autoricen despliegues rápidos de nuevos dispositivos (clínicos, edificios, seguridad) y servicios (acceso de pacientes o familiares, BYOD).
  • Propongan servicios de localización (LBS).
  • Impliquen la menor inversión en aprendizaje de operaciones y control.

MuyComputerPRO: ¿Tiene el sector de la salud necesidades especiales para con la redes? o son las mismas que puede tener, por ejemplo, el sector bancario?

Jean-Clovis Pichon: El sector de la salud tiene particularidades que están vinculadas a la privacidad, al acceso y a la disponibilidad de la atención sanitaria. Hay que gestionar interacciones entre los diferentes departamentos de la red que se superponen y que incluyen equipos médicos, datos clínicos, datos generales, voz y audio, entre otros.

Todas esas redes deben estar conectadas a una única infraestructura IT. Esto facilita la supervisión y el mantenimiento, y así se controlan los costes. Pero el despliegue debe garantizar los niveles de seguridad y confidencialidad requeridos por el carácter muy sensible de los datos personales sanitarios. La puesta en marcha del Reglamento General de Protección de Datos (GDPR) en la UE a partir del próximo mes de mayo supone, en este sentido, un condicionante muy significativo.

Periodista especializada en tecnologías corporate, encargada de las entrevistas en profundidad y los reportajes de investigación en MuyComputerPRO. En el ámbito del marketing digital, gestiono y ejecuto las campañas de leads generation y gestión de eventos.

Noticias

La FCC trabaja en su argumento contra la neutralidad de la red

Publicado el

La neutralidad de la red ha estado en el punto de mira de la FCC desde que se produjo el cambio de gobierno en Estados Unidos. Ajit Pai, presidente de la FCC, ha sido el motor principal de la corriente que se ha lanzando en contra de las medidas de la era Obama que garantizaban la neutralidad de la red, y como vimos en este artículo logró salirse con la suya.

Sin embargo, poco le duró la alegría al que muchos tildan de ser un pelele de las grandes teleoperadoras: veintidós Estados piden que se respete la neutralidad de la red, y en suma representan a más de la mitad de la población de Estados Unidos.

La situación se está calentando, pero la FCC y su hombre estrella, Ajit Pai, no van a dar su brazo a torcer, más bien todo lo contrario. Según las últimas informaciones están trabajando en su argumentación para defender a capa y espada la idea de acabar con la neutralidad de la red, un movimiento que como ya hemos dicho en artículos anteriores permitirá a las operadoras crear una Internet de primera y una Internet de segunda, y manipular los servicios y el tráfico a su antojo.

Ajit Pai ha sido crítico con el Estado de California por aprobar una medida estatal que busca garantizar el acceso abierto y libre a Internet, y comentó que la FCC puede frenar las malas prácticas de las operadoras gracias a su política de transparencia.

“Si un ISP comienza a bloquear o a restringir contenido legal todos lo sabrán”.

No ha concretado qué medidas tomarán en esos casos ni qué se entenderá por “contenido legal”, pero sus argumentos no tienen sentido y no suena nada bien, ya que parecen apuntar a un intento de controlar y de censurar Internet al más puro estilo “juez y verdugo” (decidir qué debe ser restringido y qué no, y adoptar las medidas oportunas).

El presidente de la FCC ha sido crítico también con los gigantes que defienden la neutralidad de la red y no ha tenido reparos en recurrir a comentarios sin sentido, cosa que al fin y al cabo es hasta normal, ya que no tiene más opción para defender lo indefendible.

Continuar leyendo

Noticias

Amazon: el rival a batir en dispositivos para el Hogar Inteligente

Publicado el

Hogar Inteligente Amazon

El segmento del hogar inteligente moverá 53.000 millones de dólares en 2022, según las previsiones de la firma de análisis Zion Market Research. Amazon quiere una parte de esa tarta tanto en la parte de los dispositivos como en tecnologías de control por voz.

Amazon celebró el jueves un evento donde sorprendió al personal al presentar quince nuevos dispositivos habilitados con Alexa, el asistente más avanzado del mercado que el gigante del comercio electrónico está introduciendo en todos sus productos de hardware y también licenciado en el de terceros, como vimos ayer con el anuncio de una alianza con Lenovo.

El evento sirvió para confirmar las ambiciones de la firma de Bezos en dispositivos para hogar inteligente. Amazon ha tomado una ventaja importante y busca un nuevo canal masivo de ingresos. De paso, también confirmó que es capaz de celebrar -por sorpresa- un evento igual o más emocionante que los de Apple.

Entre los dispositivos presentados, vimos actualizaciones de algunos conocidos que lideran el mercado como los altavoces inteligentes Echo Dot o Plus; el modelo con pantalla Echo Show y nuevos modelos para cubrir otros campos como los Echo Link conectables a los sistemas de audio caseros o el económico Echo Input. Todos permiten hablar con Alexa para funciones de entretenimiento; obtener respuestas a preguntas; realizar compras o controlar otros gadgets conectados al hogar inteligente.

Entre las sorpresas, destacaron un reloj inteligente; un enchufe inteligente; un dispositivo hardware dedicado a automoción, que pretende llevar su asistente a cualquier vehiculo, y hasta un microondas inteligente.

Alexa es la estrella

Amazon sólo ha tardado cuatro años en convertir su tecnología de control por voz en la más poderosa de la industria y a Alexa en la referencia entre los asistentes virtuales. Ha sido la clave para abrir toda una categoría de producto con los Echo propios (los más vendidos -por mucho- del sector) y licenciado la tecnología y un paquete de desarrollo al resto de los OEM para creación de otros asistentes para el hogar.

Alexa también está llegando a otros segmentos como el de automoción con acuerdos como el de SEAT o al del retail a través de grandes minoristas como Best Buy. Más importante aún es la integración de Alexa en los Windows PC con aplicación propia, en lo que fue uno de los anuncios destacados del pasado CES.

Alexa cuenta hoy con 50.000 habilidades disponibles y se esperan otras. Con la presentación de los nuevos Echo, Amazon ha anunciado una serie de actualizaciones que deberían convertirla en más agradable y conversacional y en definitiva, lograr el gran objetivo de todos estos asistentes: convertir su uso en más natural.

El premio es gordo y Amazon tiene una ventaja importante frente a Google, Apple y Microsoft.

Continuar leyendo

Noticias

Internet se dividirá en dos en la próxima década, según Eric Schmidt

Publicado el

Eric Schmidt, ex-presidente ejecutivo de Alphabet, comentó recientemente en una entrevista que está totalmente convencido de que Internet se acabará dividiendo en dos, y que esto ocurrirá en 2028.

Estas declaraciones se produjeron durante la celebración de un evento organizado por la firma de inversión Village Global VC, y la verdad es que tiene mucho sentido tras analizar la explicación que ofreció este conocido ejecutivo, en la que parte de la ya clásica dualidad China-Estados Unidos.

La idea que propone Schmidt es simple: con la globalización China está teniendo un peso cada vez mayor en la economía internacional. El país ofrece servicios y productos tecnológicos que han adquirido una enorme popularidad, y muchas de sus empresas gozan de una gran importancia en países occidentales.

Sin embargo esos productos y esas empresas dependen de un gobierno dictatorial que como sabemos censura los medios y recorta las libertades de sus ciudadanos sin temor al qué dirán, una realidad que según Eric Schmidt constituiría el punto de partida de esa Internet dividida en dos.

Por un lado tendríamos una Internet censurada y controlada por China, que tendría que ser utilizada por aquellos que quieran hacer negocios concretos con el gigante rojo, y la Internet libre que todos conocemos, una bifurcación que en cierta forma ya existe en el mundo real con The Belt and Road, una iniciativa surgida en China que tiene por objetivo conectar al país con otros países para potenciar el comercio y  la influencia política del gigante asiático.

En resumen, una Internet controlada por China y una Internet controlada por Estados Unidos en 2028, una idea que con las premisas que ha dado Eric Schmidt no suena para nada descabellado, sobre todo si tenemos en cuenta que hasta Google está dispuesta a tragarse su orgullo para volver a operar en el mercado chino.

Obvia decir que si esta realidad se acaba cumpliendo todas las empresas que sean partícipes de esa Internet controlada por China serán cómplices de las violaciones de derechos humanos que lleva a cabo el gobierno de dicho país, y lo mismo ocurrirá con Google si acepta las exigencias que le impondrán para volver a operar con su conocido buscador en el mercado chino.

Continuar leyendo

Top 5 cupones

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!