Conecta con nosotros

Noticias

TransmogrifAI, el Machine Learning de Salesforce llega a GitHub

Publicado el

Los modelos de Machine Learning, la Inteligencia Artificial que identifica relaciones entre millones de datos, rara vez son fáciles de diseñar. Los científicos de datos pasan semanas y meses no solamente procesando los datos en los que se basa cada uno de los modelos, si no que también tienen que extraer características útiles de los datos, estrechando algoritmos y al final construyen, o lo intentan, un sistema que no solo funcione bien en el laboratorio, que también lo haga en el mundo real.

Las nuevas herramientas de Salesforce tienen como objetivo intentar aliviar esta carga de trabajo. Salesforce ha publicado en GitHub TransmogrifAI, una biblioteca de Machine Learning para datos estructurados. Este tipo de datos, que se encuentra en tablas y bases de datos, permitirá seleccionar características útiles y modelos de entrenamiento con tan solo tres líneas de código.

Mayukh Bhaowal, director de Salesforce Einstein, comentó en una entrevista telefónica con VentureBeat que TransmogrifAI transforma conjuntos de datos sin procesar en modelos personalizados. Es la evolución de la biblioteca de Machine Learning de Salesforce, que permitió al equipo de Einstein desarrollar en cuestión de horas un modelo personalizado para sus clientes.

Bhaowal explicó que se creó con la experiencia y el aprendizaje que los científicos de datos de Salesforce consiguieron al crear Einstein. Ellos aprendieron que los modelos personalizados superan a los modelos generados a nivel global. “Si se usa el mismo modelo para hacer predicciones para una empresa de Fortune 500 en una tienda familiar, será difícil encontrar un patrón correcto“.

Lo primero es la inferencia de características y la selección automática de características. Es una parte crucial de la capacitación del modelo, ya que la selección de unas características incorrectas podría resultar en un modelo excesivamente optimista, inexacto o sesgado.

Con TransmogrifAI, los usuarios especifican un esquema para sus datos, la biblioteca extrae funciones automáticamente, como números de teléfono o códigos postales. También realizan pruebas estadísticas, catalogando texto con baja cardinalidad, es decir, una pequeña cantidad de elementos, y elimina características con poco poder predictivo, o aquellas que pueden dar lugar a un sesgo no predictivo, otras señales no deseadas.

En una demo, Bhaowal demostró como TransmogrifAI podía aislar rápidamente características como puestos de trabajo, correos electrónicos, direcciones… y de esta forma averiguaba si son predictivas. Los que no lo son fueron descartados automáticamente. “Es perfecto para la reducción de la dimensionalidad“, dijo refiriéndose al proceso de reducción del número de funciones con respecto a la que el modelo se creó.

El siguiente paso es automatizar el flujo de TransmorgrifAI. Basándose en los tipos de características extraídos en el primer paso, la biblioteca transforma los datos estructurados en vectores, tomando automáticamente, por ejemplo, números de teléfono y separando el código del país para saber si es válido o no.

Una vez que TransmogrifAI ha extraído las características del conjunto de datos, estará listo para comenzar la capacitación de modelos automatizados. En esta etapa se ejecutan un cuadro de algoritmos de aprendizaje automático. En paralelo, sobre los datos, se selecciona automáticamente el modelo de mejor rendimiento, se toman muestras y se recalibran las predicciones para evitar datos desequilibrados.

Shubha Nabar, Director Senior de Data Science para Salesforce Einstein, define el entrenamiento de TransmogrifAI como la “explicación del modelo”, la transparencia sobre los factores que influyen en los modelos. “Desde una perspectiva de confianza y privacidad de los datos, es importante que el modelo generado no sea una caja negra. TransmogrifAI muestra los efectos globales de cada característica”.

Y esta es solo la punta de un iceberg muy grande

TransmogrifAI cuenta con herramientas que facilitan ajustar los hiperparámetros, variables como la frecuencia de muestreo y filtros, que influyen y optimizan los modelos de Machine Learning. Dentro de los entornos de desarrollo integrados que lo soportan, TransmogrifAI resalta los errores de sintaxis y tipográficos, sugiere como completar el código y las característica de cada “tipo” con una jerarquía extensible, lo que permite a los usuarios diferenciar entre funciones primitivas y matizadas.

TransmogrifAI nos ha transformado, reduciendo el tiempo medio de respuesta en el que se entrena un modelo de rendimiento en un par de horas y permitiendo a nuestros científicos de datos desplegar miles de modelos de producción con un mínimo ajuste manual” dijo Bhaowal. “El objetivo de democratizar el machine learning solo se puede lograr en una plataforma abierta de intercambio de ideas y códigos, y las diversas perspectivas de la comunidad harán que la tecnología sea mejor para todos“.

Casualmente, el lanzamiento público de TransmogrifAI  se produce un día después de la plataforma abierta de Oracle, GraphPipe, una herramienta que facilita el desplieuge de modelo de machine learning hechos para frameworks como Google TensorFlow, MXNet, Facebook Caffe2 y PyTorch.

Photo por Curtis MacNewton en Unsplash

En el mundo de la tecnología por casualidad pero enormemente agradecida. Social Media Manager, Redacción, Organización y cualquier reto que se me proponga.

Noticias

Microsoft anuncia SQL Server 2019 y la disponibilidad de su versión Beta

Publicado el

sql-server-adapted

Poco después de que la edición 2018 de la conferencia Ignite de Microsoft levantase el telón, comenzaban los anuncios de novedades. Entre ellas, SQL Server 2019, cuya versión de pruebas ya está disponible para descargarla. Esta nueva versión de SQL Server cuenta con diversas novedades, entre las que está un nuevo sistema de gestión de bases de datos que promete que las empresas podrán gestionar sus bases de datos, tanto las relacionales como las que no lo son, con un solo sistema.

SQL Server 2019 ofrece nuevas capacidades para las bases de datos relacionales, con énfasis sobre todo en el tratamiento y gestión de datos, pensados para que sus usuarios puedan gestionar cualquier proyecto relacionado con ellos, desde sistemas de Data warehouse (Almacén de datos) y Business Intelligence (BI) a los que estén relacionados con la Inteligencia Artificial o la analítica avanzada.

Estas mejoras permiten que la nueva versión de SQL Server se convierta en un nodo para la información obtenida de los datos que recogen las empresas, que acabe con los “compartimentos estanco” entre los sistemas de gestión de bases de datos. Y que permita conseguir información de manera más rápida sin necesidad de tener que mover o copiar datos de un sistema a otro.

Con esta nueva versión, SQL Server crea una plataforma de datos unificada, ya que se integrará con el sistema de archivos distribuido de Hadoop (HDFS) y también con Apache Spark. Así, los científicos de datos pueden recoger, almacenar y analizar grandes cantidades de datos. Y ofrece también mejoras en PolyBase para que incluya conectores nuevos para más fuentes de datos. Entre ellas Azure SQL Data Warehouse, Azure Cosmos DB, Mongo DB, Oracle y Teradata. De esta forma, sus usuarios podrán utilizar T-SQL para hacer consultas a todas sus bases de datos. Por lo tanto, todas las bases de datos que emplee cualquiera que use SQL Server 2019 podrán comunicarse entre ellas de manera directa.

Esta nueva versión de SQL Server puede ejecutarse tanto en local como en Azure Stack o en la nube. Además, sus usuarios podrán acceder a los servicios de SQL Server Machine Learning Services y Spark Machine Learning. De esta manera podrán obtener información de todos sus datos con más facilidad, sin importar su fuente. Además, Microsoft también ha anunciado Azure SQL Database Managed Instance, que permite portar una base de datos SQL a la nube sin tener que hacer modificaciones en su código.

La edición 2019 de SQL Server cuenta con diversas opciones de seguridad avanzadas. Entre ellas, la función de encriptación permanente con enclaves seguros, que supone una mejora y extensión de la tecnología del cifrado del lado del cliente presentada en SQL Server 2016. Los enclaves seguros protegen los datos sensibles en un enclave hardware o software creado dentro de la base de datos. Así están protegidos frente al malware y los usuarios que no deben acceder a ellos, al mismo tiempo que proporciona operaciones avanzadas sobre datos cifrados.

Además, se ha facilitado la gestión de certificados, gracias a SQL Server Configuration Manager. Y SQL Data Discovery and Classification está integrado en el motor de SQL Server. Es compatible con nuevos metadatos y soporte de auditoría, lo que es de gran ayuda a la hora de cumplir con la RGPD y otras normas de cumplimiento obligado.

Por otra parte, también ofrece mejoras para los desarrolladores. Entre ellas, mejoras para SQL Graph, nueva compatibilidad con UTF-8, una nueva extensión para Java y varias mejoras para los Servicios de Machine Learning.

Continuar leyendo

Noticias

Apple y Salesforce trabajarán para fomentar el desarrollo de apps empresariales en iOS

El acuerdo al que han llegado Apple y Salesforce prevé el desarrollo de aplicaciones móviles para empresas basadas en la Plataforma Salesforce bajo el sistema operativo iOS.

Publicado el

Apple y Salesforce trabajarán juntas para fomentar el desarrollo de apps empresariales en iOS

Salesforce nos tiene acostumbrados a aprovechar la celebración de su Dreamforce para anunciar acuerdos estratégicos con gigantes tecnológicos. Así lo hizo en 2014 con Microsoft, también en 2017 con Google, y ahora en Dreamforce 2018 (#DF18), evento que se está celebrando entre los días 25 y 28 de septiembre en San Francisco (EE UU), lo hace con Apple.

El acuerdo al que han llegado Apple y Salesforce prevé el desarrollo de aplicaciones móviles para empresas basadas en la Plataforma Salesforce bajo el sistema operativo iOS, presente tanto en los iPad como en los iPhone de la compañía de la manzana.

Los tres puntos de principales de la colaboración entre Apple y Salesforce son:

Desarrollo de aplicaciones nativas Salesforce en iOS: Salesforce, en colaboración con Apple, rediseñará su app para iOS con funciones exclusivas como los accesos directos a Siri, FaceID y Business Chat. Además, se espera que para 2019 Salesforce presente la primera app móvil en iOS de su plataforma de aprendizaje Trailhead. El acuerdo también tiene previsto que los partners de Salesforce desarrollen apps para satisfacer las necesidades específicas de sus clientes.

Apoyo de Salesforce para los desarrolladores en iOS: Tanto Apple como Salesforce trabajan en el Mobile SDK para iOS, que estará disponible para finales de este año y saldrá optimizado para Swift, el lenguaje de programación de Apple. El SDK permitirá a las empresas y a los desarrolladores crear apps para iPhone e iPad en la plataforma Salesforce Lightning.

Aprendizaje y desarrollo personal de los desarrolladores: Ambas empresas creen en la democratización de la tecnología y en la necesidad de que los desarrolladores adquieran nuevos conocimientos. Para apoyarles en esta tarea han creado “Get started”, pensado para enseñar a crear apps iOS nativas en Xcode con Swift. De los tres ejes principales del acuerdo entre Salesforce y Apple, este es el único que ya se encuentra disponible.

Continuar leyendo

Noticias

Microsoft trabaja en una computadora cuántica escalable

Publicado el

computadora cuántica

Microsoft ha anunciado una asociación con investigadores de la Universidad de Copenhague para construir la que denomina “primera computadora cuántica escalable” del mundo.

El director científico de Microsoft, Peter Krogstrup, ha explicado que la “computadora del mañana” podrá realizar cálculos complejos en minutos u horas, frente a la capacidad de las computadoras actuales que necesitarían millones de años para completarlos.

Krogstrup cree que las nuevas computadoras cuánticas tendrán implicaciones significativas en la sociedad. Por ejemplo, ayudará a desarrollar y mejorar la medicina, permitiendo a las personas crear nuevos medicamentos. También cambiará la dirección de cómo funciona la ciberseguridad. En general, Microsoft afirma que los nuevos sistemas “establecerán nuevos estándares sobre cómo se calculan y procesan los datos”.

Microsoft también ha presentado el Quantum Materials Lab en Kongens Lyngby, Dinamarca, para explicar su visión de cómo construir estas computadoras futuristas. Microsoft ha transformado el área en un “parque cuántico” que visitantes podrán recorrer para aprender sobre los avances en estas tecnologías y los fundamentos detrás de la construcción de la nueva computadora cuántica.

Computadora cuántica: el futuro

Todas las grandes tecnológicas tienen proyectos de desarrollo de computadoras cuánticas. Unas bases científicas asentadas en investigaciones premiadas con el Nobel de Física de 2012 para el francés Serge Haroche y el estadounidense David J. Wineland por sus trabajos en óptica cuántica que analizaron la interacción entre luz y materia, y que han terminado de sentar las bases para la futura creación de un supercomputador cuántico. 

Un galardón que llegó tras los anuncios de grandes avances en computación bajo tecnología cuántica como el realizado por IBM (seguramente la compañía más avanzada en estas tecnologías) asegurando que estaban cerca de conseguir acceso a las tecnologías mínimas que les permitiera construir una computadora cuántica básica.

Desde entonces los progresos han sido abundantes. Bristlecone es el proyecto de computadora cuántica universal con el que están experimentando en Google. Con 72 qubits, el gigante de Internet cree que podrán lograr la pretendida “supremacía cuántica”, cuando este tipo de computadoras supere (en el mundo real) a las máquinas basadas en silicio.

Como sabes, frente a la arquitectura de la computación tradicional capaces de adoptar valores de “1” o “0”, la información en computación cuántica se almacena en qubits (bits cuánticos) que pueden adoptar simultáneamente ambos valores (superposición). Hasta ahora se pensaba que un ordenador cuántico de tan sólo 50 qubits sería suficiente para superar a cualquier superordenador actual del top-500 mundial, pero IBM mostró que algunas aplicaciones específicas necesitarían al menos 56 qbits.

Además, una gran cantidad de qubits no es lo único que se necesita para alcanzar la supremacía cuántica. También se necesitan qubits con bajas tasas de error para que no arruinen los cálculos. Y hablamos de simulaciones… Según Google, una computadora cuántica ideal tendría al menos cientos de millones de qubits y una tasa de error inferior al 0,01%.

Un ordenador cuántico universal podrá programarse para realizar cualquier tarea de computación y será exponencialmente más rápido que los sistemas actuales para un gran número de aplicaciones, primero científicas, después de negocio, para terminar en el mercado de consumo. Aún faltan décadas para que la industria pueda contar con estas computadoras, pero el futuro parece marcado.

Más información | Microsoft

Continuar leyendo

Top 5 cupones

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!