Conecta con nosotros

Noticias

AWS re:Invent 2019: Amazon avanza en machine learning y la Inteligencia Artificial

Publicado el

AWS re:Invent

A pesar de que hace ya unos días que la división dedicada a la nube de Amazon, AWS, viene anunciando las novedades que se están viendo en su evento re:Invent 2019 (entre ellas un chip para centros de datos basado en Arm que ahora sabemos que se llamará Graviton2), se ha guardado la mayoría para irlas desgranando a lo largo de sus jornadas.

Así, a los anuncios de su primer día, bastante numerosos, le ha seguido un segundo día repleto de anuncios, que destacan por estar relacionados casi todos con el machine learning y la Inteligencia Artificial.

Fraud Detector y CodeGuru

Entre las novedades de AWS presentadas en el segundo día del re:Invent están Fraud Detector, una herramienta caracterizada por el uso de machine learning para luchar contra el fraude y de detectar anomalías en transacciones, y CodeGuru, una función encargada de automatizar la revisión de código y de localizar errores y código poco eficiente.

Fraud Detector, lanzada en fase de prueba, permite a los clientes de AWS proporcionar direcciones de correo o IP, así como otros datos del histórico de transacciones y de los datos de registro de cuentas, junto con marcadores que indican qué transacciones son fraudulentas y cuáles legales.

Amazon toma entonces esa información y emplea algoritmos, junto con detectores de datos desarrollados con base en la división de consumo de Amazon, para el desarrollo de modelos a medida que reconozcan elementos que pueden ser potencialmente maliciosos, por ejemplo, en dominios de correo electrónico y formación de direcciones IP. Tras la creación del modelo, los clientes pueden crear, visualizar y actualizar reglas para permitir acciones basadas en predicciones de modelos y sin apoyarse en terceros.

Con Fraud Detector, los administradores pueden insertar pasos adicionales, o comprobaciones basadas en riesgo, de manera selectiva. La herramienta también puede identificar cuentas que tienen más probabilidad de abusar de los programas de prueba antes de la compra y etiquetar transacciones de pago online sospechosas antes de que se procesen y completen los pedidos.

La herramienta está disponible a través de una API de punto final privada, que se puede incorporar a servicios y apps por el lado del cliente, y según Amazon, sus modelos de machine learning son capaces de identificar actores maliciosos con un 80% más de probabilidad potencial que si se trata de hacer esta detección mediante sistemas convencionales.

CodeGuru, un componente que se integra con los entornos de desarrollo integrado existentes, bebe de modelos de Inteligencia Artificial entrenados en cerca de 10.000 de los proyectos open source más populares para evaluar código a medida que se va escribiendo. Si detecta un error, genera un comentario que los humanos pueden comprender explicando el problema y sus posibles soluciones. Además, CodeGuru es capaz de descubrir las líneas de código menos eficientes y productivas, para lo que crea un perfil cada cinco minutos encargado de revisar elementos como la latencia y el uso del procesador.

Este componente tiene dos partes. La primera es CodeGuru Reviewer, que emplea una combinación de minado de normas y modelos de machine learning supervisado, y que se encarga de detectar desviaciones de las consideradas buenas prácticas para el uso de las APIs y SDKs de AWS. Además, etiqueta problemas comunes que pueden llevar a problemas de producción. La segunda el CodeGuru Profiler, un elemento encargado de proporcionar recomendaciones concretas sobre temas como el uso de librerías poco eficientes.

Contact Lens y Kendra

Amazon Contact Lens, que también ha salido en fase de prueba es un call center virtual para Amazon Connect, encargado de transcribir las llamadas al mismo tiempo que las responde. Ofrece transcripción de texto completo y captura desde el sentimiento de las llamadas hasta las conversaciones cruzadas entre agentes, pasando por los periodos de silencio prolongados. Además deja que los responsables de área puedan hacer búsquedas en las transcripciones por palabra clave, así como visualizar paneles de control e informes que midan tendencias en el tiempo.

Kendra, también en pruebas, es un nuevo servicio de Inteligencia Artificial para la búsqueda en empresas. Una vez configurado en la consola de AWS, Kendra aprovecha los conectores para unificar e indexar fuentes que hasta entonces no tenían ningún tipo de conexión: sistemas de archivos, webs, elementos almacenados en Box o Dropbox, Salesforce, o SharePoint, entre otras. Los clientes pueden, de manera opcional, proporcionar un FAQ a Kendra, y permitir que elabore un índice mediante proceso del lenguaje natural para identificar conceptos y sus relaciones.

Las preguntas en Kendra se pueden probar y refinar antes de su despliegue, y mejoran automáticamente con el tiempo, gracias a la que los algoritmos de Inteligencia Artificial asociados reciben datos nuevos continuamente. Cuenta con una app web para usuario final prediseñada que se puede integrar en apps internas. Eso sí, no incluye aprendizaje incremental, auto completado de preguntas, sinónimos personalizados o analítica. Solo ofrece conectores con SharePoint online, JDBC y Amazon S3, y está limitada a un máximo de 40.000 preguntas por día, 100.000 documentos indexados y un índice por cuenta.

Novedades para AWS SageMaker

AWS ha anunciado también varias funciones y herramientas para AWS SageMaker, su conjunto de herramientas para el entrenamiento y despliegue de modelos de machine learning pensadas para ayudar a los desarrolladores a gestionar mejor tanto los proyectos como los experimentos, así como la precisión de los modelos.

La primera es AWS SageMaker Studio, una herramienta de gestión de flujos de trabajo y entrenamiento de modelos que recopila todo el código, cuadernos y carpetas de proyecto de machine learning en un solo punto. La segunda es SageMaker Notebooks, con la que se puede preparar con rapidez un cuaderno Jupyter para proyectos de machine learning, y cuyo uso de CPU se puede gestionar a través de AWS y pasar contenido a ella contenido de cuadernos de manera ágil.

SageMaker Autopilot es la tercera de estas novedades, y se encarga de automatizar la creación de modelos de machine learning, así como de elegir modelos automáticamente y de ajustarlos. La cuarta es SageMaker Experiment, que se utiliza para el entrenamiento y ajuste de modelos de manera automática, así como de la captura de parámetros mientras se prueban modelos.

Se encarga de elaborar un índice de experimentos, en el que se pueden buscar los realizados con anterioridad por nombre, uso de conjuntos de datos o parámetros. En cuanto a SageMaker Debugger está diseñada para mejorar la precisión de los modelos de machine learning. Por último, SageMaker Model Monitor se encarga de detectar variaciones en los conceptos.

Amazon S3 Access Points y AWS Inf1

Amazon también ha presentado S3 Access Points, un servicio de almacenamiento pensado, según Venture Beat, para simplificar todo lo posible la gestión de acceso para apps que utilizan servicios compartidos. S3 Access Points asegura el acceso a la nube privada virtual de Amazon, Amazon Virtual Private Cloud.

Es un servicio que soporta el aprovisionamiento de secciones aisladas lógicamente en la nube de AWS. Con Access Points, los clientes de AWS pueden asignar políticas de acceso distintas para cada aplicación, y proporcionar rutas personalizadas a áreas empaquetadas con hostnames y permisos definidos por los administradores.

Cada una de estas áreas puede tener varios puntos de acceso, y cada uno de estos puntos de acceso cuenta con su propia política de Gestión de identidad y acceso (IAM) de AWS. Además, dado que estos puntos de acceso tienen identificadores DNS únicos, es posible referirse a ellos con cualquier nombre que sea único en una cuenta y región de AWS concreta.

Amazon Web Services ha presentado también la instancia de inferencia Inf1, encargada de permitir la inferencia de Inteligencia Artificial y que el CEO de AWS, Andy Jassy, ha calificado como la oferta de inferencia  de menor coste del mercado. Jassy ha asegurado también que Inf1 tendrá «la menor latencia, un rendimiento tres veces mayor y un coste hasta un 40% menor por instancia si se compara con nuestra instancia G4, que se basa en un chip de Nvidia que hasta ahora era la instancia de inferencia de menor coste de la nube«.

Inf1 recibirá energía del chip Inferentia desarrollado por Annapurna Labs, una compañía israelí que AWS compró en 2015. Sus instancias, que se pueden integrar con PyTorch, MXNet y TensorFlow están ya disponibles de forma general, y lo estarán a través de instancias EKS y Amazon SageMaker para machine learning en 2020.

Acuerdo con Verizon y Wavelength

Amazon ha anunciado además que ha llegado a un acuerdo con Verizon para extender su nube a las redes 5G. Gracias a esto, los desarrolladores pueden ejecutar programas sensibles a la latencia en dispositivos móviles y conectados. Para ello utiliza otra de las novedades presentadas por AWS en re:Invent, AWS Wavelength, diseñada para que los desarrolladores puedan crear apps para dispositivos 5G con una latencia extremadamente baja.

En la actualidad, Wavelength está en fase de pruebas en Chicago. En ella están participando varios partners, y por ahora no hay más datos sobre las aplicaciones en desarrollo. Es posible que el streaming en directo y los juegos estén entre sus temas, que en el futuro podrían extenderse a los coches inteligentes, los dispositivos de Internet de las cosas y la realidad aumentada o virtual.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído