Noticias

Anuncio de la disponibilidad de Azure OpenAI Data Zones y las últimas actualizaciones de Azure AI

Published

on

Resumiendo las nuevas capacidades de este mes en toda la cartera de IA de Azure que brindan mayores opciones y flexibilidad para crear y escalar soluciones de IA.

Más de 60.000 clientes, incluidos AT&T, H&R Block, Volvo, Grammarly, Harvey, Leya y más, aprovechan Microsoft Azure AI para impulsar la transformación de la IA. Estamos entusiasmados de ver la creciente adopción de la IA en industrias y empresas grandes y pequeñas. Este blog resume las nuevas capacidades del portafolio de IA de Azure que brindan mayores opciones y flexibilidad para crear y escalar soluciones de IA. Las actualizaciones clave incluyen:

Zonas de datos de Azure OpenAI para Estados Unidos y la Unión Europea

Estamos encantados de anunciar Azure OpenAI Data Zones, una nueva opción de implementación que brinda a las empresas aún más flexibilidad y control sobre sus necesidades de residencia y privacidad de datos. Las zonas de datos, diseñadas para organizaciones en los Estados Unidos y la Unión Europea, permiten a los clientes procesar y almacenar sus datos dentro de límites geográficos específicos, lo que garantiza el cumplimiento de los requisitos regionales de residencia de datos y al mismo tiempo mantiene un rendimiento óptimo. Al abarcar múltiples regiones dentro de estas áreas, las zonas de datos ofrecen un equilibrio entre la rentabilidad de las implementaciones globales y el control de las implementaciones regionales, lo que facilita a las empresas la gestión de sus aplicaciones de IA sin sacrificar la seguridad o la velocidad.

Esta nueva característica simplifica la tarea, a menudo compleja, de administrar la residencia de datos al ofrecer una solución que permite un mayor rendimiento y un acceso más rápido a los últimos modelos de IA, incluida la innovación más reciente del servicio Azure OpenAI. Las empresas ahora pueden aprovechar la sólida infraestructura de Azure para escalar de forma segura sus soluciones de IA y al mismo tiempo cumplir con los estrictos requisitos de residencia de datos. Data Zones está disponible para Estándar (PayGo) y próximamente para Aprovisionado.

Actualizaciones del servicio Azure OpenAI

A principios de este mes, anunciamos la disponibilidad general de Azure OpenAI Batch API para implementaciones globales. Con Azure OpenAI Batch API, los desarrolladores pueden administrar tareas de procesamiento a gran escala y de gran volumen de manera más eficiente con cuotas separadas, un tiempo de respuesta de 24 horas y un costo un 50 % menor que Standard Global. Ontada, una entidad dentro de McKesson, ya está aprovechando Batch API para procesar un gran volumen de datos de pacientes en centros de oncología de Estados Unidos de manera eficiente y rentable.

”Ontada se encuentra en una posición única para brindar servicios a proveedores, pacientes y socios de ciencias biológicas con conocimientos basados ​​en datos. Aprovechamos la API Azure OpenAI Batch para procesar decenas de millones de documentos no estructurados de manera eficiente, mejorando nuestra capacidad de extraer información clínica valiosa. Lo que habría llevado meses procesar ahora tarda sólo una semana. Esto mejora significativamente la práctica de la medicina basada en evidencia y acelera la I+D de productos de ciencias biológicas. Al asociarnos con Microsoft, estamos avanzando en la investigación oncológica impulsada por la IA, con el objetivo de lograr avances en la atención personalizada del cáncer y el desarrollo de fármacos”. — Sagran Moodley, director de innovación y tecnología, Ontada

También habilitamos el almacenamiento en caché rápido para los modelos o1-preview, o1-mini, GPT-4o y GPT-4o-mini en el servicio Azure OpenAI. Con Prompt Caching, los desarrolladores pueden optimizar los costos y la latencia al reutilizar tokens de entrada vistos recientemente. Esta característica es particularmente útil para aplicaciones que usan el mismo contexto repetidamente, como la edición de código o largas conversaciones con chatbots. Prompt Caching ofrece un descuento del 50 % en tokens de entrada almacenados en caché en la oferta estándar y tiempos de procesamiento más rápidos.

Para la oferta de implementación global aprovisionada, estamos reduciendo la cantidad de implementación inicial para los modelos GPT-4o a 15 unidades de rendimiento aprovisionadas (PTU) con incrementos adicionales de 5 PTU. También estamos reduciendo el precio de Provisioned Global Hourly en un 50 % para ampliar el acceso al servicio Azure OpenAI. Obtenga más información aquí sobre la gestión de costos para implementaciones de IA.

Además, estamos introduciendo un acuerdo de nivel de servicio (SLA) de latencia del 99 % para la generación de tokens. Este SLA de latencia garantiza que los tokens se generen a velocidades más rápidas y consistentes, especialmente en grandes volúmenes.

Nuevos modelos y personalización.

Seguimos ampliando la elección de modelos con la incorporación de nuevos modelos al catálogo de modelos. Tenemos varios modelos nuevos disponibles este mes, incluidos modelos de la industria sanitaria y modelos de Mistral y Cohere. También anunciamos capacidades de personalización para la familia de modelos Phi-3.5.

  • Modelos de la industria de la salud, que comprenden modelos avanzados de imágenes médicas multimodales, incluidos MedImageInsight para análisis de imágenes, MedImageParse para segmentación de imágenes en modalidades de imágenes y CXRReportGen. que pueden generar informes estructurados detallados. Desarrollados en colaboración con Microsoft Research y socios de la industria, estos modelos están diseñados para que las organizaciones de atención médica los ajusten y personalicen para satisfacer necesidades específicas, reduciendo los requisitos computacionales y de datos que normalmente se necesitan para construir dichos modelos desde cero. Explore hoy en el catálogo de modelos de Azure AI.
  • Ministral 3B de Mistral AI: Ministral 3B representa un avance significativo en la categoría sub-10B, centrándose en el conocimiento, el razonamiento de sentido común, la llamada de funciones y la eficiencia. Con soporte para una longitud de contexto de hasta 128k, estos modelos están diseñados para una amplia gama de aplicaciones, desde la orquestación de flujos de trabajo agentes hasta el desarrollo de trabajadores de tareas especializados. Cuando se utiliza junto con modelos de lenguaje más grandes como Mistral Large, Ministral 3B puede servir como intermediario eficiente para la llamada de funciones en flujos de trabajo agentes de varios pasos.
  • Cohere Insertar 3: Embed 3, el modelo de búsqueda de IA de Cohere líder en la industria, ahora está disponible en el catálogo de modelos de IA de Azure, ¡y es multimodal! Con la capacidad de generar incrustaciones de texto e imágenes, Embed 3 ofrece un valor significativo para las empresas al permitirles buscar y analizar sus grandes cantidades de datos, sin importar el formato. Esta actualización posiciona a Embed 3 como el modelo de integración multimodal más potente y capaz del mercado, transformando la forma en que las empresas buscan en activos complejos como informes, catálogos de productos y archivos de diseño.
  • Ajuste de la disponibilidad general para la familia Phi 3.5, incluidos Phi-3.5-mini y Phi-3.5-MoE. Los modelos de la familia Phi son muy adecuados para la personalización con el fin de mejorar el rendimiento del modelo base en una variedad de escenarios, incluido el aprendizaje de una nueva habilidad o tarea o la mejora de la coherencia y la calidad de la respuesta. Dada su pequeña huella informática, así como su compatibilidad con la nube y el borde, los modelos Phi-3.5 ofrecen una alternativa rentable y sostenible en comparación con modelos del mismo tamaño o del siguiente tamaño. Ya estamos viendo la adopción de la familia Phi-3.5 para casos de uso que incluyen razonamiento de vanguardia, así como escenarios no conectados. Los desarrolladores pueden perfeccionar Phi-3.5-mini y Phi-3.5-MoE hoy a través del modelo como plataforma que ofrece y utiliza un punto final sin servidor.

Desarrollo de aplicaciones de IA

Estamos construyendo Azure AI para que sea una plataforma modular abierta, de modo que los desarrolladores puedan pasar rápidamente de la idea al código y a la nube. Los desarrolladores ahora pueden explorar y acceder a los modelos de Azure AI directamente a través de GitHub Marketplace a través de la API de inferencia de modelos de Azure AI. Los desarrolladores pueden probar diferentes modelos y comparar el rendimiento de los modelos en el campo de juego de forma gratuita (se aplican límites de uso) y, cuando estén listos para personalizarlos e implementarlos, los desarrolladores pueden configurar e iniciar sesión sin problemas en su cuenta de Azure para escalar desde el uso gratuito de tokens hasta puntos finales pagos con nivel empresarial. seguridad y monitoreo sin cambiar nada más en el código.

También anunciamos plantillas de aplicaciones de IA para acelerar el desarrollo de aplicaciones de IA. Los desarrolladores pueden usar estas plantillas en GitHub Codespaces, VS Code y Visual Studio. Las plantillas ofrecen flexibilidad con varios modelos, marcos, lenguajes y soluciones de proveedores como Arize, LangChain, LlamaIndex y Pinecone. Los desarrolladores pueden implementar aplicaciones completas o comenzar con componentes, aprovisionando recursos en Azure y servicios de socios.

Nuestra misión es capacitar a todos los desarrolladores de todo el mundo para que construyan con IA. Con estas actualizaciones, los desarrolladores pueden comenzar rápidamente en su entorno preferido, elegir la opción de implementación que mejor se adapte a sus necesidades y escalar las soluciones de IA con confianza.

Nuevas funciones para crear aplicaciones de IA seguras y listas para la empresa

En Microsoft, nos centramos en ayudar a los clientes a utilizar y crear una IA que sea confiable, es decir, una IA que sea segura y privada. Hoy, me complace compartir dos nuevas capacidades para crear y escalar soluciones de IA con confianza.

El catálogo de modelos de Azure AI ofrece más de 1700 modelos para que los desarrolladores exploren, evalúen, personalicen e implementen. Si bien esta amplia selección potencia la innovación y la flexibilidad, también puede presentar desafíos importantes para las empresas que desean garantizar que todos los modelos implementados se alineen con sus políticas internas, estándares de seguridad y requisitos de cumplimiento. Ahora, los administradores de Azure AI pueden usar políticas de Azure para aprobar previamente modelos seleccionados para su implementación desde el catálogo de modelos de Azure AI, simplificando los procesos de gobernanza y selección de modelos. Esto incluye políticas prediseñadas para implementaciones de modelos como servicio (MaaS) y modelos como plataforma (MaaP), mientras que una guía detallada facilita la creación de políticas personalizadas para el servicio Azure OpenAI y otros servicios de IA. Juntas, estas políticas brindan cobertura completa para crear una lista de modelos permitidos y aplicarla en Azure Machine Learning y Azure AI Studio.

Para personalizar modelos y aplicaciones, es posible que los desarrolladores necesiten acceso a recursos ubicados localmente, o incluso a recursos que no son compatibles con puntos de conexión privados pero que aún se encuentran en su red virtual de Azure (VNET) personalizada. Application Gateway es un equilibrador de carga que toma decisiones de enrutamiento en función de la URL de una solicitud HTTPS. Application Gateway admitirá una conexión privada desde la VNET administrada a cualquier recurso mediante el protocolo HTTP o HTTP. Hoy en día, se ha verificado que admite una conexión privada a Jfrog Artifactory, Snowflake Database y API privadas. Con Application Gateway en Azure Machine Learning y Azure AI Studio, ahora disponibles en versión preliminar pública, los desarrolladores pueden acceder a recursos VNET locales o personalizados para sus escenarios de capacitación, ajuste e inferencia sin comprometer su postura de seguridad.

Comience hoy con Azure AI

Han sido seis meses increíbles aquí en Azure AI, brindando innovación en IA de última generación, viendo a los desarrolladores crear experiencias transformadoras utilizando nuestras herramientas y aprendiendo de nuestros clientes y socios. Estoy emocionado por lo que viene después. Únase a nosotros en Microsoft Ignite 2024 para conocer las últimas novedades de Azure AI.

Recursos adicionales:

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version