Connect with us

Noticias

Anuncio de la disponibilidad de Azure OpenAI Data Zones y las últimas actualizaciones de Azure AI

Published

on

Resumiendo las nuevas capacidades de este mes en toda la cartera de IA de Azure que brindan mayores opciones y flexibilidad para crear y escalar soluciones de IA.

Más de 60.000 clientes, incluidos AT&T, H&R Block, Volvo, Grammarly, Harvey, Leya y más, aprovechan Microsoft Azure AI para impulsar la transformación de la IA. Estamos entusiasmados de ver la creciente adopción de la IA en industrias y empresas grandes y pequeñas. Este blog resume las nuevas capacidades del portafolio de IA de Azure que brindan mayores opciones y flexibilidad para crear y escalar soluciones de IA. Las actualizaciones clave incluyen:

Zonas de datos de Azure OpenAI para Estados Unidos y la Unión Europea

Estamos encantados de anunciar Azure OpenAI Data Zones, una nueva opción de implementación que brinda a las empresas aún más flexibilidad y control sobre sus necesidades de residencia y privacidad de datos. Las zonas de datos, diseñadas para organizaciones en los Estados Unidos y la Unión Europea, permiten a los clientes procesar y almacenar sus datos dentro de límites geográficos específicos, lo que garantiza el cumplimiento de los requisitos regionales de residencia de datos y al mismo tiempo mantiene un rendimiento óptimo. Al abarcar múltiples regiones dentro de estas áreas, las zonas de datos ofrecen un equilibrio entre la rentabilidad de las implementaciones globales y el control de las implementaciones regionales, lo que facilita a las empresas la gestión de sus aplicaciones de IA sin sacrificar la seguridad o la velocidad.

Esta nueva característica simplifica la tarea, a menudo compleja, de administrar la residencia de datos al ofrecer una solución que permite un mayor rendimiento y un acceso más rápido a los últimos modelos de IA, incluida la innovación más reciente del servicio Azure OpenAI. Las empresas ahora pueden aprovechar la sólida infraestructura de Azure para escalar de forma segura sus soluciones de IA y al mismo tiempo cumplir con los estrictos requisitos de residencia de datos. Data Zones está disponible para Estándar (PayGo) y próximamente para Aprovisionado.

interfaz gráfica de usuario, aplicación

Actualizaciones del servicio Azure OpenAI

A principios de este mes, anunciamos la disponibilidad general de Azure OpenAI Batch API para implementaciones globales. Con Azure OpenAI Batch API, los desarrolladores pueden administrar tareas de procesamiento a gran escala y de gran volumen de manera más eficiente con cuotas separadas, un tiempo de respuesta de 24 horas y un costo un 50 % menor que Standard Global. Ontada, una entidad dentro de McKesson, ya está aprovechando Batch API para procesar un gran volumen de datos de pacientes en centros de oncología de Estados Unidos de manera eficiente y rentable.

”Ontada se encuentra en una posición única para brindar servicios a proveedores, pacientes y socios de ciencias biológicas con conocimientos basados ​​en datos. Aprovechamos la API Azure OpenAI Batch para procesar decenas de millones de documentos no estructurados de manera eficiente, mejorando nuestra capacidad de extraer información clínica valiosa. Lo que habría llevado meses procesar ahora tarda sólo una semana. Esto mejora significativamente la práctica de la medicina basada en evidencia y acelera la I+D de productos de ciencias biológicas. Al asociarnos con Microsoft, estamos avanzando en la investigación oncológica impulsada por la IA, con el objetivo de lograr avances en la atención personalizada del cáncer y el desarrollo de fármacos”. — Sagran Moodley, director de innovación y tecnología, Ontada

También habilitamos el almacenamiento en caché rápido para los modelos o1-preview, o1-mini, GPT-4o y GPT-4o-mini en el servicio Azure OpenAI. Con Prompt Caching, los desarrolladores pueden optimizar los costos y la latencia al reutilizar tokens de entrada vistos recientemente. Esta característica es particularmente útil para aplicaciones que usan el mismo contexto repetidamente, como la edición de código o largas conversaciones con chatbots. Prompt Caching ofrece un descuento del 50 % en tokens de entrada almacenados en caché en la oferta estándar y tiempos de procesamiento más rápidos.

Para la oferta de implementación global aprovisionada, estamos reduciendo la cantidad de implementación inicial para los modelos GPT-4o a 15 unidades de rendimiento aprovisionadas (PTU) con incrementos adicionales de 5 PTU. También estamos reduciendo el precio de Provisioned Global Hourly en un 50 % para ampliar el acceso al servicio Azure OpenAI. Obtenga más información aquí sobre la gestión de costos para implementaciones de IA.

Además, estamos introduciendo un acuerdo de nivel de servicio (SLA) de latencia del 99 % para la generación de tokens. Este SLA de latencia garantiza que los tokens se generen a velocidades más rápidas y consistentes, especialmente en grandes volúmenes.

Nuevos modelos y personalización.

Seguimos ampliando la elección de modelos con la incorporación de nuevos modelos al catálogo de modelos. Tenemos varios modelos nuevos disponibles este mes, incluidos modelos de la industria sanitaria y modelos de Mistral y Cohere. También anunciamos capacidades de personalización para la familia de modelos Phi-3.5.

  • Modelos de la industria de la salud, que comprenden modelos avanzados de imágenes médicas multimodales, incluidos MedImageInsight para análisis de imágenes, MedImageParse para segmentación de imágenes en modalidades de imágenes y CXRReportGen. que pueden generar informes estructurados detallados. Desarrollados en colaboración con Microsoft Research y socios de la industria, estos modelos están diseñados para que las organizaciones de atención médica los ajusten y personalicen para satisfacer necesidades específicas, reduciendo los requisitos computacionales y de datos que normalmente se necesitan para construir dichos modelos desde cero. Explore hoy en el catálogo de modelos de Azure AI.
  • Ministral 3B de Mistral AI: Ministral 3B representa un avance significativo en la categoría sub-10B, centrándose en el conocimiento, el razonamiento de sentido común, la llamada de funciones y la eficiencia. Con soporte para una longitud de contexto de hasta 128k, estos modelos están diseñados para una amplia gama de aplicaciones, desde la orquestación de flujos de trabajo agentes hasta el desarrollo de trabajadores de tareas especializados. Cuando se utiliza junto con modelos de lenguaje más grandes como Mistral Large, Ministral 3B puede servir como intermediario eficiente para la llamada de funciones en flujos de trabajo agentes de varios pasos.
  • Cohere Insertar 3: Embed 3, el modelo de búsqueda de IA de Cohere líder en la industria, ahora está disponible en el catálogo de modelos de IA de Azure, ¡y es multimodal! Con la capacidad de generar incrustaciones de texto e imágenes, Embed 3 ofrece un valor significativo para las empresas al permitirles buscar y analizar sus grandes cantidades de datos, sin importar el formato. Esta actualización posiciona a Embed 3 como el modelo de integración multimodal más potente y capaz del mercado, transformando la forma en que las empresas buscan en activos complejos como informes, catálogos de productos y archivos de diseño.
  • Ajuste de la disponibilidad general para la familia Phi 3.5, incluidos Phi-3.5-mini y Phi-3.5-MoE. Los modelos de la familia Phi son muy adecuados para la personalización con el fin de mejorar el rendimiento del modelo base en una variedad de escenarios, incluido el aprendizaje de una nueva habilidad o tarea o la mejora de la coherencia y la calidad de la respuesta. Dada su pequeña huella informática, así como su compatibilidad con la nube y el borde, los modelos Phi-3.5 ofrecen una alternativa rentable y sostenible en comparación con modelos del mismo tamaño o del siguiente tamaño. Ya estamos viendo la adopción de la familia Phi-3.5 para casos de uso que incluyen razonamiento de vanguardia, así como escenarios no conectados. Los desarrolladores pueden perfeccionar Phi-3.5-mini y Phi-3.5-MoE hoy a través del modelo como plataforma que ofrece y utiliza un punto final sin servidor.
interfaz gráfica de usuario

Desarrollo de aplicaciones de IA

Estamos construyendo Azure AI para que sea una plataforma modular abierta, de modo que los desarrolladores puedan pasar rápidamente de la idea al código y a la nube. Los desarrolladores ahora pueden explorar y acceder a los modelos de Azure AI directamente a través de GitHub Marketplace a través de la API de inferencia de modelos de Azure AI. Los desarrolladores pueden probar diferentes modelos y comparar el rendimiento de los modelos en el campo de juego de forma gratuita (se aplican límites de uso) y, cuando estén listos para personalizarlos e implementarlos, los desarrolladores pueden configurar e iniciar sesión sin problemas en su cuenta de Azure para escalar desde el uso gratuito de tokens hasta puntos finales pagos con nivel empresarial. seguridad y monitoreo sin cambiar nada más en el código.

También anunciamos plantillas de aplicaciones de IA para acelerar el desarrollo de aplicaciones de IA. Los desarrolladores pueden usar estas plantillas en GitHub Codespaces, VS Code y Visual Studio. Las plantillas ofrecen flexibilidad con varios modelos, marcos, lenguajes y soluciones de proveedores como Arize, LangChain, LlamaIndex y Pinecone. Los desarrolladores pueden implementar aplicaciones completas o comenzar con componentes, aprovisionando recursos en Azure y servicios de socios.

Nuestra misión es capacitar a todos los desarrolladores de todo el mundo para que construyan con IA. Con estas actualizaciones, los desarrolladores pueden comenzar rápidamente en su entorno preferido, elegir la opción de implementación que mejor se adapte a sus necesidades y escalar las soluciones de IA con confianza.

Nuevas funciones para crear aplicaciones de IA seguras y listas para la empresa

En Microsoft, nos centramos en ayudar a los clientes a utilizar y crear una IA que sea confiable, es decir, una IA que sea segura y privada. Hoy, me complace compartir dos nuevas capacidades para crear y escalar soluciones de IA con confianza.

El catálogo de modelos de Azure AI ofrece más de 1700 modelos para que los desarrolladores exploren, evalúen, personalicen e implementen. Si bien esta amplia selección potencia la innovación y la flexibilidad, también puede presentar desafíos importantes para las empresas que desean garantizar que todos los modelos implementados se alineen con sus políticas internas, estándares de seguridad y requisitos de cumplimiento. Ahora, los administradores de Azure AI pueden usar políticas de Azure para aprobar previamente modelos seleccionados para su implementación desde el catálogo de modelos de Azure AI, simplificando los procesos de gobernanza y selección de modelos. Esto incluye políticas prediseñadas para implementaciones de modelos como servicio (MaaS) y modelos como plataforma (MaaP), mientras que una guía detallada facilita la creación de políticas personalizadas para el servicio Azure OpenAI y otros servicios de IA. Juntas, estas políticas brindan cobertura completa para crear una lista de modelos permitidos y aplicarla en Azure Machine Learning y Azure AI Studio.

Para personalizar modelos y aplicaciones, es posible que los desarrolladores necesiten acceso a recursos ubicados localmente, o incluso a recursos que no son compatibles con puntos de conexión privados pero que aún se encuentran en su red virtual de Azure (VNET) personalizada. Application Gateway es un equilibrador de carga que toma decisiones de enrutamiento en función de la URL de una solicitud HTTPS. Application Gateway admitirá una conexión privada desde la VNET administrada a cualquier recurso mediante el protocolo HTTP o HTTP. Hoy en día, se ha verificado que admite una conexión privada a Jfrog Artifactory, Snowflake Database y API privadas. Con Application Gateway en Azure Machine Learning y Azure AI Studio, ahora disponibles en versión preliminar pública, los desarrolladores pueden acceder a recursos VNET locales o personalizados para sus escenarios de capacitación, ajuste e inferencia sin comprometer su postura de seguridad.

Comience hoy con Azure AI

Han sido seis meses increíbles aquí en Azure AI, brindando innovación en IA de última generación, viendo a los desarrolladores crear experiencias transformadoras utilizando nuestras herramientas y aprendiendo de nuestros clientes y socios. Estoy emocionado por lo que viene después. Únase a nosotros en Microsoft Ignite 2024 para conocer las últimas novedades de Azure AI.

Recursos adicionales:

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Qué proveedor de IA debería elegir? Aquí están los 7 primeros (OpenAI sigue liderando)

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Los proveedores están implementando nuevas herramientas de inteligencia artificial generativa todos los días en un mercado que se ha comparado con el Salvaje Oeste. Pero debido a que la tecnología es tan nueva y está en constante evolución, puede resultar extremadamente confusa, y los proveedores de plataformas a veces hacen promesas especulativas.

La firma de TI GAI Insights espera brindar cierta claridad a los tomadores de decisiones empresariales con el lanzamiento de la primera guía del comprador conocida sobre modelos de lenguajes grandes (LLM) y generación de IA. Revisó a más de dos docenas de proveedores e identificó siete líderes emergentes (OpenAI está muy por delante del resto). Además, los modelos propietarios, de código abierto y pequeños tendrán una gran demanda en 2025, a medida que la alta dirección priorice el gasto en IA.

“Estamos viendo una migración real de la concientización a la experimentación temprana para impulsar realmente los sistemas a la producción”, dijo a VentureBeat Paul Baier, director ejecutivo y cofundador de GAI Insights. “Esto está explotando, la IA está transformando toda la pila de TI empresarial”.

7 líderes emergentes

GAI Insights, que aspira a ser el “Gartner de la IA de generación”, revisó a 29 proveedores en casos de uso comunes de IA de generación empresarial, como servicio al cliente, soporte de ventas, marketing y cadenas de suministro. Descubrieron que OpenAI sigue firmemente a la cabeza, acaparando el 65% de la cuota de mercado.

La firma señala que la startup tiene asociaciones con multitud de proveedores de contenidos y chips (incluido Broadcom, con quien está desarrollando chips). “Obviamente son los primeros, ellos definieron la categoría”, dijo Baier. Sin embargo, señaló, la industria se está “dividiendo en subcategorías”.

Los otros seis proveedores que GAI Insights identificó como líderes emergentes (en orden alfabético):

  • Amazon (Titan, Bedrock): tiene un enfoque neutral respecto a los proveedores y es una “ventanilla única” para la implementación. También ofrece una infraestructura de IA personalizada en forma de chips de IA especializados como Trainium e Inferentia.
  • Anthropic (Sonnet, Haiku, Opus): es un competidor “formidable” de OpenAI, con modelos que cuentan con largas ventanas de contexto y funcionan bien en tareas de codificación. La compañía también tiene un fuerte enfoque en la seguridad de la IA y este año ha lanzado múltiples herramientas para uso empresarial junto con artefactos, uso de computadoras y recuperación contextual.
  • Cohere (Command R): ofrece modelos centrados en la empresa y capacidades multilingües, así como implementaciones locales y de nube privada. Sus modelos Embed y Rerank pueden mejorar la búsqueda y recuperación con generación aumentada de recuperación (RAG), lo cual es importante para las empresas que buscan trabajar con datos internos.
  • CustomGPT: tiene una oferta sin código y sus modelos presentan alta precisión y bajas tasas de alucinaciones. También tiene funciones empresariales como Sign-On y OAuth y proporciona análisis e información sobre cómo los empleados y clientes utilizan las herramientas.
  • Meta (Llama): Presenta modelos “mejores en su clase” que van desde pequeños y especializados hasta de vanguardia. Su serie Meta’s Llama 3, con 405 mil millones de parámetros, rivaliza con GPT-4o y Claude 3.5 Sonnet en tareas complejas como razonamiento, matemáticas, procesamiento multilingüe y comprensión de contexto prolongado.
  • Microsoft (Azure, Phi-3): adopta un enfoque dual: aprovecha las herramientas existentes de OpenAI mientras invierte en plataformas patentadas. La compañía también está reduciendo la dependencia de los chips mediante el desarrollo de los suyos propios, incluidos Maia 100 y Cobalt 100.

Algunos otros proveedores evaluados por GAI Insights incluyen SambaNova, IBM, Deepset, Glean, LangChain, LlamaIndex y Mistral AI.

Los proveedores fueron calificados en función de una variedad de factores, incluida la innovación de productos y servicios; claridad del producto y servicio y beneficios y características; trayectoria en el lanzamiento de productos y asociaciones; compradores objetivo definidos; calidad de los equipos técnicos y experiencia del equipo directivo; relaciones estratégicas y calidad de los inversionistas; dinero recaudado; y valoración.

Mientras tanto, Nvidia sigue dominando, con el 85% de la cuota de mercado. La empresa seguirá ofreciendo productos en todos los niveles de hardware y software, e innovará y crecerá en 2025 a un ritmo “vertiginoso”.

Si bien el mercado de la IA de generación aún se encuentra en sus primeras etapas (solo el 5% de las empresas tienen aplicaciones en producción), en 2025 se verá un crecimiento masivo, con el 33% de las empresas impulsando modelos a producción, proyecta GAI Insights. La IA de generación es la principal prioridad presupuestaria para los CIO y CTO en medio de una caída de 240 veces en los últimos 18 meses en el costo del cálculo de la IA.

Curiosamente, el 90% de las implementaciones actuales utilizan LLM propietarios (en comparación con el código abierto), una tendencia que la empresa denomina “Sea dueño de su propia inteligencia”. Esto se debe a la necesidad de una mayor privacidad de los datos, control y cumplimiento normativo. Los principales casos de uso de la IA de generación incluyen atención al cliente, codificación, resúmenes, generación de texto y gestión de contratos.

Pero en última instancia, señaló Baier, “en este momento hay una explosión en casi cualquier caso de uso”.

Señaló que se estima que el 90% de los datos no están estructurados y se encuentran en correos electrónicos, archivos PDF, vídeos y otras plataformas y se maravilló de que “la generación de IA nos permite hablar con las máquinas, nos permite desbloquear el valor de los datos no estructurados. Nunca antes habíamos podido hacer eso de forma rentable. Ahora podemos. Actualmente se está produciendo una impresionante revolución de TI”.

En 2025 también surgirá un mayor número de modelos de lenguaje pequeño (SLM) específicos de verticales, y también habrá demanda de modelos de código abierto (aunque su definición sea polémica). También habrá un mejor rendimiento con modelos aún más pequeños como Gemma (parámetros 2B a 7B), Phi-3 (parámetros 3,8 B a 7B) y Llama 3.2 (1B y 3B). GAI Insights señala que los modelos pequeños son rentables y seguros, y que ha habido desarrollos clave en la tokenización a nivel de bytes, la poda de peso y la destilación de conocimientos que están minimizando el tamaño y aumentando el rendimiento.

Además, se espera que la asistencia de voz sea la “interfaz principal” en 2025, ya que ofrece experiencias más personalizadas y se espera que la IA en el dispositivo experimente un impulso significativo. “Veremos un verdadero auge el próximo año cuando los teléfonos inteligentes comiencen a distribuirse con chips de inteligencia artificial integrados”, dijo Baier.

¿Veremos realmente agentes de IA en 2025?

Si bien los agentes de IA son todo el tema de conversación en las empresas en este momento, queda por ver qué tan viables serán en el próximo año. Hay muchos obstáculos que superar, señaló Baier, como la propagación no regulada, la IA agente que toma decisiones “poco confiables o cuestionables” y opera con datos de mala calidad.

Los agentes de IA aún no se han definido completamente, dijo, y los que se están implementando en este momento se limitan principalmente a aplicaciones internas y implementaciones a pequeña escala. “Vemos todo el revuelo en torno a los agentes de IA, pero pasarán años antes de que se adopten de manera generalizada en las empresas”, dijo Baier. “Son muy prometedores, pero no prometedores el año que viene”.

Factores a considerar al implementar IA de generación

Con el mercado tan saturado y las herramientas tan variadas, Baier ofreció algunos consejos críticos para que las empresas comenzaran. En primer lugar, tenga cuidado con la dependencia de los proveedores y acepte la realidad de que la pila de TI empresarial seguirá cambiando drásticamente durante los próximos 15 años.

Dado que las iniciativas de IA deben provenir de arriba, Baier sugiere que la alta dirección realice una revisión en profundidad con la junta directiva para explorar oportunidades, amenazas y prioridades. El director ejecutivo y los vicepresidentes también deben tener experiencia práctica (al menos tres horas para comenzar). Antes de implementarlo, considere realizar una prueba piloto de chatbot sin riesgo utilizando datos públicos para respaldar el aprendizaje práctico y experimentar con IA en el dispositivo para operaciones de campo.

Las empresas también deberían designar un ejecutivo para supervisar la integración, desarrollar un centro de excelencia y coordinar proyectos, aconseja Baier. Es igualmente importante implementar políticas y capacitación sobre el uso de IA genérica. Para respaldar la adopción, publique una política de uso, realice capacitación básica e identifique qué herramientas están aprobadas y qué información no debe ingresarse.

En definitiva, “no prohíban ChatGPT; sus empleados ya lo están utilizando”, afirma GAI.

Continue Reading

Noticias

7 mensajes de ChatGPT que estoy usando para mejorar mis regalos: aquí te explico cómo probarlos

Published

on

Cuando se trata de encontrar el regalo perfecto para mis seres queridos, sin importar cuál sea el trato, generalmente me encuentro en algún punto entre saber exactamente qué comprar y no tener la menor idea de por dónde empezar, incluso en Amazon. La verdad es que es más fácil comprar para algunas personas que para otras.

Por eso, este año he decidido abordar la entrega de regalos de forma diferente. Estoy reclutando a ChatGPT como mi compañero de lluvia de ideas. Después de todo, he usado un chatbot para ayudarme con otras vacaciones, ¿por qué no usarlo esta vez como mi elfo secreto?

Con las indicaciones adecuadas, convertí el proceso de selección de regalos en una colaboración creativa, aprovechando la IA para generar ideas de regalos bien pensadas, personalizadas y, a menudo, inesperadas. Aquí están las siete sugerencias de ChatGPT que he estado usando para mejorar mi juego de dar regalos y cómo han transformado la forma en que compro para las personas que me importan.

1. “¿Cuáles son las ideas de regalos únicas para alguien que ama [insert interest]?”

(Crédito de la imagen: futuro)

No importa quién sea la persona, este mensaje es mi punto de partida. Al especificar el interés del destinatario (ya sean deportes, manualidades o cuidado del césped), ChatGPT genera una lista de ideas que van más allá de lo obvio. ¡Déjame decirte que las ideas para regalos no decepcionan!

Por ejemplo, cuando pedí regalos para mi mamá, a quien le encanta hacer colchas, ChatGPT sugirió tantas ideas que nunca hubiera pensado en incluir una luz LED, un software de diseño o incluso entradas para un museo textil.

Estas ideas eran mucho más creativas que la tarjeta de regalo estándar que de otro modo habría elegido. ChatGPT puede ser un robot sin emociones, pero ciertamente hace un gran trabajo al agregar un toque de personalización al proceso de entrega de regalos.

2. “¿Qué regalo puedo dar que solucione [specific problem]?”

(Crédito de la imagen: futuro)

Si alguna vez quisiste hacer un regalo práctico sin ser aburrido, este mensaje cambiará las reglas del juego. Por ejemplo, cuando le conté a ChatGPT que mis hijos pasaban demasiado tiempo frente a la pantalla, me recomendó muchas opciones creativas para sacarlos al aire libre, incluido un scooter eléctrico e incluso binoculares.

A veces, con todas las ofertas e ideas a cada paso, es difícil saber qué comprar exactamente. Recurrir a ChatGPT para obtener obsequios que resuelvan un problema puede marcar la diferencia. ChatGPT tiene infinitas formas de buscar, lo que lo convierte en un punto de inflexión para aquellos de nosotros atrapados en el ajetreo de las vacaciones.

En este caso, sacar a los niños afuera es más bien un regalo para mí, pero en la mayoría de los casos, dar un regalo que resuelve un problema real para alguien demuestra que has estado prestando atención y que siempre eres apreciado.

3. “¿En qué ideas de regalos se inspiran?” [specific memory or shared experience]?”

(Crédito de la imagen: futuro)

Este mensaje me ayuda a aprovechar el lado emocional de dar regalos al conectar el presente con un momento especial. Cuando mencioné un viaje que mi hermana y yo hicimos a París, ChatGPT sugirió un mapa enmarcado de la ciudad, utensilios de cocina para repostería francesa, que también inspiraron la idea de una nueva cafetera.

Recurrir a ChatGPT en realidad generó otras ideas, como álbumes de recortes, accesorios de moda y un diario para usar en nuestro próximo viaje. Estas ideas convirtieron el regalo en más que un objeto, se convirtió en un símbolo de nuestro vínculo, que es sumamente especial.

4. “¿Cuáles son algunas ideas de regalos asequibles pero significativas para [relation or age group]?”

(Crédito de la imagen: futuro)

Seamos realistas: los presupuestos importan. Este mensaje ha sido invaluable para encontrar obsequios bien pensados ​​que no cuesten mucho dinero. Tengo sobrinas trillizas idénticas que ahora son preadolescentes y rápidamente se vuelven más individuales que nunca. Cada uno tiene su propio gusto y personalidad personal a pesar de verse exactamente iguales.

Cuando les pedí ideas de regalos asequibles, ChatGPT sugirió una combinación de diversión y originalidad, creativa y personal, incluido un rompecabezas personalizado y kits de aventuras de bricolaje. Me encantó la idea de los kits de aventuras de bricolaje empaquetados en una caja decorativa, que parecía profundamente personal pero costaba muy poco.

Este mensaje es especialmente bueno para familiares o conocidos cuando mantenerse dentro del presupuesto es una prioridad absoluta. Lo probé con profesores, conductores de autobuses y entrenadores y obtuve resultados igualmente inspiradores.

5. “¿Cuál es una forma creativa de empaquetar un regalo para alguien que ama?” [theme or hobby]?”

(Crédito de la imagen: futuro)

La presentación importa y este mensaje ha hecho que incluso los obsequios más simples parezcan extraordinarios. ChatGPT sugirió una vez envolver un libro de cocina en un paño de cocina a cuadros y atarlo con cordel para un amigo al que le encanta cocinar.

Continue Reading

Noticias

Hoja de datos: límites sociales australianos, Musk vs. OpenAI y Canadá vs. Google

Published

on

Buen día. Si estás leyendo esto desde el Reino Unido, es más probable que seas un usuario de Reddit que un usuario de X.

Esto es según el regulador de medios británico Ofcom, cuya última encuesta muestra que Reddit es la gran plataforma de redes sociales de más rápido crecimiento en el país, actualmente utilizada por la mayoría de los adultos en línea en el Reino Unido. X, mientras tanto, ha estado perdiendo británicos durante un par de años.

Otros hallazgos incluyen que ChatGPT fue utilizado por un tercio de los usuarios de Internet del Reino Unido al menos una vez durante el último año… y un miserable 18% de los mayores de 16 años creen que la producción de IA generativa es confiable. —David Meyer

¿Quiere enviar ideas o sugerencias a la hoja de datos? Deja una línea aquí.

Indignación por las restricciones de las redes sociales en Australia

Foto de Matt Cardy/Getty Images

La semana pasada, los legisladores australianos tomaron la drástica medida de prohibir (a partir de finales del próximo año) todo uso de redes sociales por parte de menores de 16 años, al diablo con el consentimiento de los padres.

El proceso legislativo, que supuestamente fue el resultado de la lectura por parte de la esposa de un político del bestseller de Jonathan Haidt. La generación ansiosatomó toda una semana. Como era de esperar, las empresas de redes sociales están realmente descontentas con cómo resultó todo esto.

Un portavoz de Meta señaló que el Parlamento australiano había admitido una falta de vínculos claros y demostrables entre las redes sociales y los impactos negativos en la salud mental de los niños, y agregó: “Esto demuestra la falta de evidencia que respalde la legislación y sugiere que se trataba de un proceso predeterminado. “

TikTok y Snap están igualmente molestos, y una de sus grandes preocupaciones es el hecho de que nadie sabe cómo se supone que se aplicará esta nueva ley cuando entre en vigor.

Incluso con leyes más suaves que permiten el acceso con el consentimiento de los padres, la experiencia ha demostrado que la aplicación de la ley es el gran problema: es complicado conseguir un mecanismo que funcione y al mismo tiempo respete la privacidad y otros derechos.

Musk apunta a la transformación de OpenAI

Elon Musk ha pedido a un tribunal de distrito de California que impida que OpenAI haga un montón de cosas que no le gustan.

El magnate, que cofundó OpenAI hace nueve años antes de marcharse después de perder una lucha de poder con el director ejecutivo Sam Altman, afirma que el líder de la IA está disuadiendo a los inversores de respaldar a rivales como su propio xAI.

También alega que OpenAI “obtuvo indebidamente información competitivamente sensible” a través de sus conexiones con Microsoft, y quiere que el tribunal impida a OpenAI hacer negocios con empresas en las que los demandados tienen intereses financieros materiales.

Esos acusados ​​incluyen a Altman y al presidente Greg Brockman, así como al miembro de la junta directiva de Microsoft, Reid Hoffman, y a la vicepresidenta de Microsoft, Dee Templeton, así como a la propia Microsoft.

Fundamentalmente, Musk quiere que el tribunal detenga la conversión de OpenAI de una organización sin fines de lucro a una con fines de lucro.

El jefe de Tesla demandó a OpenAI y Altman a principios de este año por haber abandonado el estatus de organización sin fines de lucro de la empresa, pero retiró la demanda en junio. Ahora ha vuelto, en forma ampliada.

Canadá va por la yugular de Google

La autoridad antimonopolio canadiense ha demandado a Google para “poner fin decisivo” a lo que afirma son las prácticas anticompetitivas de la empresa en la publicidad en línea, que todavía representa la mayoría de los ingresos de la empresa matriz Alphabet.

“A través de una serie de decisiones calculadas, tomadas a lo largo de varios años, Google ha excluido a sus competidores y se ha afianzado en el centro de la publicidad online”, dijo la Oficina de Competencia.

El organismo de control quiere que Google se deshaga de su intercambio de anuncios AdX y del servidor de anuncios DFP, además de una multa de hasta el 3% de los ingresos globales (es decir, poco más de 9 mil millones de dólares, según el año fiscal 2023).

El vicepresidente de publicidad de Google, Dan Taylor, respondió insistiendo en que la denuncia “ignora la intensa competencia en la que los compradores y vendedores de publicidad tienen muchas opciones”. La empresa tiene ahora un mes y medio para presentar su respuesta oficial.

Nuevos modelos de IA

Según se informa, Amazon ha desarrollado un nuevo modelo multimodal de lenguaje grande, es decir, que puede manejar imágenes y vídeos además de texto.

Según The Information, el modelo de IA “Olympus” ayudará a Amazon a evitar una dependencia excesiva de Anthropic, el rival de OpenAI al que ha estado financiando en gran medida.

Y con Amazon celebrando su conferencia anual re:Invent AWS durante esta semana, Olympus podría debutar de forma inminente.

Mientras tanto, el equipo Qwen AI de Alibaba de China ha producido un nuevo modelo de “razonamiento” que competirá con el modelo o1 de OpenAI.

El equipo afirma que QwQ-32B-Preview supera a o1 en algunos puntos de referencia, aunque también notan ciertos malos hábitos, como que el modelo cambia repentinamente de idioma sin ningún motivo. Al ser chino, también evita temas políticos delicados como la masacre de la Plaza de Tiananmen.

Plan de cable de Meta

Meta quiere envolver al mundo entero con un nuevo cable submarino de fibra óptica, informa TechCrunch.

Lo particularmente novedoso de este plan es que Meta sería el único propietario y único usuario del canal de datos.

El presupuesto inicial para el proyecto, que el propietario de Facebook e Instagram aparentemente anunciará el próximo año, sería de 2 mil millones de dólares, siendo 10 mil millones de dólares el costo más probable una vez que todo esté dicho y hecho.

El autor sudafricano de Data Sheet hoy está encantado de observar que el proyecto aparentemente está siendo liderado por la operación de Meta en ese país, que albergaría dos puntos de interconexión, al igual que India.

Estados Unidos obtendría dos en cada costa. Australia acaba de conseguir uno.

Más datos

El acuerdo de subsidio de 7.860 millones de dólares de Intel restringe la venta de su unidad de fabricación. Se pusieron condiciones.

El organismo de control italiano advierte al editor GEDI que no comparta datos con OpenAI. Las reglas de privacidad son el punto conflictivo.

Los empleados de Amazon están “aplicando ira” a medida que se avecina su mandato de regreso a la oficina; los expertos dicen que eso es exactamente lo que quiere el CEO Andy Jassy. ¿Es una estratagema furtiva de despidos?

Es posible que aviones totalmente autónomos vuelen cerca de usted, y eso no es nada bueno. Su capitán está hablando.

El fundador de TSMC, Morris Chang, le ofreció el puesto más alto a Jensen Huang, según muestran sus memorias. “Ya tengo un trabajo”, dijo el director ejecutivo de Nvidia.

Esta es la versión web de Data Sheet, un boletín diario sobre el negocio de la tecnología. Regístrese para recibirlo gratis en su bandeja de entrada.
Continue Reading

Trending