Connect with us

Noticias

El científico de OpenAI, Noam Brown, sorprende en la conferencia TED AI: ’20 segundos de pensamiento valen 100.000 veces más datos’

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Noam Brown, un destacado científico investigador de OpenAI, subió al escenario de la conferencia TED AI en San Francisco el martes para pronunciar un poderoso discurso sobre el futuro de la inteligencia artificial, con especial atención al nuevo modelo o1 de OpenAI y su potencial para transformar industrias. a través del razonamiento estratégico, codificación avanzada e investigación científica. Brown, quien anteriormente impulsó avances en sistemas de inteligencia artificial como libratola IA que juega al póquer y CICERONque dominó el juego de la diplomacia, ahora imagina un futuro en el que la IA no sea solo una herramienta, sino un motor central de innovación y toma de decisiones en todos los sectores.

“El increíble progreso en IA durante los últimos cinco años se puede resumir en una palabra: escala”, comenzó Brown, dirigiéndose a una audiencia cautivada de desarrolladores, inversores y líderes de la industria. “Sí, ha habido avances en el enlace ascendente, pero los modelos de vanguardia de hoy todavía se basan en la misma arquitectura de transformador que se introdujo en 2017. La principal diferencia es la escala de los datos y la computación que se incluye en ellos”.

Brown, una figura central en los esfuerzos de investigación de OpenAI, se apresuró a enfatizar que si bien los modelos de escala han sido un factor crítico en el progreso de la IA, es hora de un cambio de paradigma. Señaló la necesidad de que la IA vaya más allá del mero procesamiento de datos y adopte lo que denominó “pensamiento del sistema dos”, una forma de razonamiento más lenta y deliberada que refleja cómo los humanos abordan problemas complejos.

La psicología detrás del próximo gran salto de la IA: comprender el pensamiento del sistema dos

Para subrayar este punto, Brown compartió una historia de sus días de doctorado cuando trabajaba en libratola IA del juego de póquer que derrotó a los mejores jugadores humanos en 2017.

“Resultó que hacer que un robot pensara durante sólo 20 segundos en una mano de póquer conseguía el mismo rendimiento que ampliar el modelo 100.000 veces y entrenarlo 100.000 veces más”, dijo Brown. “Cuando obtuve este resultado, literalmente pensé que esto lo había roto todo. Durante los primeros tres años de mi doctorado, logré ampliar estos modelos 100 veces. Estaba orgulloso de ese trabajo. Había escrito varios artículos sobre cómo hacer esa ampliación, pero supe rápidamente que todo eso sería una nota a pie de página en comparación con este pensamiento del sistema dos de ampliación”.

La presentación de Brown introdujo el pensamiento del sistema dos como la solución a las limitaciones del escalamiento tradicional. Popularizado por el psicólogo Daniel Kahneman en el libro Pensar, rápido y lentoel pensamiento del sistema dos se refiere a un modo de pensamiento más lento y deliberado que los humanos utilizan para resolver problemas complejos. Brown cree que incorporar este enfoque en los modelos de IA podría conducir a importantes mejoras de rendimiento sin requerir exponencialmente más datos o potencia informática.

Relató que permitir librato Pensar durante 20 segundos antes de tomar decisiones tuvo un efecto profundo, lo que equivale a escalar el modelo 100.000 veces. “Los resultados me dejaron boquiabierto”, dijo Brown, ilustrando cómo las empresas podrían lograr mejores resultados con menos recursos centrándose en el pensamiento del sistema dos.

Dentro de o1 de OpenAI: el modelo revolucionario que requiere tiempo para pensar

La charla de Brown se produce poco después del lanzamiento de los modelos de la serie o1 de OpenAI, que introducen el pensamiento del sistema dos en la IA. Lanzados en septiembre de 2024, estos modelos están diseñados para procesar información con más cuidado que sus predecesores, lo que los hace ideales para tareas complejas en campos como la investigación científica, la codificación y la toma de decisiones estratégicas.

“Ya no estamos obligados a limitarnos a ampliar el sistema con una sola capacitación. Ahora también podemos ampliar el pensamiento del sistema dos, y lo hermoso de ampliarlo en esta dirección es que está en gran medida sin explotar”, explicó Brown. “Esta no es una revolución que está a 10 años o incluso a dos años de distancia. Es una revolución que está ocurriendo ahora”.

Los modelos o1 ya han demostrado un sólido rendimiento en varios puntos de referencia. Por ejemplo, en un examen de calificación para la Olimpiada Internacional de Matemáticas, el modelo o1 logró una tasa de precisión del 83%, un salto significativo con respecto al 13% obtenido por el GPT-4o de OpenAI. Brown señaló que la capacidad de razonar a través de fórmulas matemáticas complejas y datos científicos hace que el modelo o1 sea especialmente valioso para industrias que dependen de la toma de decisiones basada en datos.

El argumento comercial a favor de una IA más lenta: por qué la paciencia vale la pena en las soluciones empresariales

Para las empresas, el modelo o1 de OpenAI ofrece beneficios más allá del rendimiento académico. Brown enfatizó que el pensamiento del sistema dos de escala podría mejorar los procesos de toma de decisiones en industrias como la atención médica, la energía y las finanzas. Usó el tratamiento del cáncer como ejemplo y preguntó a la audiencia: “Levanten la mano si estarían dispuestos a pagar más de 1 dólar por un nuevo tratamiento contra el cáncer… ¿Qué tal 1.000 dólares? ¿Qué tal un millón de dólares?

Brown sugirió que el modelo o1 podría ayudar a los investigadores a acelerar la recopilación y el análisis de datos, permitiéndoles centrarse en interpretar los resultados y generar nuevas hipótesis. En energía, señaló que el modelo podría acelerar el desarrollo de paneles solares más eficientes, lo que podría conducir a avances en energía renovable.

Reconoció el escepticismo sobre los modelos de IA más lentos. “Cuando le menciono esto a la gente, una respuesta frecuente que recibo es que la gente tal vez no esté dispuesta a esperar unos minutos para obtener una respuesta, o pagar unos pocos dólares para obtener una respuesta a la pregunta”, dijo. Pero para los problemas más importantes, argumentó, ese costo bien vale la pena.

La nueva carrera de IA de Silicon Valley: por qué la potencia de procesamiento no lo es todo

El cambio de OpenAI hacia el pensamiento del sistema dos podría remodelar el panorama competitivo de la IA, especialmente en las aplicaciones empresariales. Si bien la mayoría de los modelos actuales están optimizados para la velocidad, el proceso de razonamiento deliberado detrás de o1 podría ofrecer a las empresas información más precisa, particularmente en industrias como las finanzas y la atención médica.

En el sector tecnológico, donde empresas como Google y Meta están invirtiendo fuertemente en IA, el enfoque de OpenAI en el razonamiento profundo lo distingue. Gemini AI de Google, por ejemplo, está optimizado para tareas multimodales, pero aún está por ver cómo se comparará con los modelos de OpenAI en términos de capacidades de resolución de problemas.

Dicho esto, el costo de implementar o1 podría limitar su adopción generalizada. El modelo es más lento y más caro de ejecutar que las versiones anteriores. Los informes indican que el modelo de vista previa o1 cuesta $15 por millón de tokens de entrada y $60 por millón de tokens de salida, mucho más que GPT-4o. Aún así, para las empresas que necesitan resultados de alta precisión, la inversión puede valer la pena.

Al concluir su charla, Brown enfatizó que el desarrollo de la IA se encuentra en un momento crítico: “Ahora tenemos un nuevo parámetro, uno en el que también podemos ampliar el pensamiento del sistema dos, y estamos apenas en el comienzo de la ampliación en este sentido. dirección.”

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Qué proveedor de IA debería elegir? Aquí están los 7 primeros (OpenAI sigue liderando)

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Los proveedores están implementando nuevas herramientas de inteligencia artificial generativa todos los días en un mercado que se ha comparado con el Salvaje Oeste. Pero debido a que la tecnología es tan nueva y está en constante evolución, puede resultar extremadamente confusa, y los proveedores de plataformas a veces hacen promesas especulativas.

La firma de TI GAI Insights espera brindar cierta claridad a los tomadores de decisiones empresariales con el lanzamiento de la primera guía del comprador conocida sobre modelos de lenguajes grandes (LLM) y generación de IA. Revisó a más de dos docenas de proveedores e identificó siete líderes emergentes (OpenAI está muy por delante del resto). Además, los modelos propietarios, de código abierto y pequeños tendrán una gran demanda en 2025, a medida que la alta dirección priorice el gasto en IA.

“Estamos viendo una migración real de la concientización a la experimentación temprana para impulsar realmente los sistemas a la producción”, dijo a VentureBeat Paul Baier, director ejecutivo y cofundador de GAI Insights. “Esto está explotando, la IA está transformando toda la pila de TI empresarial”.

7 líderes emergentes

GAI Insights, que aspira a ser el “Gartner de la IA de generación”, revisó a 29 proveedores en casos de uso comunes de IA de generación empresarial, como servicio al cliente, soporte de ventas, marketing y cadenas de suministro. Descubrieron que OpenAI sigue firmemente a la cabeza, acaparando el 65% de la cuota de mercado.

La firma señala que la startup tiene asociaciones con multitud de proveedores de contenidos y chips (incluido Broadcom, con quien está desarrollando chips). “Obviamente son los primeros, ellos definieron la categoría”, dijo Baier. Sin embargo, señaló, la industria se está “dividiendo en subcategorías”.

Los otros seis proveedores que GAI Insights identificó como líderes emergentes (en orden alfabético):

  • Amazon (Titan, Bedrock): tiene un enfoque neutral respecto a los proveedores y es una “ventanilla única” para la implementación. También ofrece una infraestructura de IA personalizada en forma de chips de IA especializados como Trainium e Inferentia.
  • Anthropic (Sonnet, Haiku, Opus): es un competidor “formidable” de OpenAI, con modelos que cuentan con largas ventanas de contexto y funcionan bien en tareas de codificación. La compañía también tiene un fuerte enfoque en la seguridad de la IA y este año ha lanzado múltiples herramientas para uso empresarial junto con artefactos, uso de computadoras y recuperación contextual.
  • Cohere (Command R): ofrece modelos centrados en la empresa y capacidades multilingües, así como implementaciones locales y de nube privada. Sus modelos Embed y Rerank pueden mejorar la búsqueda y recuperación con generación aumentada de recuperación (RAG), lo cual es importante para las empresas que buscan trabajar con datos internos.
  • CustomGPT: tiene una oferta sin código y sus modelos presentan alta precisión y bajas tasas de alucinaciones. También tiene funciones empresariales como Sign-On y OAuth y proporciona análisis e información sobre cómo los empleados y clientes utilizan las herramientas.
  • Meta (Llama): Presenta modelos “mejores en su clase” que van desde pequeños y especializados hasta de vanguardia. Su serie Meta’s Llama 3, con 405 mil millones de parámetros, rivaliza con GPT-4o y Claude 3.5 Sonnet en tareas complejas como razonamiento, matemáticas, procesamiento multilingüe y comprensión de contexto prolongado.
  • Microsoft (Azure, Phi-3): adopta un enfoque dual: aprovecha las herramientas existentes de OpenAI mientras invierte en plataformas patentadas. La compañía también está reduciendo la dependencia de los chips mediante el desarrollo de los suyos propios, incluidos Maia 100 y Cobalt 100.

Algunos otros proveedores evaluados por GAI Insights incluyen SambaNova, IBM, Deepset, Glean, LangChain, LlamaIndex y Mistral AI.

Los proveedores fueron calificados en función de una variedad de factores, incluida la innovación de productos y servicios; claridad del producto y servicio y beneficios y características; trayectoria en el lanzamiento de productos y asociaciones; compradores objetivo definidos; calidad de los equipos técnicos y experiencia del equipo directivo; relaciones estratégicas y calidad de los inversionistas; dinero recaudado; y valoración.

Mientras tanto, Nvidia sigue dominando, con el 85% de la cuota de mercado. La empresa seguirá ofreciendo productos en todos los niveles de hardware y software, e innovará y crecerá en 2025 a un ritmo “vertiginoso”.

Si bien el mercado de la IA de generación aún se encuentra en sus primeras etapas (solo el 5% de las empresas tienen aplicaciones en producción), en 2025 se verá un crecimiento masivo, con el 33% de las empresas impulsando modelos a producción, proyecta GAI Insights. La IA de generación es la principal prioridad presupuestaria para los CIO y CTO en medio de una caída de 240 veces en los últimos 18 meses en el costo del cálculo de la IA.

Curiosamente, el 90% de las implementaciones actuales utilizan LLM propietarios (en comparación con el código abierto), una tendencia que la empresa denomina “Sea dueño de su propia inteligencia”. Esto se debe a la necesidad de una mayor privacidad de los datos, control y cumplimiento normativo. Los principales casos de uso de la IA de generación incluyen atención al cliente, codificación, resúmenes, generación de texto y gestión de contratos.

Pero en última instancia, señaló Baier, “en este momento hay una explosión en casi cualquier caso de uso”.

Señaló que se estima que el 90% de los datos no están estructurados y se encuentran en correos electrónicos, archivos PDF, vídeos y otras plataformas y se maravilló de que “la generación de IA nos permite hablar con las máquinas, nos permite desbloquear el valor de los datos no estructurados. Nunca antes habíamos podido hacer eso de forma rentable. Ahora podemos. Actualmente se está produciendo una impresionante revolución de TI”.

En 2025 también surgirá un mayor número de modelos de lenguaje pequeño (SLM) específicos de verticales, y también habrá demanda de modelos de código abierto (aunque su definición sea polémica). También habrá un mejor rendimiento con modelos aún más pequeños como Gemma (parámetros 2B a 7B), Phi-3 (parámetros 3,8 B a 7B) y Llama 3.2 (1B y 3B). GAI Insights señala que los modelos pequeños son rentables y seguros, y que ha habido desarrollos clave en la tokenización a nivel de bytes, la poda de peso y la destilación de conocimientos que están minimizando el tamaño y aumentando el rendimiento.

Además, se espera que la asistencia de voz sea la “interfaz principal” en 2025, ya que ofrece experiencias más personalizadas y se espera que la IA en el dispositivo experimente un impulso significativo. “Veremos un verdadero auge el próximo año cuando los teléfonos inteligentes comiencen a distribuirse con chips de inteligencia artificial integrados”, dijo Baier.

¿Veremos realmente agentes de IA en 2025?

Si bien los agentes de IA son todo el tema de conversación en las empresas en este momento, queda por ver qué tan viables serán en el próximo año. Hay muchos obstáculos que superar, señaló Baier, como la propagación no regulada, la IA agente que toma decisiones “poco confiables o cuestionables” y opera con datos de mala calidad.

Los agentes de IA aún no se han definido completamente, dijo, y los que se están implementando en este momento se limitan principalmente a aplicaciones internas y implementaciones a pequeña escala. “Vemos todo el revuelo en torno a los agentes de IA, pero pasarán años antes de que se adopten de manera generalizada en las empresas”, dijo Baier. “Son muy prometedores, pero no prometedores el año que viene”.

Factores a considerar al implementar IA de generación

Con el mercado tan saturado y las herramientas tan variadas, Baier ofreció algunos consejos críticos para que las empresas comenzaran. En primer lugar, tenga cuidado con la dependencia de los proveedores y acepte la realidad de que la pila de TI empresarial seguirá cambiando drásticamente durante los próximos 15 años.

Dado que las iniciativas de IA deben provenir de arriba, Baier sugiere que la alta dirección realice una revisión en profundidad con la junta directiva para explorar oportunidades, amenazas y prioridades. El director ejecutivo y los vicepresidentes también deben tener experiencia práctica (al menos tres horas para comenzar). Antes de implementarlo, considere realizar una prueba piloto de chatbot sin riesgo utilizando datos públicos para respaldar el aprendizaje práctico y experimentar con IA en el dispositivo para operaciones de campo.

Las empresas también deberían designar un ejecutivo para supervisar la integración, desarrollar un centro de excelencia y coordinar proyectos, aconseja Baier. Es igualmente importante implementar políticas y capacitación sobre el uso de IA genérica. Para respaldar la adopción, publique una política de uso, realice capacitación básica e identifique qué herramientas están aprobadas y qué información no debe ingresarse.

En definitiva, “no prohíban ChatGPT; sus empleados ya lo están utilizando”, afirma GAI.

Continue Reading

Noticias

7 mensajes de ChatGPT que estoy usando para mejorar mis regalos: aquí te explico cómo probarlos

Published

on

Cuando se trata de encontrar el regalo perfecto para mis seres queridos, sin importar cuál sea el trato, generalmente me encuentro en algún punto entre saber exactamente qué comprar y no tener la menor idea de por dónde empezar, incluso en Amazon. La verdad es que es más fácil comprar para algunas personas que para otras.

Por eso, este año he decidido abordar la entrega de regalos de forma diferente. Estoy reclutando a ChatGPT como mi compañero de lluvia de ideas. Después de todo, he usado un chatbot para ayudarme con otras vacaciones, ¿por qué no usarlo esta vez como mi elfo secreto?

Con las indicaciones adecuadas, convertí el proceso de selección de regalos en una colaboración creativa, aprovechando la IA para generar ideas de regalos bien pensadas, personalizadas y, a menudo, inesperadas. Aquí están las siete sugerencias de ChatGPT que he estado usando para mejorar mi juego de dar regalos y cómo han transformado la forma en que compro para las personas que me importan.

1. “¿Cuáles son las ideas de regalos únicas para alguien que ama [insert interest]?”

(Crédito de la imagen: futuro)

No importa quién sea la persona, este mensaje es mi punto de partida. Al especificar el interés del destinatario (ya sean deportes, manualidades o cuidado del césped), ChatGPT genera una lista de ideas que van más allá de lo obvio. ¡Déjame decirte que las ideas para regalos no decepcionan!

Por ejemplo, cuando pedí regalos para mi mamá, a quien le encanta hacer colchas, ChatGPT sugirió tantas ideas que nunca hubiera pensado en incluir una luz LED, un software de diseño o incluso entradas para un museo textil.

Estas ideas eran mucho más creativas que la tarjeta de regalo estándar que de otro modo habría elegido. ChatGPT puede ser un robot sin emociones, pero ciertamente hace un gran trabajo al agregar un toque de personalización al proceso de entrega de regalos.

2. “¿Qué regalo puedo dar que solucione [specific problem]?”

(Crédito de la imagen: futuro)

Si alguna vez quisiste hacer un regalo práctico sin ser aburrido, este mensaje cambiará las reglas del juego. Por ejemplo, cuando le conté a ChatGPT que mis hijos pasaban demasiado tiempo frente a la pantalla, me recomendó muchas opciones creativas para sacarlos al aire libre, incluido un scooter eléctrico e incluso binoculares.

A veces, con todas las ofertas e ideas a cada paso, es difícil saber qué comprar exactamente. Recurrir a ChatGPT para obtener obsequios que resuelvan un problema puede marcar la diferencia. ChatGPT tiene infinitas formas de buscar, lo que lo convierte en un punto de inflexión para aquellos de nosotros atrapados en el ajetreo de las vacaciones.

En este caso, sacar a los niños afuera es más bien un regalo para mí, pero en la mayoría de los casos, dar un regalo que resuelve un problema real para alguien demuestra que has estado prestando atención y que siempre eres apreciado.

3. “¿En qué ideas de regalos se inspiran?” [specific memory or shared experience]?”

(Crédito de la imagen: futuro)

Este mensaje me ayuda a aprovechar el lado emocional de dar regalos al conectar el presente con un momento especial. Cuando mencioné un viaje que mi hermana y yo hicimos a París, ChatGPT sugirió un mapa enmarcado de la ciudad, utensilios de cocina para repostería francesa, que también inspiraron la idea de una nueva cafetera.

Recurrir a ChatGPT en realidad generó otras ideas, como álbumes de recortes, accesorios de moda y un diario para usar en nuestro próximo viaje. Estas ideas convirtieron el regalo en más que un objeto, se convirtió en un símbolo de nuestro vínculo, que es sumamente especial.

4. “¿Cuáles son algunas ideas de regalos asequibles pero significativas para [relation or age group]?”

(Crédito de la imagen: futuro)

Seamos realistas: los presupuestos importan. Este mensaje ha sido invaluable para encontrar obsequios bien pensados ​​que no cuesten mucho dinero. Tengo sobrinas trillizas idénticas que ahora son preadolescentes y rápidamente se vuelven más individuales que nunca. Cada uno tiene su propio gusto y personalidad personal a pesar de verse exactamente iguales.

Cuando les pedí ideas de regalos asequibles, ChatGPT sugirió una combinación de diversión y originalidad, creativa y personal, incluido un rompecabezas personalizado y kits de aventuras de bricolaje. Me encantó la idea de los kits de aventuras de bricolaje empaquetados en una caja decorativa, que parecía profundamente personal pero costaba muy poco.

Este mensaje es especialmente bueno para familiares o conocidos cuando mantenerse dentro del presupuesto es una prioridad absoluta. Lo probé con profesores, conductores de autobuses y entrenadores y obtuve resultados igualmente inspiradores.

5. “¿Cuál es una forma creativa de empaquetar un regalo para alguien que ama?” [theme or hobby]?”

(Crédito de la imagen: futuro)

La presentación importa y este mensaje ha hecho que incluso los obsequios más simples parezcan extraordinarios. ChatGPT sugirió una vez envolver un libro de cocina en un paño de cocina a cuadros y atarlo con cordel para un amigo al que le encanta cocinar.

Continue Reading

Noticias

Hoja de datos: límites sociales australianos, Musk vs. OpenAI y Canadá vs. Google

Published

on

Buen día. Si estás leyendo esto desde el Reino Unido, es más probable que seas un usuario de Reddit que un usuario de X.

Esto es según el regulador de medios británico Ofcom, cuya última encuesta muestra que Reddit es la gran plataforma de redes sociales de más rápido crecimiento en el país, actualmente utilizada por la mayoría de los adultos en línea en el Reino Unido. X, mientras tanto, ha estado perdiendo británicos durante un par de años.

Otros hallazgos incluyen que ChatGPT fue utilizado por un tercio de los usuarios de Internet del Reino Unido al menos una vez durante el último año… y un miserable 18% de los mayores de 16 años creen que la producción de IA generativa es confiable. —David Meyer

¿Quiere enviar ideas o sugerencias a la hoja de datos? Deja una línea aquí.

Indignación por las restricciones de las redes sociales en Australia

Foto de Matt Cardy/Getty Images

La semana pasada, los legisladores australianos tomaron la drástica medida de prohibir (a partir de finales del próximo año) todo uso de redes sociales por parte de menores de 16 años, al diablo con el consentimiento de los padres.

El proceso legislativo, que supuestamente fue el resultado de la lectura por parte de la esposa de un político del bestseller de Jonathan Haidt. La generación ansiosatomó toda una semana. Como era de esperar, las empresas de redes sociales están realmente descontentas con cómo resultó todo esto.

Un portavoz de Meta señaló que el Parlamento australiano había admitido una falta de vínculos claros y demostrables entre las redes sociales y los impactos negativos en la salud mental de los niños, y agregó: “Esto demuestra la falta de evidencia que respalde la legislación y sugiere que se trataba de un proceso predeterminado. “

TikTok y Snap están igualmente molestos, y una de sus grandes preocupaciones es el hecho de que nadie sabe cómo se supone que se aplicará esta nueva ley cuando entre en vigor.

Incluso con leyes más suaves que permiten el acceso con el consentimiento de los padres, la experiencia ha demostrado que la aplicación de la ley es el gran problema: es complicado conseguir un mecanismo que funcione y al mismo tiempo respete la privacidad y otros derechos.

Musk apunta a la transformación de OpenAI

Elon Musk ha pedido a un tribunal de distrito de California que impida que OpenAI haga un montón de cosas que no le gustan.

El magnate, que cofundó OpenAI hace nueve años antes de marcharse después de perder una lucha de poder con el director ejecutivo Sam Altman, afirma que el líder de la IA está disuadiendo a los inversores de respaldar a rivales como su propio xAI.

También alega que OpenAI “obtuvo indebidamente información competitivamente sensible” a través de sus conexiones con Microsoft, y quiere que el tribunal impida a OpenAI hacer negocios con empresas en las que los demandados tienen intereses financieros materiales.

Esos acusados ​​incluyen a Altman y al presidente Greg Brockman, así como al miembro de la junta directiva de Microsoft, Reid Hoffman, y a la vicepresidenta de Microsoft, Dee Templeton, así como a la propia Microsoft.

Fundamentalmente, Musk quiere que el tribunal detenga la conversión de OpenAI de una organización sin fines de lucro a una con fines de lucro.

El jefe de Tesla demandó a OpenAI y Altman a principios de este año por haber abandonado el estatus de organización sin fines de lucro de la empresa, pero retiró la demanda en junio. Ahora ha vuelto, en forma ampliada.

Canadá va por la yugular de Google

La autoridad antimonopolio canadiense ha demandado a Google para “poner fin decisivo” a lo que afirma son las prácticas anticompetitivas de la empresa en la publicidad en línea, que todavía representa la mayoría de los ingresos de la empresa matriz Alphabet.

“A través de una serie de decisiones calculadas, tomadas a lo largo de varios años, Google ha excluido a sus competidores y se ha afianzado en el centro de la publicidad online”, dijo la Oficina de Competencia.

El organismo de control quiere que Google se deshaga de su intercambio de anuncios AdX y del servidor de anuncios DFP, además de una multa de hasta el 3% de los ingresos globales (es decir, poco más de 9 mil millones de dólares, según el año fiscal 2023).

El vicepresidente de publicidad de Google, Dan Taylor, respondió insistiendo en que la denuncia “ignora la intensa competencia en la que los compradores y vendedores de publicidad tienen muchas opciones”. La empresa tiene ahora un mes y medio para presentar su respuesta oficial.

Nuevos modelos de IA

Según se informa, Amazon ha desarrollado un nuevo modelo multimodal de lenguaje grande, es decir, que puede manejar imágenes y vídeos además de texto.

Según The Information, el modelo de IA “Olympus” ayudará a Amazon a evitar una dependencia excesiva de Anthropic, el rival de OpenAI al que ha estado financiando en gran medida.

Y con Amazon celebrando su conferencia anual re:Invent AWS durante esta semana, Olympus podría debutar de forma inminente.

Mientras tanto, el equipo Qwen AI de Alibaba de China ha producido un nuevo modelo de “razonamiento” que competirá con el modelo o1 de OpenAI.

El equipo afirma que QwQ-32B-Preview supera a o1 en algunos puntos de referencia, aunque también notan ciertos malos hábitos, como que el modelo cambia repentinamente de idioma sin ningún motivo. Al ser chino, también evita temas políticos delicados como la masacre de la Plaza de Tiananmen.

Plan de cable de Meta

Meta quiere envolver al mundo entero con un nuevo cable submarino de fibra óptica, informa TechCrunch.

Lo particularmente novedoso de este plan es que Meta sería el único propietario y único usuario del canal de datos.

El presupuesto inicial para el proyecto, que el propietario de Facebook e Instagram aparentemente anunciará el próximo año, sería de 2 mil millones de dólares, siendo 10 mil millones de dólares el costo más probable una vez que todo esté dicho y hecho.

El autor sudafricano de Data Sheet hoy está encantado de observar que el proyecto aparentemente está siendo liderado por la operación de Meta en ese país, que albergaría dos puntos de interconexión, al igual que India.

Estados Unidos obtendría dos en cada costa. Australia acaba de conseguir uno.

Más datos

El acuerdo de subsidio de 7.860 millones de dólares de Intel restringe la venta de su unidad de fabricación. Se pusieron condiciones.

El organismo de control italiano advierte al editor GEDI que no comparta datos con OpenAI. Las reglas de privacidad son el punto conflictivo.

Los empleados de Amazon están “aplicando ira” a medida que se avecina su mandato de regreso a la oficina; los expertos dicen que eso es exactamente lo que quiere el CEO Andy Jassy. ¿Es una estratagema furtiva de despidos?

Es posible que aviones totalmente autónomos vuelen cerca de usted, y eso no es nada bueno. Su capitán está hablando.

El fundador de TSMC, Morris Chang, le ofreció el puesto más alto a Jensen Huang, según muestran sus memorias. “Ya tengo un trabajo”, dijo el director ejecutivo de Nvidia.

Esta es la versión web de Data Sheet, un boletín diario sobre el negocio de la tecnología. Regístrese para recibirlo gratis en su bandeja de entrada.
Continue Reading

Trending