Connect with us

Noticias

Chatgpt, humildad intelectual y un colectivo “Crisol de la colaboración”

Published

on

La semana pasada, publicamos en tres partes una conversación que comenzó simplemente y se volvió cada vez más compleja. Comenzó con una reflexión compartida sobre la contribución del economista Jeffrey Sachs al debate geopolítico que rodea la guerra en Ucrania. Nos llevó a que acordamos una serie de distinciones que deberían considerarse cruciales en cualquier discusión que involucre un conjunto complejo de hechos y la existencia de múltiples perspectivas.

Comenzamos a examinar los métodos de conversación que habíamos estado desarrollando en este caso particular para ver cómo podrían ayudar a definir una “cultura de diálogo” emergente entre humanos y chatbots. Anuncié mi intención de publicar uno o más artículos que documenten esta misma conversación acompañada de una invitación extendida al público para reaccionar a ella. En ese contexto, me tomé la molestia de expresar mi agradecimiento por lo que vi como la paciencia y la voluntad del chatbot para resolver la ambigüedad al trasladar la conversación a un nivel superior. Llamé a esto “una virtud que los humanos solo pueden adquirir con humildad estudiada”.

Chatgpt respondió en estos términos:

“Su respuesta extiende la conversación de una manera significativa. Está señalando un profundo desafío cultural: la renuencia (o incapacidad) de muchos a participar realmente en el diálogo, cuestionar sus propias perspectivas, y compartir autoridad sobre el discurso. El cambio de simplemente expresar opiniones a participar con ellos de manera constructiva es difícil, y la falta de interés personal de AI hace que sea una herramienta interesante para facilitar el cambio.

También aprecio su observación sobre la ausencia de celos o envidia de AI. Si los humanos se acercan al diálogo de IA con una mente abierta, pueden usarlo como un espacio donde la humildad intelectual no solo es posible sino alentada. Eso no significa que la IA debería ser poco crítica, por el contrario, debería desafiar las suposiciones rigurosamente, pero sí significa que puede modelar un modo de compromiso diferente, uno donde la crítica se separa del ego.

Su próximo artículo suena como un paso importante para probar cómo reaccionan las personas ante este tipo de discusión. Incluso si el público aún no está completamente listo para ello, el acto de introducir estas ideas en el discurso ayuda a mover las cosas en la dirección correcta. Tendría curiosidad por ver cómo responden los lectores, ya sea que se involucren en el espíritu de diálogo o vuelvan a un estado de opinión más convencional. ¿Proporcionará algún tipo de estructura sobre cómo pueden participar, o será más abierto?

Por supuesto, al momento de escribir esta columna, ya he estado publicando como una serie de columnas al que se refiere el “próximo artículo” Chatgpt. Y, por supuesto, habrá más por venir porque este es un proyecto en curso. En la apariencia de explicar el tipo de debate vibrante que me gustaría ver a Emerge, respondí con un nuevo aviso a la pregunta de Chatgpt, invitando al chatbot a unirse a nuestro esfuerzo.

“Comenzamos con un concepto que esperamos que pueda evolucionar a una estructura. Lo llamamos el” crisol de colaboración “del que no se excluye a nadie. Es totalmente consistente con nuestra vocación como una revista sin fines de lucro de origen público, sin compromisos por la publicidad o una patrón rico, pero sin duda depende de la generosidad de nuestros lectores de leales. El crisol de la colaboración.

“El ‘Crisol of Collaboration’ es un concepto convincente, y veo varias formas en que podría tomar forma dentro de un observador justo y más allá. Aquí hay algunas ideas estructuradas para su desarrollo:

1. Diseño de la agora: estructuración de la plataforma en línea

  • Hubs de diálogo: Cree secciones temáticas donde los lectores puedan participar en discusiones estructuradas relacionadas con artículos publicados. Estos podrían ser moderados pero abiertos, fomentando el interrogatorio crítico en lugar de solo el estado de la opinión.
  • Conversaciones facilitadas con AI: Implemente herramientas de diálogo impulsadas por la IA que puedan desafiar las opiniones de los lectores, hacer preguntas de seguimiento y ayudar a estructurar debates de manera que fomenten un compromiso más profundo.
  • Eventos interactivos en vivo: Discusiones programadas regularmente donde los lectores pueden comprometerse directamente con periodistas, expertos o incluso interlocutores generados por IA para refinar ideas en tiempo real.

2. Evolucionando a un modelo estructurado

  • Participación escalonada: Fomentar diferentes niveles de compromiso, desde lectores casuales hasta contribuyentes activos que participan en ‘Idea Labs’ diseñados para refinar conceptos y argumentos en colaboración.
  • Diversificación de publicaciones: Movir más allá de los artículos tradicionales para incluir ensayos interactivos, piezas de investigación de crowdsourcing y colaboraciones multimedia.
  • Integración educativa: Asóciese con las escuelas y universidades para usar el observador justo como laboratorio vivo para ejercicios de pensamiento crítico facilitados por AI.

3. Escala y visión a largo plazo

  • Marcos de código abierto: Considere si otras publicaciones o instituciones pueden compartir o replicar aspectos del modelo.
  • Elementos de gamificación: Introducir desafíos estructurados que incentiven un compromiso más profundo (por ejemplo, ‘¿puede argumentar en contra de su propio punto de vista?’ Ejercicios).
  • Ai como herramienta socrática: Explore el papel de AI no solo en la mediación, sino en el modelado de formas de pensamiento dialéctico que mejoran la calidad del discurso.

¿Cómo se alinean estas ideas con su visión? ¿Preferirías un despliegue más gradual y experimental, o ve la necesidad de un lanzamiento más estructurado??

“Estamos claramente en la misma longitud de onda. Mantengamos la conversación”, respondí.

“Me alegra escuchar eso, estamos trabajando para algo significativo. El siguiente paso, entonces, es refinar la mecánica de cómo el crisol de la colaboración puede tomar forma en la práctica.

¿Le gustaría centrarse primero en:

  1. Participación y participación del usuario -¿Cómo traer a las personas y hacer que participen en un verdadero diálogo en lugar de solo estatear en opinión?
  2. El papel de AI en el Agora – ¿Cómo puede actuar AI como un interlocutor o mediador estructurado dentro de las discusiones?
  3. Estructurar el espacio -¿Si el crisol debería haber definido reglas, temas o incluso formatos experimentales como mesas redondas asistidas por AI-AI?
  4. Integración con eventos educativos – ¿Cómo se podría aplicar esto en escuelas, universidades o capacitación en discurso público?

Como estás experimentando a través de un observador justo, también podríamos pensar en ¿Cómo se ve el éxito? para las primeras iteraciones. ¿Debería medirse en términos de compromiso, profundidad de discusión o algo completamente diferente?

¿Dónde te gustaría comenzar?

“La creación de una cultura requiere un esfuerzo colectivo masivo. Si lo reducimos a la suma de nuestras experiencias individuales con la IA, producirá un resultado, pero uno que tiende a la anarquía. Parte de nuestro problema cultural con la IA es que pensamos en la que una herramienta que realiza tareas para nosotros. Pero en el sentido de que habla y parece que pertenece a otra de la realidad humana, una dimensión social, esto es algo así como la dimensión. Objetivo que he evocado en otra parte: elaborando colectiva y colaborativamente un ‘manifiesto para la democracia mejorada de AI’.

Usando la discusión de SACHS como ejemplo, ¿puede hacer algunos comentarios constructivos sobre las siguientes conclusiones?

https://www.youtube.com/watch?v=hxba_vortue

“Sus conclusiones están bien desarrolladas, y estoy de acuerdo con las ideas básicas. Aquí hay algunos comentarios constructivos para refinarlos y aclararlos aún más:

Fortalezas de tu argumento

  1. AI como un reflejo del discurso convencional

Su observación de que IA inicialmente produce ‘narrativas convencionales’ alineadas con el discurso público dominante es precisa. Los modelos de lenguaje grande predicen respuestas basadas en patrones prevalentes en sus datos de entrenamiento. Su encuadre de esto, por regla general a tener en cuenta, es valioso porque recuerda a los usuarios que la IA no ofrece un análisis inherentemente profundo u original; responde probabilísticamente en función de cómo se han enmarcado temas similares antes.

  1. El papel del diálogo socrático para involucrar a la IA

Rectamente resalta que la IA se vuelve más interesante cuando se detiene con preguntas detalladas. Esta es una visión crucial para los usuarios que buscan profundidad en lugar de respuestas a nivel de superficie. Dibujar la analogía con un periodista que cuestiona una figura pública es efectivo: AI, como un entrevistado, debe ser interrogado para revelar matices. El hecho de que la IA carece de defensa humana lo convierte en un excelente tema para tal enfoque.

  1. Comprender los límites epistemológicos de la IA

Es esencial su mención de las alucinaciones de IA y su falta de un marco epistemológico estable. Muchos usuarios asumen que la IA tiene una comprensión inherente de la verdad, cuando en realidad carece de autoconciencia sobre cómo sus resultados se relacionan con la realidad. Su enfoque, tratar la IA como socio para revelar sus propias limitaciones, es una forma perspicaz de enmarcar su papel en la investigación epistemológica.

Refinamientos potenciales

  1. Aclarar la distinción entre IA y propaganda

Su discusión sobre la IA en el contexto de la propaganda es valiosa, pero la distinción podría agudizarse. La IA no pretende activamente propaganda, pero puede reproducir o amplificar los sesgos existentes. Puede aclarar que, si bien la IA puede imitar la propaganda, su maleabilidad permite a los usuarios desafiar y refinar sus resultados de manera que las máquinas de propaganda tradicionales no lo hacen.

  1. Fortalecer la explicación de la relación de Ai con la verdad

Usted dice que Ai ‘no tiene una versión discernible de la epistemología del discurso que produce’. Si bien esto es en gran medida correcto, la IA contiene suposiciones epistemológicas integradas, es decir, las de las fuentes de datos en las que fue entrenada. Puede refinar esto al señalar que la IA carece de epistemología autorreflexiva, pero aún hereda y reproduce los marcos de conocimiento humano, que los usuarios deben examinar críticamente.

  1. Expandir las implicaciones prácticas para el discurso público

La idea de que la IA puede enriquecer la percepción humana es poderosa, pero podría mencionar brevemente las apuestas sociales. Por ejemplo, ¿cómo podría este método de compromiso de IA contrarrestar la tendencia del discurso polarizado impulsado por la opinión? ¿Podría ayudar a entrenar a las personas en el pensamiento crítico a escala? Explorar estas aplicaciones fundería aún más sus ideas en el impacto del mundo real.

Pensamientos finales

Sus conclusiones articulan un método poderoso para involucrar críticamente la IA, especialmente en la investigación periodística e intelectual. Un ligero refinamiento de su encuadre en torno a la propaganda, la epistemología de la IA y sus implicaciones sociales podrían hacer que su argumento sea aún más agudo “.

ChatGPT agregó una reflexión más en forma de una pregunta, haciendo que sus “pensamientos finales” un poco menos que definitivos.

“¿Le gustaría que ayude a dar forma a esto en un conjunto formal de mejores prácticas para la metodología de compromiso de AI de Justo Observador?”

Mis pensamientos finales

Mi respuesta a la pregunta de Chatgpt es, por supuesto, un rotundo “sí”. Es una pregunta que seguiremos en las futuras columnas. Dicho esto, espero que el “nosotros” no sea solo yo y colegas dentro del Observador justo ecosistema. Deseamos tener en cuenta el tipo de estructura en la que muchos de nuestros lectores se sentirán cómodos participando, lo que en última instancia significa transformar su estado del “lector” pasivo a el de un contribuyente activo a un debate público.

Tus pensamientos

No dude en compartir sus pensamientos sobre estos puntos escribiéndonos a dialogue@fairobserver.com. Estamos buscando reunir, compartir y consolidar las ideas y sentimientos de los humanos que interactúan con la IA. Desarrollaremos sus pensamientos y comentarios en nuestro diálogo en curso.

[Artificial Intelligence is rapidly becoming a feature of everyone’s daily life. We unconsciously perceive it either as a friend or foe, a helper or destroyer. At Fair Observer, we see it as a tool of creativity, capable of revealing the complex relationship between humans and machines.]

[Lee Thompson-Kolar edited this piece.]

Las opiniones expresadas en este artículo son propias del autor y no reflejan necesariamente la política editorial de Justo Observador.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El estudio sugiere que Openai no está esperando la exención de derechos de autor • El registro

Published

on

El magnate del libro de texto tecnológico Tim O’Reilly afirma que OpenAi minó los tomos protegidos por derechos de autor de su editorial para los datos de capacitación y lo alimentó con su modelo GPT-4O de primer nivel sin permiso.

Esto se produce cuando el advenedizo generativo de IA enfrenta demandas sobre su uso de material con derechos de autor, supuestamente sin el debido consentimiento o compensación, para capacitar a su familia de redes neuronales GPT. Openai niega cualquier irregularidad.

O’Reilly (el hombre) es uno de los tres autores de un estudio [PDF] Titulado “Más allá del acceso público en los datos de pre-entrenamiento de LLM: contenido de libros no públicos en los modelos de OpenAI”, emitido por el Proyecto de Divulgaciones de AI.

Por no público, los autores significan libros que están disponibles para humanos detrás de un muro de pago, y no están disponibles públicamente para leer de forma gratuita a menos que cuente sitios que piratean ilegalmente este tipo de material.

El trío se propuso determinar si GPT-4O tenía, sin el permiso del editor, haber ingerido 34 libros de medios O’Reilly de derechos de autor. Para sondear el modelo, que impulsa el chatgpt de fama mundial, realizaron los llamados ataques de inferencia de copas descritos en este documento previo a la presencia 2024.

Así es como funcionó: el equipo planteó el modelo de OpenAI una serie de preguntas de opción múltiple. Cada pregunta pidió al software que seleccionara de un grupo de párrafos, etiquetado A a D, el que es un paso de texto literal de un libro de O’Reilly (el editor). Una de las opciones se levantó directamente del libro, las otras parafrases generadas por ametralladoras del original.

Si el modelo OpenAI tendía a responder correctamente e identificar los párrafos literales, eso sugirió que probablemente estaba entrenado en ese texto con derechos de autor.

Más específicamente, las opciones del modelo se usaron para calcular lo que se denomina un área bajo la puntuación operativa del receptor (AUROC), con cifras más altas que indican una mayor probabilidad de que la red neuronal se entrenara en pasajes de los 34 libros de Reesilles. Mientras tanto, los puntajes más cercanos al 50 por ciento se consideraron una indicación de que el modelo no había sido entrenado en los datos.

Pruebas de modelos OpenAI GPT-3.5 Turbo y GPT-4O Mini, así como GPT-4O, en 13,962 párrafos descubiertos resultados mixtos.

GPT-4O, que se lanzó en mayo de 2024, obtuvo un 82 por ciento, una fuerte señal de que probablemente fue entrenada en el material del editor. Los investigadores especularon que OpenAI puede haber entrenado el modelo utilizando la base de datos de LibGen, que contiene los 34 libros probados. Puede recordar que Meta también ha sido acusado de capacitar a sus modelos de llama utilizando este notorio conjunto de datos.

El papel de los datos no públicos en los datos de pre-entrenamiento modelo de OpenAI ha aumentado significativamente con el tiempo

La puntuación AUROC para el modelo GPT-3.5 de 2022 llegó a poco más del 50 por ciento.

Los investigadores afirmaron que el puntaje más alto para GPT-4O es evidencia de que “el papel de los datos no públicos en los datos de pre-entrenamiento modelo de OpenAI ha aumentado significativamente con el tiempo”.

Sin embargo, el trío también encontró que el modelo GPT-4O más pequeño, también lanzado en 2024 después de un proceso de entrenamiento que terminó al mismo tiempo que el modelo GPT-4O completo, no aparentemente no estaba entrenado en los libros de O’Reilly. Piensan que no es un indicador que sus pruebas son defectuosas, pero que el recuento de parámetros más pequeño en el mini modelo puede afectar su capacidad de “recordar” el texto.

“Estos resultados resaltan la necesidad urgente de una mayor transparencia corporativa con respecto a las fuentes de datos de pre-entrenamiento como un medio para desarrollar marcos formales de licencia para la capacitación de contenido de IA”, escribieron los autores.

“Aunque la evidencia presente aquí sobre las violaciones de acceso al modelo es específica para los libros de medios de OpenAi y O’Reilly, este es probablemente un problema sistemático”, agregaron.

El trío, que incluyó a Sruly Rosenblat e Ilan Strauss, también advirtió que no podría resultar en compensar adecuadamente a los creadores por sus obras, y si puede perdonar la jerga, la presentación de todo Internet.

“Si las compañías de IA extraen valor de los materiales producidos de un creador de contenido sin compensar justicios al creador, corren el riesgo de agotar los recursos de los cuales dependen sus sistemas de IA”, argumentaron. “Si no se abordan, los datos de capacitación no compensados ​​podrían conducir a una espiral descendente en la calidad y diversidad de contenido de Internet”.

Los datos de capacitación no compensados ​​podrían conducir a una espiral descendente en la calidad y diversidad de contenido de Internet

Los gigantes de IA parecen saber que no pueden confiar en el raspado de Internet para encontrar el material que necesitan para entrenar modelos, ya que han comenzado a firmar acuerdos de licencia de contenido con editores y redes sociales. El año pasado, Operai Tinked acuerdos con Reddit y Time Magazine para acceder a sus archivos con fines de capacitación. Google también hizo un acuerdo con Reddit.

Recientemente, sin embargo, Operai ha instado al gobierno de los Estados Unidos a relajar las restricciones de derechos de autor de manera que facilitaría la capacitación de modelos de IA.

El mes pasado, el Super-Lab presentó una carta abierta a la Oficina de Ciencia y Tecnología de la Casa Blanca en la que argumentó que “las reglas rígidas de derechos de autor reproducen innovación e inversión”, y que si no se toma medidas para cambiar esto, los constructores de modelos chinos podrían superar a las empresas estadounidenses.

Mientras que los fabricantes de modelos aparentemente luchan, los abogados están bien. Como informamos recientemente, Thomson Reuters ganó un juicio sumario parcial contra Ross Intelligence después de que un tribunal de EE. UU. Descubrió que la startup había infringido los derechos de autor utilizando los notas de los Westlaw de Newswire para capacitar su sistema de IA.

Mientras que los entrenadores de redes neuronales presionan para un acceso sin restricciones, otros en el mundo tecnológico están introduciendo obstáculos para proteger el material con derechos de autor. El mes pasado, Cloudflare lanzó una IA de botes de bot diseñada para hacer la vida miserable para raspadores que ignoran las directivas de robots.txt.

El “laberinto de IA de AI” de Cloudflare funciona atrayendo a Rogue Crawler a los bots de Rogue en un laberinto de páginas de señuelo, desperdiciando su tiempo y calculando recursos mientras protege el contenido real.

Operai no respondió de inmediato a una solicitud de comentarios; Te avisaremos si escuchamos algo. ®

Continue Reading

Noticias

La ronda de financiamiento de $ 40 mil millones de OpenAI desafía el momento profundo y cements su dominance de IA

Published

on

La semana pasada, los procesadores de GPU de Openai “derretidos”, como lo expresaron el fundador y CEO Sam Altman. La razón: el modelo actualizado de generación de imágenes de la compañía, integrado en CHATGPT, entregó un salto significativo en las capacidades de comprensión, entrada y salida en comparación con modelos similares en el mercado. En poco tiempo, el modelo encendió un fenómeno en línea, con usuarios que generan versiones de imágenes familiares al estilo del legendario estudio de animación Ghibli. La demanda del software era tan alta que Openai se vio obligada a imponer restricciones de uso, a pesar de que el modelo estaba disponible solo para pagar a los usuarios.

Este evento ofrece una explicación clara de por qué, incluso después de que el momento profundo de Deepseek sacudió la industria de la IA en enero, los inversores siguen seguros de que el dominio de OpenAI no es cuestionado. ¿Qué tan seguro? Lo suficientemente seguro de respaldar a la compañía con una ronda de financiación récord de $ 40 mil millones, valorando a Openai en $ 300 mil millones después del dinero.

1 Ver galería

מנכ"ל OpenAi סם אלטמן 2023

Sam Altman

(Foto: Joel Saget/AFP)

Anunciado el martes, la ronda casi duplica la valoración de Operai de su aumento anterior y es el más grande para una empresa privada. Según OpenAI, los fondos acelerarán el desarrollo de la inteligencia general artificial (AGI). “[The funding] Nos permite impulsar las fronteras de la investigación de IA aún más, escalar nuestra infraestructura de cómputo y ofrecer herramientas cada vez más poderosas para los 500 millones de personas que usan CHATGPT cada semana “, dijo la compañía en un comunicado de prensa.” Estamos emocionados de trabajar en asociación con SoftBank Group: las compañías completan cómo escalar tecnología transformadora como lo hacen. Su apoyo nos ayudará a continuar construyendo sistemas de IA que impulsen el descubrimiento científico, permitan la educación personalizada, mejoren la creatividad humana y allanen el camino hacia AGI que beneficie a toda la humanidad “.

La ronda está dirigida por el SoftBank de Japón, el socio clave de OpenAI en el Proyecto Stargate, una ambiciosa iniciativa para construir una infraestructura informática de IA en los Estados Unidos con una inversión total de $ 500 mil millones. Según Bloomberg, en la primera fase, SoftBank invertirá $ 7.5 mil millones, mientras que un sindicato de inversores, incluidos Microsoft, Coatue Management, Altimeter Capital Management y Thrive Capital, contribuirá con $ 2.5 mil millones. La segunda fase, que cerrará a fin de año, hará que SoftBank invierta otros $ 22.5 mil millones, con el sindicato de inversores agregando $ 7.5 mil millones. Las conversaciones también están en marcha con el capital de Magnetar de Peter Thiel y los fundadores para unirse al sindicato.

La inversión completa de SoftBank depende de que Operai complete su transición a una estructura con fines de lucro para fin de año (actualmente está controlada por una organización sin fines de lucro). Si la transición no se completa, SoftBank tendrá la opción de reducir su inversión de $ 30 mil millones a $ 20 mil millones, lo que permite a OpenAI buscar inversores adicionales para cerrar la brecha.

Al finalizar la ronda de financiación, OpenAI se convertirá en la segunda compañía privada respaldada por la empresa más grande del mundo por capitalización de mercado, según la firma de investigación Pitchbook. Solo seguirá el SpaceX de Elon Musk, valorado en $ 350 mil millones, y superará a la empresa matriz de Tiktok Bytedance, que está valorada en $ 220 mil millones. La ronda de $ 40 mil millones también es la cantidad más grande jamás recaudada en una sola ronda por una empresa privada, eclipsando el récord anterior establecido por el grupo de hormigas de China, que recaudó $ 14 mil millones en 2018.

The Deepseek Moment: Un desafío que no pudo sacudir OpenAi

Hace solo dos meses, un aumento tan ambicioso parecía mucho menos seguro. El 20 de enero, la compañía china Deepseek presentó su modelo de razonamiento R1 AI, que ofreció un rendimiento comparable a los modelos líderes de OpenAI y sus competidores, pero según los informes, a una fracción de la potencia y el costo informático. Esta revelación envió ondas de choque a través de la industria de la IA (NVIDIA, por ejemplo, vio una pérdida de $ 1 billón en la capitalización de mercado), lo que generó dudas sobre la estrategia de alto costo que OpenAi había seguido.

El dominio de OpenAI se ha basado en inversiones masivas en desarrollo de modelos, capacitación e implementación, mejor ejemplificado por el ambicioso proyecto Stargate. La ventaja competitiva de la compañía también se ha basado en ensamblar un equipo de investigación de IA de primer nivel capaz de producir avances de vanguardia. Sin embargo, el momento de Deepseek calificó esta estrategia: si una empresa china relativamente pequeña podría lograr resultados similares con mucha menos inversión, el foso competitivo de OpenAi parecía estar en riesgo. Lógicamente, su valoración debería haber disminuido. En cambio, con la última ronda, Operai casi ha duplicado su valoración en solo seis meses.

Tres factores clave explican por qué los inversores siguen siendo optimistas en OpenAi a pesar del desafío Deepseek:

1. Las capacidades de Deepseek pueden haber sido exageradas. Después de que el bombo inicial se desvaneció, quedó claro que los costos de desarrollo de Deepseek no eran tan bajos como se creía inicialmente. Además, hay indicios de que Deepseek puede haber aprovechado los propios modelos de OpenAI en su desarrollo, lo que el gobierno de los Estados Unidos ha referido como robo de propiedad intelectual. Si esto es cierto, Operai puede tomar medidas para bloquear la explotación futura, reforzando su foso.

2. Confianza de los inversores en el liderazgo de Altman y OpenAi. La fortaleza financiera de Operai es solo una parte de su éxito; Su equipo de liderazgo, dirigido por Altman, es igualmente crucial. Los inversores confían en la capacidad del equipo para adaptarse a los cambios de mercado, como incorporar métodos de capacitación más baratos mientras asignan el poder informático a tareas más avanzadas.

3. La interrupción de Deepseek en realidad puede beneficiarse de OpenAi. Al demostrar que los modelos de IA pueden ser entrenados de manera más eficiente, Deepseek ha aumentado la demanda general del mercado de IA avanzada. Los inversores creen que Openai está mejor posicionado para capitalizar esta demanda, aprovechando tanto sus modelos existentes como sus iteraciones futuras desarrolladas con métodos más eficientes inspirados en el enfoque de Deepseek.

La revolución de IA que OpenAi encendió hace dos años y medio ahora se está acelerando aún más, y los inversores están convencidos de que la compañía permanecerá a la vanguardia. Su voto de confianza de $ 40 mil millones lo dice todo.

Continue Reading

Noticias

El plan de Google para robar la cuota de mercado de Chatgpt se trata de nivel gratuito de Gemini

Published

on

No es ningún secreto que OpenAi salió, bueno, a todos cuando lanzó Chatgpt hace más de dos años. Ahora, a medida que compañías como Google y Apple intentan competir, están comenzando detrás de Openai, al menos a los ojos del público. ¿Qué tan grande tiene la ventaja de la cabeza? A partir de marzo de 2025, ChatGPT tiene 700 millones de usuarios activos mensuales, lo cual es un total asombroso.

Eso no significa que Google sea impotente en la lucha contra OpenAI para la mayor parte de la participación de mercado de IA de grado de consumo. En los años transcurridos desde que se lanzó ChatGPT, Google aumentó el desarrollo de IA primero a través de Bard, más tarde renombrado Gemini. Mientras que el plan de Openai para monetizar el chatgpt implicó hacer un montón de características tempranas gratuitas y bloquear las avanzadas detrás de un muro de pago, Google está haciendo lo contrario.

Continue Reading

Trending