Connect with us

Noticias

6 características de chatgpt potentes que cada médico debe conocer sobre

Published

on


ChatGPT se ha convertido en un nombre familiar en el campo de la medicina, y los médicos lo usan para todo, desde respuestas rápidas hasta redactar notas de los pacientes. Pero aquí está la captura: la mayoría de los usuarios solo están rascando la superficie de lo que esta IA puede hacer. Muchas de sus mejores características permanecen subutilizadas, dejando valiosas herramientas que ahorran tiempo sin explotar.

AI no reemplazará a los médicos pronto, pero poder Haz tu vida significativamente más fácil. Si confía en ChatGPT solo por lo básico, es posible que se esté perdiendo su potencial real.

Aquí hay seis potentes características de ChatGPT que pueden optimizar su flujo de trabajo y ayudarlo a recuperar su tiempo.


Nota: Si bien estas son sugerencias generales, es importante realizar una investigación exhaustiva y la debida diligencia al seleccionar herramientas de IA. No respaldamos ni promocionamos ninguna herramienta de IA específica mencionada aquí..

1. Puedes crear tu propio GPT

Los GPT personalizados le permiten ajustar el chatgpt para alinearse mejor con su práctica médica específica, especialidad y flujo de trabajo. En lugar de obtener respuestas genéricas de IA, puede capacitar a ChatGPT para comprender su campo, seguir sus protocolos e incluso ayudar con tareas específicas como redactar instrucciones del paciente o resumir las pautas médicas. También puede personalizar su tono, ya sea que desee que sea clínico, preciso o cálido y amigable con el paciente.

Este es un cambio de juego porque permite una mayor personalización y eficiencia. No tendrá que seguir repitiéndose o ajustando respuestas genéricas generadas por IA. Ya sea que trabaje en un campo médico de nicho, necesita apoyo con el trabajo administrativo o desea automatizar la educación del paciente, un GPT personalizado puede ahorrar tiempo y garantizar la coherencia en cómo se entrega la información.

Para obtener una guía paso a paso sobre la construcción de su propio GPT, consulte este tutorial integral

Cómo usarlo:

  • Abra chatgpt y vaya a Explorar GPTS.
  • Hacer clic Crear y siga las indicaciones de configuración.
  • Defina el comportamiento de la IA con instrucciones como, “Actúa como cardiólogo especializado en el manejo de la hipertensión”.
  • Cargue cualquier material de referencia relevante (por ejemplo, protocolos de tratamiento, pautas de mejores prácticas).
  • Pruebe y modifique la configuración para garantizar un rendimiento óptimo.

Descargo de responsabilidad: el contenido médico generado por IA debe ser revisado por un profesional calificado antes de su uso en la toma de decisiones clínicas.

2. Puede programar tareas con chatgpt

Chatgpt’s Tareas La función le permite programar recordatorios y automatizar acciones, esencialmente lo convierte en su asistente personal de IA. Ya sea que recuerde hacer un seguimiento con un paciente, establecer recordatorios para revisiones de medicamentos o incluso redactar informes semanales por adelantado, esta característica asegura que no tenga que confiar únicamente en su memoria o notas adhesivas.

Para los médicos que hacen malabares con la atención al paciente, la investigación y el trabajo administrativo, tener un asistente de IA proactivo puede ser un salvavidas. En lugar de configurar manualmente recordatorios o usar múltiples aplicaciones, ChatGPT puede manejarlo todo en un solo lugar. Es perfecto para garantizar que los seguimientos críticos y las acciones sensibles al tiempo no pasen a través de las grietas. Para ver cómo esta característica puede simplificar su vida, lea más aquí.

Cómo usarlo:

  • Asegúrese de estar suscrito a ChatGPT Plus, Team o Pro (ya que la función está en beta).
  • Navegar al Tareas Sección en Chatgpt.
  • Configurar tareas con detalles como “Recuérdame verificar la recarga de medicamentos del Sr. Smith todos los viernes a las 2 pm”.
  • Revise y ajuste sus tareas según sea necesario en el Tareas sección.

Nota: Como esta característica todavía está en beta, su funcionalidad puede evolucionar con el tiempo.

3. Puede cargar archivos y analizar datos

Atrás quedaron los días de examinar manualmente a través de trabajos de investigación, informes de laboratorio o hojas de cálculo de datos del paciente. ChatGPT le permite cargar archivos, ya sea PDF, CSV o sábanas de Excel, y analizar rápidamente su contenido. Puede resumir estudios complejos, extraer puntos clave de informes largos e incluso detectar tendencias en los resultados de laboratorio a lo largo del tiempo.

Esta característica es un gran ahorro de tiempo para los médicos que necesitan procesar grandes cantidades de información rápidamente. En lugar de pasar horas leyendo documentos densos, puede obtener resúmenes concisos y ideas procesables en minutos. Ya sea que esté revisando el historial del paciente, realizando investigaciones o analizando los datos del hospital, ChatGPT lo tiene cubierto.

Cómo usarlo:

  • Haga clic en el 📎 Adjunto ícono en chatgpt.
  • Cargue su archivo (por ejemplo, una hoja de cálculo con tendencias de BP del paciente).
  • Instruya chatgpt en el análisis deseado (por ejemplo, “Resume los hallazgos clave de este estudio en lenguaje sencillo”.).
  • Revise el resultado, incluidos resúmenes, cuadros o información específica de datos.

Descargo de responsabilidad: el análisis de datos de ChatGPT no debe reemplazar el juicio profesional o los requisitos de cumplimiento reglamentario.

4. Puedes realizar investigaciones profundas

Encontrar información médica confiable puede llevar mucho tiempo, pero Chatgpt’s Investigación profunda La función le permite navegar de forma autónoma fuentes de confianza y compilar informes estructurados. ¿Necesita una revisión de la literatura sobre los últimos tratamientos de hipertensión? ChatGPT puede recopilar información de múltiples fuentes y resumir los hallazgos clave en minutos.

Para los médicos que necesitan información basada en evidencia pero que no tienen tiempo para cavar en PubMed durante horas, esta característica es invaluable. Ya sea que se esté preparando para una presentación, escriba un trabajo de investigación o busque las últimas pautas clínicas, ChatGPT hace el trabajo pesado por usted.

Cómo usarlo:

  • Abra chatgpt y habilitar Investigación profunda (Disponible para usuarios de Pro).
  • Ingrese una solicitud como, “Genere una revisión de la literatura sobre los últimos avances en el tratamiento de diabetes tipo 2”.
  • Permita 5-30 minutos para que ChatGPT compile un informe estructurado.
  • Revise las citas y verifique los resultados antes de la aplicación clínica.

Descargo de responsabilidad: siempre una investigación generada por la IA de verificación cruzada con fuentes revisadas por pares antes de aplicarlo en la práctica.

5. Puede redactar y editar documentos de forma larga

Escribir informes largos, trabajos de investigación o pautas médicas puede ser desalentador, pero Chatgpt’s Lienzo La función proporciona un espacio de trabajo de edición interactivo. Está diseñado para redactar y refinar documentos de forma larga, lo que lo convierte en una excelente herramienta para profesionales médicos que necesitan producir informes o publicaciones detalladas.

En lugar de saltar entre varios procesadores de palabras, puede trabajar directamente dentro de ChatGPT, iterando el contenido con sugerencias con IA. Ya sea que esté redactando documentos de política, resúmenes de investigación o incluso materiales de educación del paciente, esta característica ayuda a mantener todo organizado y simplificado.

Cómo usarlo:

  • Abra chatgpt y seleccione Modo de lienzo.
  • Inicie un nuevo documento e ingrese su borrador.
  • Use las herramientas de edición de ChatGPT para refinar secciones, mejorar la claridad y garantizar la legibilidad.
  • Guarde o exporte la versión final para su envío o revisión.

6. Puedes usar características de voz e imagen

CHATGPT-4O ahora admite el análisis de entrada de voz y imagen, lo que hace que las interacciones sean más dinámicas y accesibles. Puede dictar notas con manos libres, subir imágenes para el reconocimiento de texto e interactuar con ChatGPT de manera más natural, ya sea que esté en movimiento o en una clínica ocupada.

Para los médicos, esto significa una documentación más fácil, un procesamiento de material de referencia más rápido y una mejor accesibilidad. Imagine dictar notas del paciente mientras conduce a casa o escanean notas escritas a mano para una transcripción instantánea; estas pequeñas eficiencias pueden sumar a un ahorro significativo de tiempo.

Para obtener un tutorial detallado sobre la creación de imágenes usando CHATGPT, explore esta guía.

Cómo usarlo:

  • Activar modo de voz en Chatgpt para interacciones manos libres.
  • Cargue imágenes (como notas de pacientes escritas a mano) para el reconocimiento de texto.
  • Solicite a ChatGPT la transcripción u organización de la información clave.

Descargo de responsabilidad: el análisis de IA basado en imágenes no es un sustituto de la interpretación radiológica o patológica por profesionales capacitados.


Suscríbase para recibir los 7 pasos que puede seguir para lograr la libertad financiera

Si la libertad financiera es su objetivo, no hay mejor momento para comenzar que ahora.

Desbloquee los pasos procesables que puede tomar todos los días para ajustar sus objetivos, descubrir sus intereses y evitar errores costosos en su viaje de libertad financiera.


Conclusión

Si bien ninguna herramienta única puede eliminar las demandas del día de un médico, pueden sumar pequeñas ganancias de eficiencia. Ya sea automatización de recordatorios, resumiendo la investigación o la redacción de informes, estas características de ChatGPT pueden ayudar a optimizar las tareas y reducir la sobrecarga cognitiva.

Al incorporar la IA en su flujo de trabajo, no solo está ahorrando tiempo, sino que también está creando más ancho de banda para una atención significativa al paciente y un crecimiento profesional. Por cierto, si alguna vez ha tenido problemas para obtener los mejores resultados de la IA, esta hoja de trucos ChatGPT es una excelente manera de nivelar sus habilidades. Asegúrese de revisarlo.

¿Qué característica estás más emocionado de probar? ¡Hágamelo saber!

Suscríbete a nuestro boletín Para más IA y tecnología. También obtendrás acceso a nuestro página de recursos de IA gratisrepleto de herramientas de IA y tutoriales para ayudarlo a tener más en la vida fuera de la medicina. ¡Haz que suceda!

Descargo de responsabilidad: la información proporcionada aquí se basa en los datos públicos disponibles y puede no ser completamente precisa o actualizada. Se recomienda contactar a las respectivas empresas/individuos para obtener información detallada sobre características, precios y disponibilidad.

Si quieres más contenido como este, asegúrate de que Suscríbete a nuestro boletín Para obtener actualizaciones sobre las últimas tendencias para AI, tecnología y mucho más.

Peter Kim, MD es el fundador de Ingresos pasivos MDel creador de Academia de Bienes Raíces Passivey ofrece educación semanal a través de su podcast del lunes, el podcast MD Passive Income MD. Únase a nuestra comunidad en el Grupo de Facebook de Passive Income Doc Facebook.

Lectura adicional

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

ChatGPT, Google Gemini y otros modelos de IA están utilizando sus datos para capacitación; aquí le mostramos cómo detenerlo

Published

on

Los modelos de IA se han convertido rápidamente en una parte diaria de la vida para muchos de nosotros. Ya sea que se trate de una consulta rápida con ChatGPT, una inmersión profunda con Gemini o una sesión de imagen con MidJourney, estas herramientas pueden ser útiles en casi todas las situaciones.

Sin embargo, a través de todas estas conversaciones, creaciones de imágenes extrañas y muescas mental, se están generando muchos datos. Esto plantea dos grandes preguntas: ¿Se utilizan todos estos datos en algún lugar y puede optar por no participar?

¿Cómo se utilizan sus datos para la capacitación?

Continue Reading

Noticias

Google Cloud Next 2025: Gemini y actualizaciones de AI de Agente, nuevas TPUS

Published

on

Pichai destacó que Géminis ahora impulsa cada uno de GoogleLos productos de medio billón de usuarios, incluidos siete con más de dos mil millones de usuarios, y se burlaron de la llegada de Gemini 2.5 Flash, un nuevo modelo de baja latencia optimizado para un razonamiento rápido y una rentabilidad.

Thomas Kurian, CEO de Google Cloudexpandido en esta visión: “Lo que alguna vez fue una posibilidad es ahora la realidad vibrante que estamos construyendo colectivamente”.

Kurian reveló que más de cuatro millones de desarrolladores ahora están construyendo con Gemini, mientras que el uso de Vertex Ai ha crecido 20 veces año tras año, impulsado por la creciente adopción de modelos como Gemini, Imagen y VEO.

Este aumento en el uso está respaldado por la vasta infraestructura de Google: 42 regiones, más de dos millones de millas de fibra submarina y terrestre, y más de 200 puntos de presencia a nivel mundial, todos accesibles para las empresas a través del nuevo servicio WAN en la nube.

En todos los modelos de IA, sistemas de agente, redes y seguridad, el mensaje de Google Cloud fue claro: esta no es solo una plataforma de IA; Es un motor de transformación de pila completa para la empresa.

Estos son todos los anuncios principales de Google Cloud Next 2025:

El CEO de Alphabet, Pichai, subió a la etapa de apertura para provocar el próximo modelo en el arsenal Ai de HyperScaler: Géminis 2.5 Flashun modelo de razonamiento de baja latencia. No se reveló un marco de tiempo de lanzamiento específico, pero el CEO dijo que representa una evolución de su popular modelo de caballo de batalla.

Google Cloud también proporcionó una actualización en VEO 2, Un modelo de generación de videos desarrollado por Google DeepMind, revelando que ahora está “listo para la producción” en la API de Géminis.

El modelo puede seguir instrucciones simples y complejas, así como simular la física del mundo real en videos de alta calidad que abarcan una amplia gama de estilos visuales.

Los primeros usuarios incluyen Wolf Games, que está utilizando VEO 2 para construir “experiencias cinematográficas” para su plataforma de juego de historia interactiva personalizada.

https://www.youtube.com/watch?v=-uqle4fmvka

Conozca el nuevo hardware de hipercomutadores: Ironwood

AI HyperComuter de Google Cloud es el caballo de batalla detrás de casi todas las cargas de trabajo de IA en su plataforma en la nube. El sistema de supercomputación integrado ahora presenta el Última iteración de su línea de hardware personalizadaUnidades de procesamiento de tensor (TPU).

Madera de hierroLa TPU de la 7ª generación ofrece 5 veces más capacidad de cómputo pico y 6x la capacidad de memoria de alto ancho de banda (HBM) en comparación con la generación previa, Trillium.

Las nuevas TPU de Ironwood vienen en dos configuraciones: 256 chips o 9,216 chips, cada una disponible como una cápsula de una sola escala, con la vaina más grande que ofrece 42.5 exafultos de cómputo.

El hardware HyperComuter está diseñado para ser 2 veces más eficiente de energía en comparación con Trillium, al tiempo que ofrece más valor por vatio.

Los desarrolladores ahora pueden acceder a Ironwood a través de la pila optimizada de Google Cloud en Pytorch y Jax.

Google Cloud vio al hiperscaler duplicar su AI agente Ofertas, presentando nuevas herramientas para permitir que las empresas construyan, implementen y escalaran sistemas de múltiples agentes.

En el corazón de las actualizaciones estaba la nueva Kit de desarrollo de agentes (ADK)-Un marco de código abierto que permite a los desarrolladores construir agentes de IA sofisticados en menos de 100 líneas de código. Ya está siendo utilizado por marcas como Renault y Revionics para automatizar los flujos de trabajo y la toma de decisiones.

Para implementar estos agentes en producción, Google introdujo Motor de agenteun tiempo de ejecución totalmente administrado en Vertex AI. Admite memoria a corto y largo plazo, herramientas de evaluación incorporadas e integración nativa con la plataforma Agentspace de Google para un intercambio interno seguro.

El segundo gran anuncio de agente fue el Protocolo de Agente2Agent (A2A) – Un estándar de interoperabilidad abierto que permite a los agentes comunicarse y colaborar en diferentes marcos como ADK, Langgraph y Crew.ai. Ya están a bordo más de 50 socios, incluidos Box, ServiceNow, Uipath y Deloitte.

Actualizaciones de redes: Cloud Wan, Reducciones de costos de servicio Gen AI

Las redes en el próximo 2025 se centraron en la escala para la IA y la mejora del rendimiento de la nube.

Un nuevo Interconexión de nube de 400 g e interconexión de nubellegando a finales de este año, promete 4X el ancho de banda para la incorporación de datos más rápidos y el entrenamiento de modelos de múltiples nubes.

Google Cloud también se introdujo Soporte para grupos de IA de hasta 30,000 GPU En una configuración sin bloqueo, ahora disponible en la vista previa, dirigida a sobrealimentar la capacitación y el rendimiento de inferencia.

Se han reducido los costos generativos de servicio de IA hasta hasta un 30%, con mejoras de rendimiento de hasta el 40%, gracias a innovaciones como GKE Inference Gateway.

Google también debutó Nube wanuna columna vertebral empresarial totalmente administrada que abre su infraestructura de red global para redes de área amplia. Diseñado para simplificar y asegurar arquitecturas WAN Enterprise, ofrece un rendimiento hasta un 40% más rápido en comparación con Internet público.

En el borde, Google anunció Programabilidad y rendimiento mejoradoscon extensiones de servicio ahora GA para equilibrio de carga en la nube. Cloud CDN Support está en camino, lo que permite a los desarrolladores personalizar el comportamiento de la aplicación en el borde utilizando estándares abiertos como WebAssembly.

https://www.youtube.com/watch?v=xzgu02ycsvc

Actualizaciones de seguridad: Google Unified Security, agentes de Géminis

La infraestructura empresarial está creciendo en complejidad, ampliando la superficie de ataque y sobrecargando a los equipos de seguridad aislados. ¿La respuesta de Google? Seguridad unificada de Google (Gus), que ahora está generalmente disponible.

Gus está diseñado para unificar la inteligencia de amenazas, las operaciones de seguridad, la seguridad en la nube y la navegación segura en una sola plataforma con IA, integrando la experiencia de la empresa. Mandante Subsidiaria para ofrecer una protección más escalable y eficiente.

La nueva solución de seguridad crea un tejido de datos de seguridad de búsqueda en toda la superficie de ataque, que ofrece visibilidad, detección y respuesta en tiempo real en redes, puntos finales, nubes y aplicaciones. Las señales de seguridad se enriquecen automáticamente con la inteligencia de amenazas de Google, y cada flujo de trabajo se simplifica con sus modelos insignia de IA Gemini.

Google también introdujo Agentes de seguridad con Géminis. Entre las nuevas herramientas de AI de agente incluyen un agente de triaje de alerta en las operaciones de seguridad de Google, que investiga automáticamente alertas, compila evidencia y realiza veredictos.

Un nuevo agente de análisis de malware en Google Amenazing Intelligence evalúa un código potencialmente malicioso, ejecuta scripts de deobfuscación y entrega veredictos con plena explicación. Ambos están previsamente en la Q2.

Asociaciones: Equipo Ups con Nvidia, Juniper, SAP y más

No sería una nube de Google a continuación sin una serie de asociaciones golpeadas o extendidas, y este año no fue diferente.

El hiperscaler amplió su asociación con Lumen Para mejorar las soluciones de nube y de red. El equipo se centrará en integrar WAN en la nube con los servicios de Lumen, proporcionar acceso directo a la fibra a las regiones de Google Cloud y ofrecer conexiones seguras y obtenidas de aire a Google Distributed Cloud.

Google Cloud también unió fuerzas con Nvidia Para llevar su familia Géminis de modelos de IA a los sistemas Blackwell del fabricante de chips. La medida ve que los modelos de Géminis están disponibles en el momento, lo que permite a los clientes bloquear la información confidencial, como los registros de pacientes, las transacciones financieras e información del gobierno clasificada.

“Al llevar nuestros modelos de Géminis en las instalaciones con el rendimiento innovador de Nvidia Blackwell y las capacidades informáticas confidenciales, estamos permitiendo a las empresas desbloquear todo el potencial de la IA agente”, dijo Sachin Gupta, vicepresidente y gerente general de infraestructura y soluciones en Google Cloud.

Sus modelos Géminis también están llegando a SAVIAEl centro de IA generativo en su plataforma de tecnología comercial. La hiperescala también agregó sus capacidades de video e inteligencia del habla para apoyar la generación (RAG) de recuperación multimodal para el aprendizaje basado en video y el descubrimiento de conocimiento en los productos SAP.

También anunciado fue una colaboración con Redes de enebro para acelerar los nuevos despliegues de campus y ramas empresariales. Los clientes podrán usar la solución WAN Cloud WAN de Google junto con Juniper Mist Wired, Wireless, NAC, Firewalls y Secure SD-WAN Solutions, lo que les permite conectar aplicaciones críticas y cargas de trabajo de IA, ya sea en Internet, en nubes o dentro de los centros de datos.

El hiperscaler se asoció con Oráculo Para presentar un programa de socios diseñado para permitir a Oracle y Google Cloud Partners ofrecer Oracle Database@Google Cloud a sus clientes.

Firma de almacenamiento de datos DataDirect Reds (DDN) también se unió a Google Cloud en su servicio de sistema de archivos paralelo de Luster Administrado, que proporciona hasta 1 TB/s de rendimiento para servicios de acceso rápido para empresas y startups que construyen AI y aplicaciones de computación de alto rendimiento (HPC).

Acentuar También amplió su asociación estratégica con Google Cloud, con la pareja comprometida a trabajar juntos para desarrollar soluciones de IA específicas de la industria.

Estas últimas asociaciones se suman a las que se escriben a principios de este año, como con Deutsche Telekom, con la pareja trabajando juntos en AI Avancement and Cloud Integration en la infraestructura de red del operador.

Google Cloud para impulsar la modernización de red de Deutsche Telekom con IA, Cloud

Google Cloud, Infovista unen fuerzas en la planificación de la red de RF

Google Cloud admite DT y Vodafone Italia con Ran-Driven AI y una revisión de datos

Continue Reading

Noticias

Operai golpea a Elon Musk con contador • El registro

Published

on

Operai ha contrarrestado al cofundador Elon Musk, acusándolo de tácticas ilegales e injustas para descarrilar sus planes de reestructuración y exigir que un juez lo responsabilice por el daño presuntamente infligido en la AI Super-Lab.

El contador considerable [PDF] y la respuesta a las afirmaciones de Musk se presentó ayer en el Tribunal Federal de California. Si bien acusa al magnate de Tesla de una amplia gama de comportamientos destinados a socavar las operaciones de OpenAI, incluido “acoso, interferencia y información errónea”, las dos reclamaciones de alivio de la Contadora se concentran en el intento de febrero de Musk para comprar el fabricante de ChatGPT por $ 97.375 mil millones. Si bien el equipo de Musk ha retratado la oferta como genuina, los abogados de OpenAi lo llaman algo completamente diferente.

En lugar de una oferta de adquisición seria, OpenAI afirma que la medida de Musk fue una “simulada” diseñada “para interferir con la reestructuración corporativa contemplada de OpenAI”. Musk ya no está involucrado en OpenAi y dirige un atuendo de inteligencia artificial rival, Xai, entre otros negocios.

“La carta no incluía evidencia de financiamiento para pagar el precio de compra de casi $ 100 mil millones”, dijo Openai en su presentación de contadores, y agregó que ninguno de los inversores enumerados en la carta de intención de Musk había hecho ninguna diligencia debida. Más tarde, un inversor admitió, según los registros de la corte, que la intención de Musk era obtener acceso a los materiales internos de Openi a través de los procedimientos legales y “detrás de la pared” en el Super Lab de respaldo de Microsoft.

“Aunque OpenAi reconoció la oferta como una finta, su mera existencia, y la tormenta de fuego de los medios que lo rodean, requirió OpenAi para gastar recursos significativos en la respuesta”, dijo el gigante de la IA.

Es ese esfuerzo, y la llamada “oferta simulada”, lo que llevó a OpenAi a acusar a Musk de prácticas comerciales injustas y fraudulentas, así como una interferencia tortuosa con prospectivo ventaja económica (es decir, cuando un tercero interrumpe un posible acuerdo en detrimento del demandante).

Operai está buscando un alivio cautelar para detener la supuesta interferencia y restitución de Musk por los recursos que, según los que afirma, respondieron a su oferta.

Le preguntamos a OpenAi qué esperaba lograr, y nos dirigió a la presentación de la corte y a sus comentarios realizados en la X de Musk, donde el negocio AI dijo que el contador estaba destinado a detener sus “tácticas de mala fe para reducir la velocidad de OpenAi y aprovechar el control de las innovaciones principales de la IA para su beneficio personal”.

[Musk] Intenté confiscar el control de OpenAi y fusionarlo con Tesla como un fin de lucro: sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, se quedó

“Elon nunca ha sido sobre la misión. Siempre ha tenido su propia agenda”, continuó Openai. “Trató de confiscar el control de OpenAi y fusionarlo con Tesla como una con fines de lucro: sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, se fue”.

La muy breve historia de una disputa multimillonaria

Para aquellos que han hecho todo lo posible para ignorar la disputa del jefe de Musk y Operai, Sam Altman, puede ser necesaria un poco de historia.

Musk fue uno de los cofundadores de OpenAi, pero se asaltó en 2018 luego de desacuerdos internos sobre el control y la dirección estratégica. Operai alega que el Oligarch SpaceX propuso fusionarse OpenAi con Tesla (que tiene objetivos autónomos impulsados ​​por IA) o buscó un control total, que el equipo de Altman rechazó, lo que llevó a su salida.

En un momento, el liderazgo de Openi temía que Musk se convertiría en un “dictador” de AGI, o poderosa inteligencia general artificial, si se le permitiera un control completo sobre el laboratorio, a juzgar por correos electrónicos surgió durante esta batalla legal.

“Usted declaró que no desea controlar el AGI final, pero durante esta negociación, nos ha demostrado que el control absoluto es extremadamente importante para usted”, escribió Musk, cofundador y mega-boffin Ilya Sutskever. “El objetivo de OpenAi es hacer el futuro el futuro y evitar una dictadura AGI”.

En marzo de 2024, Musk demandó a Openai y Altman alegando incumplimiento de contrato, prácticas comerciales injustas y fallas fiduciarias relacionadas con la estrecha asociación de OpenAI con Microsoft y el establecimiento de una subsidiaria con fines de lucro. (Openai comenzó como una organización sin fines de lucro).

Musk retiró esta demanda en junio del año pasado sin proporcionar una razón pública, pero presentó una casi idéntica un par de meses después. Afirmó el cambio de OpenAi hacia un modelo con fines de lucro contradecía su misión original de desarrollar IA en beneficio de la humanidad.

El equipo legal de Openai describió la queja de Musk como “Lurch[ing] De la teoría a la teoría, distorsione[ing] sus propias exhibiciones y comercio[ing] De principio a fin en conclusiones sin hechos y a menudo ad hominem “.

Operai niega que se esté convirtiendo en una empresa única con fines de lucro, afirmando en su contratación que su plan de reestructuración solo vería que su subsidiaria con fines de lucro se convirtió en una corporación de beneficios público. Ese movimiento es necesario, afirmado Openai, para permitir que el equipo compita mejor por el capital “al servicio de la misión de desarrollar AGI en beneficio de la humanidad”. Dicho esto, Operai continúa recaudando decenas de miles de millones de dólares en fondos, $ 40 mil millones tan recientemente como finales de marzo.

Un portavoz de Operai le dijo además El registro No tenía intención de abandonar su núcleo sin fines de lucro.

“Nuestra junta ha sido muy clara de que tenemos la intención de fortalecer la organización sin fines de lucro para que pueda cumplir su misión a largo plazo”, nos dijo Openai. “No lo estamos vendiendo, estamos duplicando su trabajo”.

Operai también nos señaló el anuncio de la semana pasada de una comisión que comprende expertos en salud, ciencia, educación y servicios públicos para guiar la evolución planificada de las ORG.

“Esperamos los aportes y los consejos de los líderes que tienen experiencia en organizaciones comunitarias sobre cómo podemos ayudarlos a lograr sus misiones”, dijo Openai en un comunicado enviado por correo electrónico.

Sin embargo, OpenAi tiene que completar su transición a una entidad con fines de lucro a fines de 2025 para asegurar que los $ 40 mil millones mencionados anteriormente en fondos dirigidos por SoftBank.

Es probable que la demanda de Musk solo desacelere, especialmente porque el juicio, según una orden previa al juicio esta semana, no se debe comenzar hasta marzo de 2026.

Ni Musk, famoso ahora, la grasa Eminence del presidente Trump, ni su equipo legal respondieron a preguntas para esta historia. ®

Continue Reading

Trending