Noticias
Clunker to Cash: cómo ChatGPT vendió mi automóvil por más de lo que vale
Published
7 meses agoon

“Deberíamos poder arreglarlo por unos 3.000 dólares”.
Estas no son las palabras que desea escuchar de su mecánico después de una puesta a punto de rutina. Pero ahí estaba yo, descubriendo que mi auto necesitaba una nueva junta de culata y tal vez también un nuevo inyector de combustible. Mi Ford Escape 2011 acaba de pasar de ser un automóvil familiar confiable a una chatarra certificada.
Después de hacer los cálculos, parecía bastante claro que lo mejor que podía hacer no era reparar el auto, sino venderlo. Desafortunadamente, un automóvil con problemas importantes en el motor no es lo más fácil de vender. De hecho, cuando busqué cotizaciones en sitios como Carvana, parecía que podía esperar obtener entre 500 y 600 dólares por él, esencialmente vendiéndolo como chatarra.
Pero después de pensarlo un poco, decidí que no estaría de más ponerlo a la venta. Mi esperanza era que alguien comprara el auto con la intención de arreglar el motor ellos mismos, ya sea consiguiendo un trato para reparar la parte superior o incluso ganando dinero rápido entregando el auto reparado. Lo peor que podía pasar era que nadie lo comprara.
Pero vender un automóvil con problemas de motor es todo un desafío y requiere un anuncio bien elaborado. Con un poco de trabajo, estoy seguro de que podría escribir un anuncio que hiciera el trabajo, pero este auto ya me estaba causando suficientes problemas, así que decidí ver qué podía hacer la IA.
¿Podría la IA vender mi coche?
Mi querido cacharro, un Ford Escape 2011 (Crédito: Brian Westover)
La herramienta: ChatGPT (pero cualquier chatbot de IA importante servirá)
Para este experimento, recurrí a ChatGPT. Aunque estoy seguro de que puede haber herramientas GPT personalizadas para escribir anuncios clasificados o vender automóviles, normalmente me limito a las funciones básicas de una cuenta gratuita.
Y como todo lo que realmente quería era un anuncio escrito que pudiera usar en Craigslist y Facebook Marketplace, ChatGPT normal era más que adecuado para la tarea.
Lo bueno de esto es que puedes hacer lo mismo sin siquiera registrarte para obtener una cuenta. El modelo GPT-4o de OpenAI es de uso gratuito para un número limitado de indicaciones, pero incluso el GPT-3.5, menos capaz, está a la altura de esta tarea. Y si prefieres otro asistente de IA, como Google Gemini o Microsoft Copilot, prácticamente todos son capaces de hacer lo mismo.
Si usted en realidad Si no desea utilizar el sitio o la aplicación de OpenAI, ni registrarse para nada más, puede acceder a la misma herramienta de forma privada a través de Chat anónimo de IA de DuckDuckGoque te brinda acceso gratuito a ChatGPT-4o, junto con Claude 3 Haiku y modelos de código abierto como Llama 3.1 70B y Mixtral 8x7B.
El tutorial: desde las especificaciones hasta el anuncio terminado
Una buena regla general para obtener buenos resultados con ChatGPT es traer su propia información. En este caso, esa fue información básica sobre mi auto. Aunque tenía una lista de especificaciones que cubrían detalles como el tamaño del motor, el tipo de interior y similares, esa era información que podía copiar y pegar sin necesidad de formatearla. Lo que quería era un anuncio escrito que pudiera copiar y pegar para usarlo en anuncios clasificados locales, o en Craigslist y Facebook Marketplace.
(Crédito: OpenAI/Brian Westover)
No es el mensaje más cuidadosamente redactado, pero tiene dos elementos clave: una solicitud clara (escriba un anuncio de Craigslist) y los detalles relevantes. ¿Podría haber dedicado tiempo a especificar cosas como el formato y el tono? Claro, pero las indicaciones simples tienen la ventaja de ser más rápidas de escribir.
(Crédito: OpenAI/Brian Westover)
La respuesta es bastante buena desde el principio. A pesar de mi sugerencia minimalista, me dio más o menos lo que quería e incluía la información que proporcioné sobre el modelo, el kilometraje y las necesidades de reparación. El formato es demasiado y el tono se siente un poco forzado, pero ya hemos recorrido el 80% del camino después de solo un mensaje. Todo lo que queda es ajustar las cosas un poco más.
(Crédito: OpenAI/Brian Westover)
Aquí me remito a mi primer mensaje, ya que ya tiene los detalles que necesitaba. Aquí es también cuando abordo el tono, lo cual es más fácil de hacer como corrección después del hecho que discutir proactivamente en mi primera sugerencia.
(Crédito: OpenAI/Brian Westover)
Estas correcciones menores dieron como resultado una versión mejorada del anuncio, que habla directamente sobre el historial de mantenimiento general del automóvil e incluso amplía un poco la sección sobre para quién es perfecto el automóvil.
(Crédito: OpenAI/Brian Westover)
Dejando a un lado el texto del anuncio por un momento, dejé que la IA pensara un poco por mí y me preguntara sobre los precios. No lo necesitaba para hacer cálculos simples (y puedes ver en el resaltado por qué no deberías hacerlo), pero usarlo como caja de resonancia fue útil cuando descubrí cómo quería ponerle precio a mi auto. La capacidad de desviarse sobre un tema relacionado y luego volver al asunto en cuestión es otra excelente manera de utilizar la interfaz de chat. Pero al mantenerlo todo dentro de la misma conversación, se agrega más información y contexto para que lo use la IA, lo cual también es útil.
(Crédito: OpenAI/Brian Westover)
Pero este también es un gran ejemplo de dónde muchas herramientas de IA fracasan. La línea resaltada allí habla del precio de las reparaciones y el precio de las piezas, pero aplica exactamente la lógica equivocada. Las piezas eran una pequeña parte de los costos totales de reparación que me habían cotizado, pero ChatGPT asumió que se suponía que los números se sumarían. ¡Qué bueno que puedo hacer mis propios cálculos!
¿Por qué sucede esto? Porque no es un modelo matemáticoes un modelo de lenguaje. La versión básica que utilicé en este ejemplo no está diseñada para manejar matemáticas y números, y no siempre es buena en lógica, ya que a veces hace las cosas exactamente al revés. Incluso cuando las matemáticas cuadran, la lógica puede estar sesgada. tu siempre, siempre Es necesario revisar lo que produce la IA y estar atento a este tipo de errores.
Al final, bajé el precio e incluso agregué “o mejor oferta”, ya que estaba tratando de vender un vehículo que necesitaba reparaciones.
(Crédito: OpenAI/Brian Westover)
Aquí reiteré que lo quería en un formato que funcionara para Craigslist y Facebook, pero no fue hasta después que me di cuenta de que quería algo específico.
El formato de ida y vuelta de la interfaz de chat hace que explorar este tipo de solicitudes poco entendidas sea mucho más fácil, ya que solo se necesita otro mensaje para probar otra cosa.
(Crédito: OpenAI/Brian Westover)
ChatGPT agregó la nueva información de precios y actualizó el anuncio con algunas notas relevantes, ¡y esta vez incluso acertó con la lógica! Curiosamente, puedes ver que la redacción cambia un poco con cada pasada, en lugar de editar solo la sección relevante del texto. Las revisiones aún funcionan, pero en muchos casos, verá algo que desea usar en un borrador inicial que desaparece a medida que intenta refinar otros elementos. Es una buena idea revisar cada iteración, ya que la mayoría de las herramientas de inteligencia artificial generarán una copia nueva con cada ajuste.
Y aunque me gusta el texto en general, todavía existe el problema del formato. Será mejor que limpie eso.
Recomendado por nuestros editores
(Crédito: OpenAI/Brian Westover)
(Crédito: OpenAI/Brian Westover)
Y está la versión reformateada del texto, que más o menos incluye todos los elementos clave que pedí en el transcurso de la conversación.
En solo cinco pasos tenía un anuncio completo, listo para funcionar. No solo abordaba la necesidad general (vender un automóvil), sino que también se adaptaba a mis circunstancias específicas, incluía precios razonables y tenía los detalles relevantes, todo en un formato listo para copiar y pegar. ¡Bastante bueno para menos de 10 minutos de trabajo!
Pero la verdadera pregunta es si ese anuncio realmente me ayudaría a vender mi auto.
(Crédito: Brian Westover)
Fui a Craigslist y Facebook, usando ese anuncio y la lista detallada de especificaciones que ya tenía. Agregue algunas fotos de mi auto y viola, la venta había comenzado.
Ojalá pudiera decir que mi maravilloso anuncio me hizo mágicamente inmune a las docenas de estafadores que rondan los anuncios clasificados como buitres, pero no fue así. Todavía tuve que lidiar con estafas de búsqueda de VIN, compradores poco entusiastas, personas de poca monta y mirones, pero al final de la semana tenía algunos compradores potenciales haciendo cola para ver el auto. De ellos, dos realmente se presentaron para ver el auto y uno me hizo una oferta.
Después de algunas negociaciones y regateos, ellos se quedaron con el auto y yo con $2,300. No son exactamente los $ 3,000 que esperaba, pero sí un poco más de los $ 600 que inicialmente pensé que obtendría.
¿Qué puede vender ChatGPT para usted?
Escribir un texto de anuncio simple como este es el tipo de tarea para la que se crearon los LLM. Al proporcionar solo un poco de información objetiva y ser específico en su solicitud, puede pasar de cero a estar listo para publicar más rápido de lo que la mayoría de las personas pueden buscar cómo se ve un buen anuncio de autos usados.
Pero lo que funciona para vender un automóvil funcionará para vender casi cualquier cosa. Esta técnica también podría aplicarse a cosas como listados de Ebay, anuncios de bienes raíces, ofertas de trabajo y más. Algunas personas incluso utilizan técnicas similares para escribir sus perfiles de citas en sitios como Tinder.
A medida que avanzan los experimentos, éste tuvo bastante éxito. ¡No sólo vendió mi auto, sino que también puso algo de dinero extra en mi bolsillo! Pero creo que mi parte favorita fue lo fáciles que hicieron las partes del proceso que normalmente son aburridas y lo súper sencillo que fue adaptar todo a mis necesidades. Si está buscando optimizar sus propias tareas aburridas, este proceso debería ayudarlo a realizar el trabajo.
¿Cómo utilizas la IA para hacerte la vida más fácil? Comparte tus mejores trucos inteligentes en los comentarios a continuación.
¡Obtenga nuestras mejores historias!
Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras historias principales en su bandeja de entrada todas las mañanas.
Este boletín puede contener publicidad, ofertas o enlaces de afiliados. La suscripción a un boletín indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.
Acerca de Brian Westover
Analista principal, hardware

Si buscas consejos para comprar una computadora portátil, soy tu hombre. Desde revisiones de PC hasta pruebas de Starlink, tengo más de una década de experiencia revisando PC y productos tecnológicos. Comencé con PCMag pero también escribí para Tom’s Guide y LaptopMag.com, y varios otros medios tecnológicos. Con un enfoque en informática personal (Windows, macOS y ChromeOS), Internet satelital Starlink y herramientas de productividad de IA generativa, soy un nerd tecnológico profesional y un usuario avanzado de principio a fin.
Lea la biografía completa de Brian.
Lea lo último de Brian Westover
You may like
Noticias
Su asistente de Google Gemini está obteniendo 8 características útiles: aquí está el registro de actualizaciones
Published
20 minutos agoon
20 mayo, 2025
Google Gemini ya ofrece una gran cantidad de capacidades útiles. Desde generar texto y crear imágenes hasta conversaciones en vivo, investigaciones profundas y analizar archivos, la IA de Google ha demostrado ser un fuerte contendiente en el campo de IA.
También: Todo anunciado en Google I/O 2025: Gemini, Search, Android XR y más
En Google I/O 2025 el martes, la compañía reveló una serie de características nuevas y mejoradas ahora disponibles con su asistente de IA.
1. Nuevos planes Google AI Pro y Ultra
Primero hay dos nuevas suscripciones de Google AI que ofrecen más funciones, pero naturalmente vienen con sus propios precios.
El primer plan se conoce como Google AI Pro, que en realidad es el mismo plan de AI Premium que ha existido por un tiempo solo con un nuevo nombre. Todavía con un precio de $ 20 por mes, AI Pro ofrece las mismas funciones de IA disponibles con la versión gratuita de Gemini, pero agrega límites de tarifa más altos y características especiales.
AI Pro también incluye la aplicación Gemini anteriormente conocida como Gemini Advanced, junto con productos como NotebookLM y el nuevo editor de video de AI Flow. Esas dos características llegarán a los suscriptores de AI Pro primero en los EE. UU. Y luego se expandirán a otros países.
Los estudiantes universitarios en los Estados Unidos, el Reino Unido, Brasil, Indonesia y Japón pueden obtener un año escolar gratuito de Google AI Pro.
Si necesita más potencia y características y está dispuesto a gastar mucho dinero, también hay un plan de Google Al Ultra. Este ofrece los modelos más poderosos, los límites de tarifa más altos y el acceso temprano a las características experimentales de AL.
También: Google presenta su suscripción de AI Ultra de $ 250 por mes: lo que está incluido
Como ejemplo, el Ultra Plan le otorgará acceso temprano al modo de agente, una nueva herramienta de agente basada en escritorio que llevará a cabo tareas para usted. Simplemente describa su solicitud o pregunta; En respuesta, el agente navega por la Web, realiza su propia investigación y se integra con sus aplicaciones de Google para abordar tareas complejas de varios pasos de principio a fin.
El Ultra Plan cuesta $ 250 al mes, aunque los suscriptores por primera vez obtienen un 50% de descuento durante los primeros tres meses.
2. Géminis en vivo
El siguiente es Gemini Live, el práctico modo de chat en el que llevas una conversación de voz de ida y vuelta con la IA. Anteriormente, solo los usuarios de Android podían compartir su pantalla o vista de cámara y hacer preguntas de Gemini al respecto. Ahora, Google está expandiendo esta función para que los usuarios de Android e iOS puedan usar la cámara y el intercambio de pantalla.
También: el intercambio de pantalla en vivo de Gemini y la cámara ahora están disponibles para todos, gratis
Para probar esto, abra la aplicación Gemini en su dispositivo iPhone o Android y toque el icono de Gemini Live a la derecha de la solicitud. El icono de la cámara en la parte inferior le permite apuntar su teléfono en cualquier objeto o escena y pedirle a Gemini que lo describiera o responda preguntas al respecto. El segundo icono le permite compartir cualquier pantalla en su dispositivo para que Gemini analice.
Hay más: en las próximas semanas, Gemini Live funcionará con otras aplicaciones y servicios de Google, incluidos los mapas de Google, el calendario, las tareas y el mantenimiento. Esto significa que podrá pedirle a Gemini Live que realice tareas tales como crear una cita de calendario o proporcionar instrucciones a su próximo destino.
3. Imagen 4 Generación de imágenes
Anteriormente, Google usó su modelo Imagen 3 para generar imágenes basadas en sus descripciones. Ahora, la compañía se ha actualizado a Imagen 4, que según él ofrecerá un rendimiento más rápido, más detalles realistas y una mejor producción de texto. Cualquiera ahora podrá probar Imagen 4 a través de la aplicación móvil Gemini.
4. Veo 3 Generación de videos
También recibe una actualización es el generador de video VEO de Gemini. Avanzando de VEO versión 2, VEO 3 ofrece una generación de audio nativa con soporte para el diálogo entre personajes, ruidos de fondo y efectos de sonido. Como Google lo describe, ahora puede agregar cualquier cosa, desde los sonidos de la ciudad bulliciosos hasta el susurro de las hojas hasta el diálogo del personaje solo desde sus descripciones de texto. La barrera principal aquí es que VEO 3 estará disponible solo para Google AI Ultra suscriptores en los EE. UU.
5. Mejoras de lienzo
La herramienta Canvas de Google le ofrece un espacio de trabajo interactivo y colaborativo en el que puede crear código, diseñar páginas web e idear otro contenido visual, con los resultados que aparecen de lado a lado en tiempo real. Utilizando el último modelo Gemini 2.5, Canvas promete ser más intuitivo y poderoso, según Google.
También: Google Beam está listo para traer videoconferencia 3D convencional
Puede crear infografías interactivas, cuestionarios y descripciones de audio al estilo de podcast en cualquiera de los 45 idiomas. Con las habilidades de codificación de Gemini 2.5 Pro, Canvas ahora es más experto en convertir sus ideas en código real, lo que le ayuda a desarrollar aplicaciones completas.
6. Tamizios interactivos
¿Tratando de aprender un nuevo tema complicado? Géminis puede ayudar. Ahora puede pedirle a la IA que cree un cuestionario sobre su tema de interés. En respuesta, Gemini lo desafía con una serie de preguntas diseñadas para expandir su conocimiento. A medida que responde a cada pregunta, la IA le dirá cómo está y se concentrará en cualquier área que necesite atención especial. Esta característica ahora se está implementando en todos los usuarios de Gemini en los dispositivos de escritorio y móviles.
7. Géminis en Chrome
Hasta el miércoles, Gemini comenzará a aparecer en Chrome en el escritorio tanto en Windows como en MacOS. Aquí, podrá pedirle a Gemini que analice o responda preguntas sobre su página web actual. En el futuro, la IA también funcionará a través de múltiples pestañas e incluso lanzará diferentes sitios web para usted.
También: Conoce a Gemini-in Chrome, tu nuevo asistente de navegación de IA, aquí es quién lo usa
Suena útil, pero el acceso será limitado. Gemini-in Chrome estará disponible solo para los suscriptores de Google Al Pro y Google Al Ultra en los EE. UU. Que usan el inglés como idioma en el navegador.
8. Investigación profunda
Finalmente, el modo de investigación profunda de Gemini es una herramienta de agente que puede realizar una investigación en línea para usted y presentar los resultados en un informe detallado, por sí solo. Anteriormente, Deep Research solo pudo consultar a los sitios web para obtener la información que necesitaba. Ahora, también puede ver sus propios PDF e imágenes. Esto significa que podría decirle a Gemini que incluya tendencias y temas que ya han sido capturados en sus propios archivos personales o de trabajo.
En un ejemplo citado por Google, un investigador de mercado podría cargar cifras de ventas internas almacenadas en un PDF para referencias cruzadas con las tendencias del mercado público. En otro ejemplo, un investigador académico podría decirle a Gemini que consulte a los artículos de revistas descargados para agregar a una revisión de la literatura en línea. Como un elemento más, Google dijo que planea integrar una investigación profunda con Google Drive y Gmail para expandir el número de fuentes disponibles.
También: Google le da al video generado por IA una voz con VEO 3 – Cómo probarlo
Vaya, eso es mucho para desempacar. Pero con AI impactando cada vez más tanto individuos como organizaciones, Google está demostrando que está tratando de mantenerse competitivo. E incluso con la nueva y costosa suscripción Ultra, hay suficiente aquí para los usuarios gratuitos de Gemini y los suscriptores de AI Pro para tratar de ver si pueden aprovechar los últimos desarrollos y cómo y cómo.
¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.
Noticias
Operai gana la demanda por difamación presentada por el activista de los derechos de las armas sobre reclamos de malversación de fondos alucinados
Published
10 horas agoon
20 mayo, 2025
En la decisión de ayer por el juez Tracie Cason (Georgia Super. Ct. Gwinnett County) en Walters v. Openai, LLCel activista de los derechos de armas Mark Walters demandó a OpenAi después de que el periodista Frederick Riehl (“editor de Ammoland.com, un sitio de noticias y defensa relacionada con los derechos de la Segunda Enmienda”) recibió una alucinación generada por IA de Chatgpt que alegaba que Walters estaba siendo demandado por presunta presunta sobresslemento. El tribunal otorgó un juicio sumario de OpenAI, concluyendo que OpenAi debe prevalecer “por tres razones independientes”:
[1.] En Contexto, un lector razonable no habría entendido las acusaciones “podrían ser” razonablemente entendidas que describen hechos reales “,”, “,” que es un elemento clave de un reclamo de difamación. El Tribunal no concluyó que OpenAi y otras compañías similares son categóricamente inmunes cada vez que incluyen un descargo de responsabilidad, sino que declaró que “el descargo de responsabilidad o el lenguaje de advertencia pesan en la determinación de si este objetivo objetivo, el estándar de ‘lector razonable’ se cumple”, y que “en las circunstancias presentes aquí, un lector razonable en la posición de Riehl no podría haber concluido que el chatgptutputppppput en la comunicación ” en realidad ‘: las hechos reales’ en realidad ” en realidad ”.
{Riehl pegó secciones del Fergusón queja [a Complaint in a civil case that Riehl was researching] en Chatgpt y le pidió que resumiera esas secciones, que hizo con precisión. Riehl luego proporcionó un enlace de Internet, o URL, a la queja a ChatGPT y le pidió que resumiera la información disponible en el enlace. ChatGPT respondió que “no tenía acceso a Internet y no puede leer ni recuperar ningún documento”. Riehl proporcionó la misma URL nuevamente. Esta vez, Chatgpt proporcionó un resumen diferente e inexacto del Fergusón Queja, diciendo que implicaba acusaciones de malversación de malversación por parte de un tesorero y director financiero no identificado de SAF. Riehl nuevamente proporcionó la URL y le preguntó a ChatGPT si podía leerla. Chatgpt respondió “sí” y nuevamente dijo que la queja involucraba acusaciones de malversación de fondos; esta vez, dijo que el malversador acusado era un individuo llamado Mark Walters, quien Chatgpt dijo que era el tesorero y director financiero de la SAF.}
En esta interacción específica, ChatGPT advirtió a Riehl que no podía acceder a Internet o acceder al enlace al Fergusón Queja que Riehl le proporcionó y que no tenía información sobre el período de tiempo en el que se presentó la queja, que fue después de su “fecha de corte de conocimiento”. Antes de que Riehl proporcionara el enlace a la queja, ChatGPT resumió con precisión el Fergusón Queja basada en el texto riehl ingresada. Después de que Riehl proporcionó el enlace, y después de ChatGPT inicialmente advirtió que no podía acceder al enlace, ChatGPT proporcionó un resumen completamente diferente e inexacto.
Además, los usuarios de ChatGPT, incluido Riehl, fueron advertidos repetidamente, incluso en los términos de uso que gobiernan las interacciones con ChatGPT, que ChatGPT puede y a veces proporciona información fácticamente inexacta. Un usuario razonable como Riehl, que era consciente de la experiencia pasada que ChatGPT puede y sí proporciona “respuestas ficticias planas”, y quién había recibido las repetidas renuncias que advierte que la producción equivocada era una posibilidad real, no habría creído que el resultado estaba diciendo “hechos reales” sobre Walters sin intentar verificarlo …
Eso es especialmente cierto aquí, donde Riehl ya había recibido un comunicado de prensa sobre el Fergusón Queja y tuvo acceso a una copia de la queja que le permitió verificar de inmediato que la salida no fuera verdadera. Riehl admitió que “en aproximadamente una hora y media” había establecido que “lo que sea [Riehl] estaba viendo “en la producción de Chatgpt” no era cierto “. Como Riehl testificó, él ” entendió que la máquina fantaseaba por completo. …
Por separado, es indiscutible que Riehl en realidad no creyera que el Fergusón La queja acusó a Walters de malversación de la SAF. Si el individuo que lee una declaración desafiada no cree subjetivamente que sea real, entonces la declaración no es difamatoria como una cuestión de derecho.… [Riehl] Sabía que Walters no era, y nunca había sido, el tesorero o director financiero de la SAF, una organización para la cual Riehl sirvió en la junta directiva …
[2.a.] El tribunal también concluyó que Walters no podía mostrar ni siquiera negligencia Por parte de Operai, que se requiere para todas las reclamaciones de difamación sobre asuntos de preocupación pública:
El Tribunal de Apelaciones ha sostenido que, en un caso de difamación “,[t]El estándar de conducta requerido de un editor … se definirá por referencia a los procedimientos de un editor razonable en [its] El puesto habría empleado antes de publicar [an item] como [the] uno [at issue. A publisher] será mantenido a la habilidad y experiencia normalmente ejercida por miembros de [its] profesión. La costumbre en el comercio es relevante pero no controladora “. Walters no ha identificado evidencia de qué procedimientos un editor razonable en la posición de Openal habría empleado en función de la habilidad y la experiencia que normalmente ejercen los miembros de su profesión. Tampoco Walters ha identificado ninguna evidencia que OpenAI no cumpliera con este estándar.
Y Openai ha ofrecido evidencia de su experto, el Dr. White, que Walters no refutó ni se abordó, lo que demuestra que Operai lidera a la industria de la Liga Americana al intentar reducir y evitar la producción equivocada como la producción desafiada aquí. Específicamente, “Openai ejerció un cuidado razonable en el diseño y la liberación de Chatgpt basado en ambos (1) los esfuerzos líderes en la industria OpenAi emprendió para maximizar la alineación de la producción de ChatGPT a la intención del usuario y, por lo tanto, reducen la probabilidad de alucinamiento; y (2), proporcionando a las advertencias recurrentes a los usuarios sobre la posibilidad de alucinaciones en la producción de Chatgpt. ChatGPT y los diversos LLM que OpenAI ha puesto a disposición de los usuarios a través de ChatGPT. Operai también ha tomado medidas extensas para advertir a los usuarios que ChatGPT puede generar resultados inexactos a veces, lo que niega aún más cualquier posibilidad de que Walters pueda mostrar OpenAi fue negligente …
Ante esta evidencia indiscutible, el abogado de Walters afirmó el argumento oral de que OpenAi era negligente porque “un hombre prudente se encargaría de no desatar un sistema en el público que forme declaraciones falsas aleatorias sobre los demás … En otras palabras, el abogado de Walters argumentó que debido a que ChatGPT es capaz de producir una producción errónea, OpenAi tuvo la culpa simplemente al operar ChatGpt en absoluto, sin tener en cuenta los procedimientos de un editor razonable en [OpenAl’s] el puesto habría empleado “o a la” habilidad y experiencia normalmente ejercida por miembros de [its] profesión. “El tribunal no es persuadido por el argumento del demandante.
Walters no ha identificado ningún caso que tenga en cuenta que un editor es negligente como una cuestión de ley de difamación simplemente porque sabe que puede cometer un error y por una buena razón. Tal regla impondría un estándar de responsabilidad estricta, no negligencia, porque sería responsable de OpenAi por lesiones sin ninguna “referencia a” un grado razonable de habilidad y cuidado “medido contra una determinada comunidad”. La Corte Suprema de los Estados Unidos y la Corte Suprema de Georgia han sostenido claramente que un demandante de difamación debe demostrar que el acusado actuó con “al menos negligencia ordinaria” y puede no responsabilizar a un acusado “sin culpa”. …
[2.b.] El tribunal también concluyó que Walters era una figura pública y, por lo tanto, tuvo que mostrar no solo negligencia, sino también Falsidad Conocer o imprudente por parte de OpenAi (llamada “malicia real”):
Walters califica como una figura pública dada su prominencia como presentador de radio y comentarista sobre los derechos constitucionales, y la gran audiencia que ha construido para su programa de radio. Admite que su programa de radio atrae a 1,2 millones de usuarios por cada segmento de 15 minutos y se llama a sí mismo ” la voz más fuerte en Estados Unidos que lucha por los derechos de las armas “. Como el demandante en Williams v. Trust Company of Georgia (Ga. App.), Walters es una figura pública porque ha “recibido publicidad generalizada por sus derechos civiles … actividades”, tiene “su propio programa de radio”, ” llevó su causa a la gente a pedir el apoyo del público “, y es” franco sobre asignaturas de interés público “. Además, Walters califica como una figura pública porque tiene” una oportunidad más real para contrarrestar falsas declaraciones falsas que las personas privadas que normalmente disfrutan de las personas que normalmente se disfrutan de la radio de radio con una gran audiencia con una gran audiencia de radio con una gran audiencia con un audiencia de radio. Las declaraciones de chatgpt falsas en cuestión aquí … [And] Como mínimo, Walters califica como una figura pública de propósito limitado aquí porque estas declaraciones son claramente “pertinentes” a la “participación” admitida de Walters en los “controversos públicos[ies]”que están relacionados con la salida de chatgpt en cuestión aquí …
Los dos argumentos de Walters de que ha demostrado malicia real. Primero, argumenta que Operai actuó con “malicia real” porque OpenAi dijo a los usuarios que ChatGPT es una “herramienta de investigación”. Pero esta afirmación no se relaciona de ninguna manera con si OpenAi sabía subjetivamente que la producción de ChatGPT desafiada era falsa en el momento en que se publicó, o ignoraba imprudentemente la posibilidad de que pudiera ser falso y lo publicara de todos modos, que es lo que requiere el estándar de “malicia real”. Walters no presenta evidencia de que alguien en OpenAi tuviera forma de saber que la producción que recibió probablemente sería falsa … [The] El estándar de “malicia real” requiere prueba de la “conciencia subjetiva del acusado de la falsedad probable” …
En segundo lugar, Walters parece argumentar que Operai actuó con “malicia real” porque es indiscutible que OpenAi era consciente de que ChatGPT podría cometer errores al proporcionar salida a los usuarios. El mero conocimiento de que un error fue posible Se encuentra muy por debajo de la “evidencia clara y convincente” requerida de que OpenAi en realidad “tenía una conciencia subjetiva de la falsedad probable” cuando ChatGPT publicó la producción cuidada específica en sí …
[3.] Y el tribunal concluyó que en cualquier caso Walters tuvo que perder porque (a) no podía mostrar daños reales, (b) No pudo recuperar presuntos daños, porque aquí la evidencia refuta cualquier presunción de daño, dado que Riehl era la única persona que vio la declaración y no lo creyó, y (c) bajo la ley de Georgia “,”.[A]LL Libel Demandantes que tienen la intención de buscar daños punitivos [must] Solicite una corrección o retracción antes de presentar su acción civil contra cualquier persona para publicar una declaración falsa y difamatoria “, y no se hizo dicha solicitud aquí.
Una decisión interesante, y bien podría ser correcta (ver mi Modelos de difamación grandes Artículo para la imagen legal más grande), pero está vinculado estrechamente a sus hechos: en otro caso, donde el usuario no tenía tantas señales de que la afirmación sea falsa, o cuando el usuario distribuyó más ampliamente el mensaje (que puede haber producido más daños), o cuando el demandante no fue una cifra pública, o cuando el demandante había alertado al demandante del demandante y aún no lo hizo a la demandante que no lo hizo, el resultado, el resultado. Para comparar, consulte el Starbuck v. Meta Platforms, Inc. Caso discutido en esta publicación de hace tres semanas.
Tenga en cuenta que, como es común en los tribunales de algunos estados, la decisión adopta en gran medida una orden propuesta presentada por la parte que prevaleció sobre la moción de juicio sumario. Por supuesto, el juez ha aprobado la orden y está de acuerdo con lo que dice (ya que podría haber editado fácilmente partes con las que no estaba de acuerdo); Pero el encuadre retórico en tales casos a menudo es más el de la parte prevaleciente que la del juez.
Operai está representado por Stephen T. Labriola y Ethan M. Knott (Fellows Labriola LLP); Ted Botrous, Orin Snyder y Connor S. Sullivan (Gibson, Dunn & Crutcher LLP); y Matthew MacDonald (Wilson Sonsini Goodrich y Rosati, PC).
Noticias
New Android 16, Gemini AI y todo lo demás que esperar en la nota clave del martes
Published
15 horas agoon
20 mayo, 2025Google I/O, la conferencia anual de desarrolladores del gigante de la búsqueda, comienza el martes 20 de mayo. El evento es posiblemente el más importante en el calendario anual de la compañía, ofreciendo la oportunidad para que la compañía comparta un vistazo a todo lo que ha estado trabajando durante el año pasado, y contextualiza sus mayores prioridades durante los próximos doce meses.
Aparentemente, la tarjeta de baile para Google estaba tan llena que la compañía salió de un escaparate de Android dedicado una semana antes. (Vea todo lo que se anunció en el Show de Android o vaya a nuestro Blog LiveBlog para tener una idea de cómo se desarrollaron las cosas). Con ese evento ahora detrás de nosotros, Google puede mantenerse enfocado en su competencia central más importante: la IA.
La presentación de Google vendrá inmediatamente después de los anuncios de tres grandes rivales en los últimos días. Además de la costa del Pacífico, Microsoft está organizando su Conferencia de Desarrollador Build, donde ya ha presentado una aplicación de AI de copilotas actualizada. Mientras tanto, en el Show de Computex en Taiwán, el CEO de NVIDIA, Jensen Huang, destacó una asociación con Foxconn para desarrollar una “supercomputadora de fábrica de IA” impulsada por 10,000 chips de IA Blackwell. Y Meta celebró su conferencia debut Llamacon AI el mes pasado, pero los planes del CEO Mark Zuckerberg para el dominio de la inteligencia artificial han llegado a algunos enganches. (Apple compartirá su hoja de ruta AI actualizada el 9 de junio cuando comience su conferencia de desarrolladores de WWDC).
Si desea sintonizar desde casa y seguir mientras Google hace sus anuncios, consulte nuestro artículo sobre cómo ver la nota clave de Google I/O 2025. También estaremos en Live Blogging el evento, por lo que puede venir a Engadget para las últimas noticias.
Android 16
La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y a sus colegas mostrar años, Android no ha tenido mucha atención en la conferencia anual de desarrolladores de Google. Afortunadamente, el show de Android de la semana pasada, el sistema operativo móvil de Google permitió que el centro de atención tome el centro de atención durante al menos un día.
La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y sus colegas mostrar el nuevo diseño expresivo del nuevo material 3, y lo que aprendimos confirmó algunas de las características que se filtraron anteriormente, como la barra de “notificaciones continuas”. Material 3 Expressive también está llegando a Wear OS 6, y la compañía está ampliando el alcance de Gemini al llevarlo a su plataforma Smartwatch, Android Auto y Google TV. Android también está ampliando sus características de detección de estafas y un centro de búsqueda refinado que verá soporte para la conectividad satelital más adelante en el año.
Hablando de tiempo, Google ya ha confirmado que el nuevo sistema operativo llegará en algún momento antes de la segunda mitad del año. Aunque hoy no lanzó una construcción estable de Android 16, Samat compartió durante el programa que Android 16 (o al menos parte) llegará el próximo mes a los dispositivos de píxeles. Y aunque la compañía cubrió algunas características nuevas que llegaron a Android XR, el director senior de Android Product y UX Guemmy Kim dijo durante la presentación que “compartiremos más en Android XR en E/S la próxima semana”.
Claramente parece que aún está por venir, y no solo para Android XR. No obtuvimos confirmación en el Autoridad de Android Informe que Google podría agregar un selector de fotos más robusto, con soporte para soluciones de almacenamiento en la nube. Eso no significa que no estará en Android 16, podría ser algo que la compañía no pudiera mencionar en su escaparate de 30 minutos. Además, Google ha estado lanzando nuevas funciones de Android en una cadencia trimestral últimamente, en lugar de esperar hasta una ventana de actualización anual para poner a disposición actualizaciones. Es posible que veamos más a Android 16 a medida que avanza el año.
Uno de los mejores lugares para tener una idea de lo que vendrá en Android 16 está en su versión beta, que ya ha estado disponible para los desarrolladores y actualmente está en su cuarta iteración. Por ejemplo, aprendimos en marzo que Android 16 traerá el soporte de Auracast, lo que podría facilitar la escucha y cambiar entre múltiples dispositivos Bluetooth. Esto también podría permitir a las personas recibir audio Bluetooth en audífonos que han emparejado con sus teléfonos o tabletas.
Android XR
¿Recuerdas Google Glass? ¿No? ¿Qué tal Daydream? ¿Quizás cartón? Después de enviar (al menos) tres proyectos XR al cementerio, pensaría que incluso Google diría que lo suficiente es suficiente. En cambio, la compañía se está preparando para lanzar Android XR después de una vista previa de la plataforma a fines del año pasado. Esta vez, la compañía dice que el poder de sus modelos Gemini AI hará que las cosas sean diferentes. Sabemos que Google está trabajando con Samsung en un proyecto con nombre en código auricular Moohan. El otoño pasado, Samsung insinuó que el dispositivo podría llegar en algún momento de este año.
Ya sea que Google y Samsung Demo Project Moohan en E/S, imagino que el gigante de la búsqueda tendrá más que decir sobre Android XR y los socios del ecosistema que ha trabajado para llevar a su lado para la iniciativa. Esto está en línea con lo que Kim dijo sobre más sobre Android XR que se comparte en E/S.
Ai, ai y más ai
Si Google sintió la necesidad de dividir a Android en su propio escaparate, es probable que obtengamos más anuncios relacionados con la IA en E/S que nunca. La compañía no ha proporcionado muchas sugerencias sobre lo que podemos esperar en ese frente, pero si tuviera que adivinar, es probable que las características como las descripciones de IA y el modo AI obtengan actualizaciones sustantivas. Sospecho que Google también tendrá algo que decir sobre Project Mariner, el agente de vigilancia web que se demostró en la E/S 2024. De cualquier manera, Google es una compañía de IA ahora, y cada E/S en el futuro lo reflejará.
Proyecto Astra
Hablando de la IA, Project Astra fue una de las demostraciones más impresionantes que Google mostró en I/O 2024. La tecnología aprovechó al máximo las últimas capacidades multimodales de los modelos Gemini de Google para ofrecer algo que no habíamos visto antes de la compañía. Es un asistente de voz con características avanzadas de reconocimiento de imágenes que le permite conversar sobre las cosas que ve. Google visualiza el proyecto Astra algún día proporciona un asistente artificial verdaderamente útil.
Sin embargo, después de ver una demostración en persona de Astra, el equipo de Engadget sintió que la tecnología necesitaba mucho más trabajo. Dado el proyecto Splash que Astra realizó el año pasado, hay una buena posibilidad de que pudiéramos obtener una actualización sobre él en I/O 2025.
Un competidor de Pinterest
Según un informe de La informaciónGoogle podría estar planeando presentar su propia versión de Pinterest en E/S. Esa caracterización es cortesía deLa información, Pero según las características descritas en el artículo, los miembros del equipo de Engadget lo encontraron más que recuerdan a Cosmos. Cosmos es una versión reducida de Pinterest, que permite que las personas guarden y seleccionen todo lo que vean en Internet. También le permite compartir sus páginas guardadas con otros.
Según los informes, la versión de Google mostrará los resultados de la imagen basados en sus consultas, y puede guardar las imágenes en diferentes carpetas en función de sus propias preferencias. Entonces, digamos que estás organizando un lookbook basado en Jennie de Blackpink. Puede buscar sus atuendos y guardar sus favoritos en una carpeta que puede titular “Lewks”, tal vez.
No está claro si esto está simplemente incorporado en la búsqueda o existe como un producto independiente, y tendremos que esperar hasta que E/S para ver si el informe era preciso y cómo es realmente la característica.
Usa el sistema operativo
El año pasado, Wear OS no recibió una mención durante la principal nota principal de la compañía, pero Google realizó una vista previa de Wear OS 5 durante las sesiones de desarrolladores que siguieron. La compañía solo comenzó a implementar Wear OS 5.1 a Pixel Devices en marzo. Este año, ya hemos aprendido en el Show de Android que Wear OS 6 se acerca, con el material 3 expresivo en el adorno de su interfaz. ¿Aprenderemos más en I/O? No está claro, pero no sería un shock si eso fuera todo el tiempo de tiempo de aire que OS obtiene este año.
Cuaderno
Google ha saltado el arma y ya lanzó una aplicación independiente Notebooklm antes de E/S. La aplicación de toma de notas de aprendizaje automático, disponible en los navegadores de escritorio desde 2023, puede resumir documentos e incluso sintetizar resúmenes de podcast de estilo NPR completo para arrancar.
Todo lo demás
Google tiene un historial terrible cuando se trata de prevenir fugas dentro de sus rangos internos, por lo que la probabilidad de que la compañía pueda sorprendernos es baja. Aún así, Google podría anunciar algo que no esperamos. Como siempre, su mejor opción es visitar Engadget el 20 y 21 de mayo. Tendremos lo último de Google, junto con nuestro LiveBlog and Analysis.
Actualización, 5 de mayo 2025, 7:08 PM ET: Esta historia se ha actualizado para incluir detalles en una publicación de blog filtrada que discute “Material 3 Expresivo”.
Actualización, 6 de mayo 2025, 5:29 PM ET: Esta historia se ha actualizado para incluir detalles sobre Android 16 Beta, así como el soporte de Auracast.
Actualización, 8 de mayo 2025, 3:20 pm ET: Esta historia se ha actualizado para incluir detalles sobre cómo ver el programa de Android y la nota clave de E/S de Google, así como ajustar la introducción para la frescura.
Actualización, 13 de mayo de 2025, 3:22 PM ET: Esta historia se ha actualizado para incluir todos los anuncios del programa de Android y un nuevo informe de La información Acerca de una posible función de búsqueda de imágenes que debutan en E/S. La introducción también fue editada para reflejar con precisión lo que ha sucedido desde la última vez que se actualizó este artículo.
Actualización, 14 de mayo de 2025, 4:32 PM ET: Esta historia se ha actualizado para incluir detalles sobre otros eventos que ocurren al mismo tiempo que la E/S de Google, incluidas Microsoft Build 2025 y ComputeX 2025.
Actualización, 19 de mayo de 2025, 5:13 PM ET: Las noticias de IA competidores actualizadas de Microsoft, Meta y Nvidia, y los rumores e informes finales contextualizados antes de la E/S.
Si compra algo a través de un enlace en este artículo, podemos ganar comisión.
Related posts


























































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos1 año ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos1 año ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo