Connect with us

Noticias

Cómo hacer un presupuesto usando chatgpt

Published

on

La mayoría de las personas ven el presupuesto como una tarea importante, pero la administración del dinero realmente se vuelve más fácil cuando tiene un plan sólido para gastar y ahorrar. En los últimos años, han surgido herramientas como aplicaciones digitales para ayudar a simplificar el proceso de presupuesto, y ahora, la tecnología de inteligencia artificial (IA) puede incluso ayudar con el presupuesto, en forma de chatbots como ChatGPT.

ChatGPT es un software de IA en línea que le permite escribir instrucciones o preguntas, y está programado para responder de manera humana y conversacional. Las personas comúnmente usan ChatGPT para recibir ayuda con la escritura de ensayos y correos electrónicos, traducir texto, crear currículums, hacer listas de compras y mucho más.

ChatGPT ahora ofrece versiones especializadas que se pueden adaptar a sus necesidades específicas. Desde su tablero, seleccione “Explore GPTS” y luego escriba “Presupuesto” en la barra de búsqueda. El uso de GPT de nicho en lugar del CHATGPT general podría ayudarlo con sus requisitos presupuestarios individuales. Las respuestas diferirán en función de qué opción usa. Por ejemplo, si reducir los costos en sus comestibles y gastos cotidianos es una prioridad, puede elegir un GPT que se centre en eso.

Para esto, Bankrate eligió probar el analizador de presupuesto GPT porque era una opción popular entre los usuarios que buscaban ayuda presupuestaria. Luego comparamos los resultados con los de ChatGPT.

Nota: Al acceder al analizador de presupuesto utilizando motores de búsqueda como Google y Microsoft Edge, puede obtener una página de advertencia que señala que la conexión al sitio no es privada, y que “los atacantes podrían estar tratando de robar su información”, como contraseñas , mensajes y datos de tarjeta de crédito almacenado. No haga clic en ningún enlace que sospeche que comprometerá su información personal y, si es necesario, comuníquese con un equipo de soporte técnico confiable y certificado para obtener ayuda.

Aquí, repasaremos cómo usar CHATGPT para crear el presupuesto de su hogar.

1. Indique sus ingresos

Si es su primera vez en el sitio web de ChatGPT, se le pedirá que cree una cuenta. (Las versiones pagadas y gratuitas están disponibles.) Una vez que haya iniciado sesión, simplemente puede indicar sus ingresos en el campo “Enviar un mensaje”.

Ejemplo: “Mi ingreso familiar mensual es de $ 4,000 después de los impuestos”.

Recibirá una respuesta que dice que si necesita más información o asistencia con asuntos financieros, no dude en preguntar.

2. Enumere sus gastos

Proporcione sus gastos mensuales. Si bien no se requiere desglosar sus gastos, ser minucioso en su mensaje ayuda a crear resultados específicos en función de sus circunstancias.

Ejemplo: “Cada mes, gasto $ 800 en alquiler, $ 150 en servicios públicos, $ 150 en seguro de automóvil, $ 300 en el pago de mi automóvil, $ 150 en gasolina, $ 400 en comestibles, $ 60 en servicios de transmisión, $ 300 en reembolso de préstamos estudiantiles y $ 300 en gastos discrecionales. Ayúdame a crear un presupuesto “.

También puede probar algo como “Mis gastos mensuales totales son $ 2,610” si prefiere no compartir los gastos de presupuesto de línea de línea.

La respuesta detalla cuánto dinero queda cada mes y luego comparte estrategias de ahorro.

3. Ingrese sus objetivos de ahorro de dinero

Aquí es donde ChatGPT puede ser particularmente útil al proporcionar información y sugerencias. Si le dice para qué cosas desea ahorrar, puede sugerir cuánto dinero ahorrar, junto con ideas para facilitar el proceso.

Después de que le haya dicho a ChatGPT sus ingresos y gastos mensuales, solicite más ayuda diciéndole sus objetivos de ahorro.

Ejemplo: “Proporcione sugerencias sobre cómo puedo dedicar el resto de mis ingresos a construir un fondo de emergencia, un fondo de vacaciones y una cuenta de jubilación de IRA”.

Icono de ahorro

Consejo de dinero: Hay más en una cuenta de ahorros que solo un lugar para asegurar su efectivo. Bankrate explica lo que necesita saber sobre las cuentas de ahorro, incluida la forma en que puede ganar más interés en una cuenta de mayor rendimiento.

4. Respuestas de revisión

Al recibir la consulta anterior, ChatGPT respondió un par de maneras diferentes, tanto en ChatGPT regular como a través del analizador de presupuesto. Ambos incluyeron cuánto dinero quedó para los objetivos de ahorro, luego un desglose detallado de cómo ahorrar para cada objetivo.

Fondo de emergencia

ChatGPT alienta a los gastos de vida de tres a seis meses en su fondo de emergencia, lo cual es estándar.

Diferentes opciones de GPT sugieren diferentes ahorros y cantidades de desglose. Por ejemplo, ChatGPT regular sugiere ahorrar $ 556 por mes para nuestro fondo de emergencia, que podría tardar 14 meses en alcanzar el mínimo de $ 7,830 que recomendó.

El analizador de presupuesto GPT sugiere $ 695 al mes con al menos $ 10,000 como objetivo mínimo. A ese ritmo, alcanzaría su objetivo después de 11 meses.

Icono de bombilla

Bankrate’s Take: Bankrate recomienda que mantenga su fondo de emergencia en una cuenta de ahorros solo en línea que ofrece una tasa de interés competitiva y tarifas bajas. Obtenga más información sobre cómo comenzar y construir un fondo de emergencia.

Fondo de vacaciones

Chatgpt aconseja determinar cuánto necesitará para sus vacaciones y asignar una cantidad fija de su dinero excedente mensual para ahorrar para el objetivo. Por ejemplo, si queremos ahorrar $ 3,000 en un fondo de vacaciones, el 20 por ciento de nuestros ingresos restantes podrían destinarse a ese objetivo. Eso es $ 278 por mes y nos tomaría 11 meses alcanzar ese hito. El analizador de presupuesto sugirió ahorrar $ 300 por mes para alcanzar nuestra meta de $ 3,000 en 10 meses.

Fondo de retiro

Esta sección es donde los diferentes GPT variaron más. El analizador de presupuesto GPT sugiere ahorrar $ 390 por mes para llegar a $ 4,680 por año, muy por debajo del límite anual de contribución de IRA de $ 7,000 para 2025.

El chatgpt regular sugirió ahorrar $ 556 por mes hasta que máxima el máximo de su límite. Si quisiera hacer pagos uniformes todos los meses del año, serían $ 583.33. Esta opción también ofreció un Roth IRA para el crecimiento libre de impuestos, a pesar de que tanto Roth como las IRA tradicionales pueden crecer libres de impuestos (un Roth crece libre de impuestos, excepto en el caso de la regla de cinco años y/o la calificación de retiro temprano. se reunió, mientras que una IRA tradicional crece con impuestos debilitados porque los impuestos se deben al retiro). Esto demuestra que, aunque esta herramienta puede ser útil, no siempre es precisa.

Priorizar ahorros

ChatGPT regular sugirió centrarse más en los ahorros de emergencia si aún no tiene uno. En lugar de desglosar uniformemente los ahorros de emergencia, vacaciones y IRA, recomienda que el 60 por ciento del efectivo adicional sea para su fondo de emergencia hasta que tenga al menos un mes de gastos ahorrados, con el otro 40 por ciento dividido entre las vacaciones y las contribuciones de IRA.

Línea de tiempo y progreso

El analizador de presupuesto GPT es más detallado sobre cómo lograr diferentes objetivos. Por ejemplo, reduzca y reduzca los servicios de transmisión a $ 30 por mes, lo que le permite ahorrar más para otros objetivos. También sugiere reducir el gasto discrecional de $ 300 a $ 200 por mes, lo que permite que $ 100 más se destinen a los objetivos de ahorro.

GPT regular hizo sugerencias similares, como cambiar sus prioridades para centrarse más en sus ahorros de emergencia si aún no tiene ninguna. También recomienda reducir el gasto discrecional en $ 50 al mes. También se informó a los servicios de transmisión de corte, pero los ahorros se estimaron a un nivel anual, $ 720, en lugar de uno mensual.

Automatizar y verificar regularmente

Ambos GPT alentaron automatizar los ahorros y el uso de cuentas separadas para cada uno de sus objetivos. También dijeron que revisen y monitorean regularmente su progreso para ver si están en camino en función de sus expectativas.

Es importante ser consistente con sus objetivos de ahorro, pero recuerde que a medida que cambian sus ingresos y gastos, sus objetivos también deberían. No tenga miedo de ajustar su presupuesto y expectativas si es necesario.

5. Mueva su presupuesto a una hoja de cálculo

Una vez que haya decidido cuánto puede ahorrar para sus objetivos cada mes, puede agregarlos como categorías de presupuesto mensuales y volver a ejecutar su solicitud de CHATGPT para crear su presupuesto.

Por ejemplo, puede agregarlos a sus categorías de gastos:

  • Dinero para el Fondo de Emergencia: $ 150
  • Fondo de dinero para vacaciones: $ 100
  • Dinero para Roth Ira: $ 150

Si desea mantener su presupuesto en una hoja de cálculo, ChatGPT puede ayudarlo a mover su presupuesto recién creado allí. Una vez que haya usado ChatGPT para crear el presupuesto, dígale que proporcione el presupuesto en un formato para que lo ponga en una hoja de cálculo.

Ejemplo 1: Transforme mi lista de gastos anteriores en una tabla que pueda copiar en Excel.

Ejemplo 2: Transforme mi lista de gastos anteriores en una tabla que pueda copiar en las hojas de Google.

Responderá proporcionando su presupuesto en un formato de tabla, junto con instrucciones sobre cómo copiar y pegar los datos en las hojas de Excel o Google.

Más consejos para hacer un presupuesto con chatgpt

Verifique todo

Después de que ChatGPT crea su presupuesto, es importante verificar sus cálculos. Asegúrese de que haya sumado todas sus categorías de gastos correctamente. Si enumera la cantidad que le queda después de restarse los gastos, calcule esto manualmente para asegurarse de que sea correcto. No es inaudito que un chatbot haga errores de cálculo.

Además, la doble verificación de cualquier asesoramiento financiero que ChatGPT le brinde contra uno o más recursos en línea de buena reputación. Por ejemplo, en nuestro ejemplo anterior, ChatGPT dio consejos sobre cuántos meses de gastos de gastos deberían poder cubrir su fondo de emergencia. Puede decidir hacerle una pregunta de seguimiento.

Ejemplo: “¿Cuál es el mejor lugar para un fondo de emergencia?”

Respuesta de Chatgpt: En una sesión reciente con CHATGPT, respondió a esta pregunta diciendo que estos fondos deberían estar en una cuenta bancaria que ofrezca estabilidad y liquidez. Ejemplos que dio incluyó una cuenta de ahorros de alto rendimiento, una cuenta de mercado monetario y certificados de depósito (CDS) con escalera.

Bankrate’s Take: Si bien esas primeras tres opciones mantienen su dinero líquido (y seguro, siempre y cuando las cuentas estén con un banco o cooperativa de crédito asegurada por el gobierno federal), los ahorradores harían bien de no bloquear dinero en un CD de ningún término que pueda ser necesario en un momento Aviso para emergencias. Esto se debe a que la mayoría de los CD evalúan una multa de retiro temprano cuando saca el dinero antes de que finalice el término.

Icono de estrella

Tener en mente: Antes de seguir el asesoramiento financiero de un chatbot, siempre es una buena idea verificar ese consejo contra recursos en línea de buena reputación o un asesor financiero.

Haga preguntas de presupuesto abierto

A menudo, el chatGPT puede calcular de manera confiable su presupuesto cuando ingresa cantidades de dólares para cada categoría de gastos, como lo hemos hecho en nuestro ejemplo. En los resultados generados, también puede entrelazar algunas sugerencias y estrategias presupuestarias útiles.

Sin embargo, el chatbot también puede ayudar con las solicitudes relacionadas con el presupuesto que permiten más espacio para la creatividad. Le preguntamos: “Soy un pobre estudiante universitario. ¿Cómo puedo apretar mi presupuesto? Proporcionó 15 consejos útiles para clasificar a través de gastos esenciales y no esenciales, gastar menos en comida y entretenimiento, y ganar un poco de dinero extra.

En otra sesión de ChatGPT reciente, preguntamos: “Actualmente gasto $ 400 por mes en comestibles. ¿Cuáles son algunas formas en que puedo reducir esto a $ 300? En respuesta, sugirió consejos prácticos, que incluyen:

  • Plan de comidas
  • Comprar a granel
  • Comprar marcas genéricas
  • Limitar el consumo de carne
  • Comprar productos estacionales
  • Use productos congelados o enlatados
  • Cocine en lotes y use las sobras
  • Use cupones y aplicaciones de reembolso
  • Beber agua en lugar de otras bebidas
  • Evite ir de compras mientras tenga hambre

Final

Una de las cosas que hacen que ChatGPT sea interesante es que proporcione respuestas diferentes (aunque generalmente similares y consistentes) cada vez que hace la misma pregunta. Incluso incorpora una opción de “respuesta de regeneración” que volverá a responder a su pregunta, posiblemente entregando ideas y estrategias adicionales. La naturaleza conversacional de ChatGPT hace que sea fácil comenzar. Y, cada pregunta adicional que hace se basa en las anteriores, por lo que realmente puede profundizar y ser específico.

En total, esto proporcionó algunos buenos puntos de partida cuando se trata de consejos prácticos y estrategias de ahorro de dinero. Al igual que las aplicaciones de presupuesto digital, ChatGPT puede ayudarlo a crear un presupuesto y seguir estrategias de administración de dinero sobre cómo ahorrar regularmente para sus objetivos.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Operai gana la demanda por difamación presentada por el activista de los derechos de las armas sobre reclamos de malversación de fondos alucinados

Published

on

En la decisión de ayer por el juez Tracie Cason (Georgia Super. Ct. Gwinnett County) en Walters v. Openai, LLCel activista de los derechos de armas Mark Walters demandó a OpenAi después de que el periodista Frederick Riehl (“editor de Ammoland.com, un sitio de noticias y defensa relacionada con los derechos de la Segunda Enmienda”) recibió una alucinación generada por IA de Chatgpt que alegaba que Walters estaba siendo demandado por presunta presunta sobresslemento. El tribunal otorgó un juicio sumario de OpenAI, concluyendo que OpenAi debe prevalecer “por tres razones independientes”:

[1.] En Contexto, un lector razonable no habría entendido las acusaciones “podrían ser” razonablemente entendidas que describen hechos reales “,”, “,” que es un elemento clave de un reclamo de difamación. El Tribunal no concluyó que OpenAi y otras compañías similares son categóricamente inmunes cada vez que incluyen un descargo de responsabilidad, sino que declaró que “el descargo de responsabilidad o el lenguaje de advertencia pesan en la determinación de si este objetivo objetivo, el estándar de ‘lector razonable’ se cumple”, y que “en las circunstancias presentes aquí, un lector razonable en la posición de Riehl no podría haber concluido que el chatgptutputppppput en la comunicación ” en realidad ‘: las hechos reales’ en realidad ” en realidad ”.

{Riehl pegó secciones del Fergusón queja [a Complaint in a civil case that Riehl was researching] en Chatgpt y le pidió que resumiera esas secciones, que hizo con precisión. Riehl luego proporcionó un enlace de Internet, o URL, a la queja a ChatGPT y le pidió que resumiera la información disponible en el enlace. ChatGPT respondió que “no tenía acceso a Internet y no puede leer ni recuperar ningún documento”. Riehl proporcionó la misma URL nuevamente. Esta vez, Chatgpt proporcionó un resumen diferente e inexacto del Fergusón Queja, diciendo que implicaba acusaciones de malversación de malversación por parte de un tesorero y director financiero no identificado de SAF. Riehl nuevamente proporcionó la URL y le preguntó a ChatGPT si podía leerla. Chatgpt respondió “sí” y nuevamente dijo que la queja involucraba acusaciones de malversación de fondos; esta vez, dijo que el malversador acusado era un individuo llamado Mark Walters, quien Chatgpt dijo que era el tesorero y director financiero de la SAF.}

En esta interacción específica, ChatGPT advirtió a Riehl que no podía acceder a Internet o acceder al enlace al Fergusón Queja que Riehl le proporcionó y que no tenía información sobre el período de tiempo en el que se presentó la queja, que fue después de su “fecha de corte de conocimiento”. Antes de que Riehl proporcionara el enlace a la queja, ChatGPT resumió con precisión el Fergusón Queja basada en el texto riehl ingresada. Después de que Riehl proporcionó el enlace, y después de ChatGPT inicialmente advirtió que no podía acceder al enlace, ChatGPT proporcionó un resumen completamente diferente e inexacto.

Además, los usuarios de ChatGPT, incluido Riehl, fueron advertidos repetidamente, incluso en los términos de uso que gobiernan las interacciones con ChatGPT, que ChatGPT puede y a veces proporciona información fácticamente inexacta. Un usuario razonable como Riehl, que era consciente de la experiencia pasada que ChatGPT puede y sí proporciona “respuestas ficticias planas”, y quién había recibido las repetidas renuncias que advierte que la producción equivocada era una posibilidad real, no habría creído que el resultado estaba diciendo “hechos reales” sobre Walters sin intentar verificarlo …

Eso es especialmente cierto aquí, donde Riehl ya había recibido un comunicado de prensa sobre el Fergusón Queja y tuvo acceso a una copia de la queja que le permitió verificar de inmediato que la salida no fuera verdadera. Riehl admitió que “en aproximadamente una hora y media” había establecido que “lo que sea [Riehl] estaba viendo “en la producción de Chatgpt” no era cierto “. Como Riehl testificó, él ” entendió que la máquina fantaseaba por completo. …

Por separado, es indiscutible que Riehl en realidad no creyera que el Fergusón La queja acusó a Walters de malversación de la SAF. Si el individuo que lee una declaración desafiada no cree subjetivamente que sea real, entonces la declaración no es difamatoria como una cuestión de derecho.[Riehl] Sabía que Walters no era, y nunca había sido, el tesorero o director financiero de la SAF, una organización para la cual Riehl sirvió en la junta directiva …

[2.a.] El tribunal también concluyó que Walters no podía mostrar ni siquiera negligencia Por parte de Operai, que se requiere para todas las reclamaciones de difamación sobre asuntos de preocupación pública:

El Tribunal de Apelaciones ha sostenido que, en un caso de difamación “,[t]El estándar de conducta requerido de un editor … se definirá por referencia a los procedimientos de un editor razonable en [its] El puesto habría empleado antes de publicar [an item] como [the] uno [at issue. A publisher] será mantenido a la habilidad y experiencia normalmente ejercida por miembros de [its] profesión. La costumbre en el comercio es relevante pero no controladora “. Walters no ha identificado evidencia de qué procedimientos un editor razonable en la posición de Openal habría empleado en función de la habilidad y la experiencia que normalmente ejercen los miembros de su profesión. Tampoco Walters ha identificado ninguna evidencia que OpenAI no cumpliera con este estándar.

Y Openai ha ofrecido evidencia de su experto, el Dr. White, que Walters no refutó ni se abordó, lo que demuestra que Operai lidera a la industria de la Liga Americana al intentar reducir y evitar la producción equivocada como la producción desafiada aquí. Específicamente, “Openai ejerció un cuidado razonable en el diseño y la liberación de Chatgpt basado en ambos (1) los esfuerzos líderes en la industria OpenAi emprendió para maximizar la alineación de la producción de ChatGPT a la intención del usuario y, por lo tanto, reducen la probabilidad de alucinamiento; y (2), proporcionando a las advertencias recurrentes a los usuarios sobre la posibilidad de alucinaciones en la producción de Chatgpt. ChatGPT y los diversos LLM que OpenAI ha puesto a disposición de los usuarios a través de ChatGPT. Operai también ha tomado medidas extensas para advertir a los usuarios que ChatGPT puede generar resultados inexactos a veces, lo que niega aún más cualquier posibilidad de que Walters pueda mostrar OpenAi fue negligente …

Ante esta evidencia indiscutible, el abogado de Walters afirmó el argumento oral de que OpenAi era negligente porque “un hombre prudente se encargaría de no desatar un sistema en el público que forme declaraciones falsas aleatorias sobre los demás … En otras palabras, el abogado de Walters argumentó que debido a que ChatGPT es capaz de producir una producción errónea, OpenAi tuvo la culpa simplemente al operar ChatGpt en absoluto, sin tener en cuenta los procedimientos de un editor razonable en [OpenAl’s] el puesto habría empleado “o a la” habilidad y experiencia normalmente ejercida por miembros de [its] profesión. “El tribunal no es persuadido por el argumento del demandante.

Walters no ha identificado ningún caso que tenga en cuenta que un editor es negligente como una cuestión de ley de difamación simplemente porque sabe que puede cometer un error y por una buena razón. Tal regla impondría un estándar de responsabilidad estricta, no negligencia, porque sería responsable de OpenAi por lesiones sin ninguna “referencia a” un grado razonable de habilidad y cuidado “medido contra una determinada comunidad”. La Corte Suprema de los Estados Unidos y la Corte Suprema de Georgia han sostenido claramente que un demandante de difamación debe demostrar que el acusado actuó con “al menos negligencia ordinaria” y puede no responsabilizar a un acusado “sin culpa”. …

[2.b.] El tribunal también concluyó que Walters era una figura pública y, por lo tanto, tuvo que mostrar no solo negligencia, sino también Falsidad Conocer o imprudente por parte de OpenAi (llamada “malicia real”):

Walters califica como una figura pública dada su prominencia como presentador de radio y comentarista sobre los derechos constitucionales, y la gran audiencia que ha construido para su programa de radio. Admite que su programa de radio atrae a 1,2 millones de usuarios por cada segmento de 15 minutos y se llama a sí mismo ” la voz más fuerte en Estados Unidos que lucha por los derechos de las armas “. Como el demandante en Williams v. Trust Company of Georgia (Ga. App.), Walters es una figura pública porque ha “recibido publicidad generalizada por sus derechos civiles … actividades”, tiene “su propio programa de radio”, ” llevó su causa a la gente a pedir el apoyo del público “, y es” franco sobre asignaturas de interés público “. Además, Walters califica como una figura pública porque tiene” una oportunidad más real para contrarrestar falsas declaraciones falsas que las personas privadas que normalmente disfrutan de las personas que normalmente se disfrutan de la radio de radio con una gran audiencia con una gran audiencia de radio con una gran audiencia con un audiencia de radio. Las declaraciones de chatgpt falsas en cuestión aquí … [And] Como mínimo, Walters califica como una figura pública de propósito limitado aquí porque estas declaraciones son claramente “pertinentes” a la “participación” admitida de Walters en los “controversos públicos[ies]”que están relacionados con la salida de chatgpt en cuestión aquí …

Los dos argumentos de Walters de que ha demostrado malicia real. Primero, argumenta que Operai actuó con “malicia real” porque OpenAi dijo a los usuarios que ChatGPT es una “herramienta de investigación”. Pero esta afirmación no se relaciona de ninguna manera con si OpenAi sabía subjetivamente que la producción de ChatGPT desafiada era falsa en el momento en que se publicó, o ignoraba imprudentemente la posibilidad de que pudiera ser falso y lo publicara de todos modos, que es lo que requiere el estándar de “malicia real”. Walters no presenta evidencia de que alguien en OpenAi tuviera forma de saber que la producción que recibió probablemente sería falsa … [The] El estándar de “malicia real” requiere prueba de la “conciencia subjetiva del acusado de la falsedad probable” …

En segundo lugar, Walters parece argumentar que Operai actuó con “malicia real” porque es indiscutible que OpenAi era consciente de que ChatGPT podría cometer errores al proporcionar salida a los usuarios. El mero conocimiento de que un error fue posible Se encuentra muy por debajo de la “evidencia clara y convincente” requerida de que OpenAi en realidad “tenía una conciencia subjetiva de la falsedad probable” cuando ChatGPT publicó la producción cuidada específica en sí …

[3.] Y el tribunal concluyó que en cualquier caso Walters tuvo que perder porque (a) no podía mostrar daños reales, (b) No pudo recuperar presuntos daños, porque aquí la evidencia refuta cualquier presunción de daño, dado que Riehl era la única persona que vio la declaración y no lo creyó, y (c) bajo la ley de Georgia “,”.[A]LL Libel Demandantes que tienen la intención de buscar daños punitivos [must] Solicite una corrección o retracción antes de presentar su acción civil contra cualquier persona para publicar una declaración falsa y difamatoria “, y no se hizo dicha solicitud aquí.

Una decisión interesante, y bien podría ser correcta (ver mi Modelos de difamación grandes Artículo para la imagen legal más grande), pero está vinculado estrechamente a sus hechos: en otro caso, donde el usuario no tenía tantas señales de que la afirmación sea falsa, o cuando el usuario distribuyó más ampliamente el mensaje (que puede haber producido más daños), o cuando el demandante no fue una cifra pública, o cuando el demandante había alertado al demandante del demandante y aún no lo hizo a la demandante que no lo hizo, el resultado, el resultado. Para comparar, consulte el Starbuck v. Meta Platforms, Inc. Caso discutido en esta publicación de hace tres semanas.

Tenga en cuenta que, como es común en los tribunales de algunos estados, la decisión adopta en gran medida una orden propuesta presentada por la parte que prevaleció sobre la moción de juicio sumario. Por supuesto, el juez ha aprobado la orden y está de acuerdo con lo que dice (ya que podría haber editado fácilmente partes con las que no estaba de acuerdo); Pero el encuadre retórico en tales casos a menudo es más el de la parte prevaleciente que la del juez.

Operai está representado por Stephen T. Labriola y Ethan M. Knott (Fellows Labriola LLP); Ted Botrous, Orin Snyder y Connor S. Sullivan (Gibson, Dunn & Crutcher LLP); y Matthew MacDonald (Wilson Sonsini Goodrich y Rosati, PC).

Continue Reading

Noticias

New Android 16, Gemini AI y todo lo demás que esperar en la nota clave del martes

Published

on

Google I/O, la conferencia anual de desarrolladores del gigante de la búsqueda, comienza el martes 20 de mayo. El evento es posiblemente el más importante en el calendario anual de la compañía, ofreciendo la oportunidad para que la compañía comparta un vistazo a todo lo que ha estado trabajando durante el año pasado, y contextualiza sus mayores prioridades durante los próximos doce meses.

Aparentemente, la tarjeta de baile para Google estaba tan llena que la compañía salió de un escaparate de Android dedicado una semana antes. (Vea todo lo que se anunció en el Show de Android o vaya a nuestro Blog LiveBlog para tener una idea de cómo se desarrollaron las cosas). Con ese evento ahora detrás de nosotros, Google puede mantenerse enfocado en su competencia central más importante: la IA.

La presentación de Google vendrá inmediatamente después de los anuncios de tres grandes rivales en los últimos días. Además de la costa del Pacífico, Microsoft está organizando su Conferencia de Desarrollador Build, donde ya ha presentado una aplicación de AI de copilotas actualizada. Mientras tanto, en el Show de Computex en Taiwán, el CEO de NVIDIA, Jensen Huang, destacó una asociación con Foxconn para desarrollar una “supercomputadora de fábrica de IA” impulsada por 10,000 chips de IA Blackwell. Y Meta celebró su conferencia debut Llamacon AI el mes pasado, pero los planes del CEO Mark Zuckerberg para el dominio de la inteligencia artificial han llegado a algunos enganches. (Apple compartirá su hoja de ruta AI actualizada el 9 de junio cuando comience su conferencia de desarrolladores de WWDC).

Si desea sintonizar desde casa y seguir mientras Google hace sus anuncios, consulte nuestro artículo sobre cómo ver la nota clave de Google I/O 2025. También estaremos en Live Blogging el evento, por lo que puede venir a Engadget para las últimas noticias.

La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y a sus colegas mostrar años, Android no ha tenido mucha atención en la conferencia anual de desarrolladores de Google. Afortunadamente, el show de Android de la semana pasada, el sistema operativo móvil de Google permitió que el centro de atención tome el centro de atención durante al menos un día.

La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y sus colegas mostrar el nuevo diseño expresivo del nuevo material 3, y lo que aprendimos confirmó algunas de las características que se filtraron anteriormente, como la barra de “notificaciones continuas”. Material 3 Expressive también está llegando a Wear OS 6, y la compañía está ampliando el alcance de Gemini al llevarlo a su plataforma Smartwatch, Android Auto y Google TV. Android también está ampliando sus características de detección de estafas y un centro de búsqueda refinado que verá soporte para la conectividad satelital más adelante en el año.

Hablando de tiempo, Google ya ha confirmado que el nuevo sistema operativo llegará en algún momento antes de la segunda mitad del año. Aunque hoy no lanzó una construcción estable de Android 16, Samat compartió durante el programa que Android 16 (o al menos parte) llegará el próximo mes a los dispositivos de píxeles. Y aunque la compañía cubrió algunas características nuevas que llegaron a Android XR, el director senior de Android Product y UX Guemmy Kim dijo durante la presentación que “compartiremos más en Android XR en E/S la próxima semana”.

Claramente parece que aún está por venir, y no solo para Android XR. No obtuvimos confirmación en el Autoridad de Android Informe que Google podría agregar un selector de fotos más robusto, con soporte para soluciones de almacenamiento en la nube. Eso no significa que no estará en Android 16, podría ser algo que la compañía no pudiera mencionar en su escaparate de 30 minutos. Además, Google ha estado lanzando nuevas funciones de Android en una cadencia trimestral últimamente, en lugar de esperar hasta una ventana de actualización anual para poner a disposición actualizaciones. Es posible que veamos más a Android 16 a medida que avanza el año.

Uno de los mejores lugares para tener una idea de lo que vendrá en Android 16 está en su versión beta, que ya ha estado disponible para los desarrolladores y actualmente está en su cuarta iteración. Por ejemplo, aprendimos en marzo que Android 16 traerá el soporte de Auracast, lo que podría facilitar la escucha y cambiar entre múltiples dispositivos Bluetooth. Esto también podría permitir a las personas recibir audio Bluetooth en audífonos que han emparejado con sus teléfonos o tabletas.

¿Recuerdas Google Glass? ¿No? ¿Qué tal Daydream? ¿Quizás cartón? Después de enviar (al menos) tres proyectos XR al cementerio, pensaría que incluso Google diría que lo suficiente es suficiente. En cambio, la compañía se está preparando para lanzar Android XR después de una vista previa de la plataforma a fines del año pasado. Esta vez, la compañía dice que el poder de sus modelos Gemini AI hará que las cosas sean diferentes. Sabemos que Google está trabajando con Samsung en un proyecto con nombre en código auricular Moohan. El otoño pasado, Samsung insinuó que el dispositivo podría llegar en algún momento de este año.

Ya sea que Google y Samsung Demo Project Moohan en E/S, imagino que el gigante de la búsqueda tendrá más que decir sobre Android XR y los socios del ecosistema que ha trabajado para llevar a su lado para la iniciativa. Esto está en línea con lo que Kim dijo sobre más sobre Android XR que se comparte en E/S.

Si Google sintió la necesidad de dividir a Android en su propio escaparate, es probable que obtengamos más anuncios relacionados con la IA en E/S que nunca. La compañía no ha proporcionado muchas sugerencias sobre lo que podemos esperar en ese frente, pero si tuviera que adivinar, es probable que las características como las descripciones de IA y el modo AI obtengan actualizaciones sustantivas. Sospecho que Google también tendrá algo que decir sobre Project Mariner, el agente de vigilancia web que se demostró en la E/S 2024. De cualquier manera, Google es una compañía de IA ahora, y cada E/S en el futuro lo reflejará.

Hablando de la IA, Project Astra fue una de las demostraciones más impresionantes que Google mostró en I/O 2024. La tecnología aprovechó al máximo las últimas capacidades multimodales de los modelos Gemini de Google para ofrecer algo que no habíamos visto antes de la compañía. Es un asistente de voz con características avanzadas de reconocimiento de imágenes que le permite conversar sobre las cosas que ve. Google visualiza el proyecto Astra algún día proporciona un asistente artificial verdaderamente útil.

Sin embargo, después de ver una demostración en persona de Astra, el equipo de Engadget sintió que la tecnología necesitaba mucho más trabajo. Dado el proyecto Splash que Astra realizó el año pasado, hay una buena posibilidad de que pudiéramos obtener una actualización sobre él en I/O 2025.

Según un informe de La informaciónGoogle podría estar planeando presentar su propia versión de Pinterest en E/S. Esa caracterización es cortesía deLa información, Pero según las características descritas en el artículo, los miembros del equipo de Engadget lo encontraron más que recuerdan a Cosmos. Cosmos es una versión reducida de Pinterest, que permite que las personas guarden y seleccionen todo lo que vean en Internet. También le permite compartir sus páginas guardadas con otros.

Según los informes, la versión de Google mostrará los resultados de la imagen basados ​​en sus consultas, y puede guardar las imágenes en diferentes carpetas en función de sus propias preferencias. Entonces, digamos que estás organizando un lookbook basado en Jennie de Blackpink. Puede buscar sus atuendos y guardar sus favoritos en una carpeta que puede titular “Lewks”, tal vez.

No está claro si esto está simplemente incorporado en la búsqueda o existe como un producto independiente, y tendremos que esperar hasta que E/S para ver si el informe era preciso y cómo es realmente la característica.

El año pasado, Wear OS no recibió una mención durante la principal nota principal de la compañía, pero Google realizó una vista previa de Wear OS 5 durante las sesiones de desarrolladores que siguieron. La compañía solo comenzó a implementar Wear OS 5.1 a Pixel Devices en marzo. Este año, ya hemos aprendido en el Show de Android que Wear OS 6 se acerca, con el material 3 expresivo en el adorno de su interfaz. ¿Aprenderemos más en I/O? No está claro, pero no sería un shock si eso fuera todo el tiempo de tiempo de aire que OS obtiene este año.

Google ha saltado el arma y ya lanzó una aplicación independiente Notebooklm antes de E/S. La aplicación de toma de notas de aprendizaje automático, disponible en los navegadores de escritorio desde 2023, puede resumir documentos e incluso sintetizar resúmenes de podcast de estilo NPR completo para arrancar.

Google tiene un historial terrible cuando se trata de prevenir fugas dentro de sus rangos internos, por lo que la probabilidad de que la compañía pueda sorprendernos es baja. Aún así, Google podría anunciar algo que no esperamos. Como siempre, su mejor opción es visitar Engadget el 20 y 21 de mayo. Tendremos lo último de Google, junto con nuestro LiveBlog and Analysis.

Actualización, 5 de mayo 2025, 7:08 PM ET: Esta historia se ha actualizado para incluir detalles en una publicación de blog filtrada que discute “Material 3 Expresivo”.

Actualización, 6 de mayo 2025, 5:29 PM ET: Esta historia se ha actualizado para incluir detalles sobre Android 16 Beta, así como el soporte de Auracast.

Actualización, 8 de mayo 2025, 3:20 pm ET: Esta historia se ha actualizado para incluir detalles sobre cómo ver el programa de Android y la nota clave de E/S de Google, así como ajustar la introducción para la frescura.

Actualización, 13 de mayo de 2025, 3:22 PM ET: Esta historia se ha actualizado para incluir todos los anuncios del programa de Android y un nuevo informe de La información Acerca de una posible función de búsqueda de imágenes que debutan en E/S. La introducción también fue editada para reflejar con precisión lo que ha sucedido desde la última vez que se actualizó este artículo.

Actualización, 14 de mayo de 2025, 4:32 PM ET: Esta historia se ha actualizado para incluir detalles sobre otros eventos que ocurren al mismo tiempo que la E/S de Google, incluidas Microsoft Build 2025 y ComputeX 2025.

Actualización, 19 de mayo de 2025, 5:13 PM ET: Las noticias de IA competidores actualizadas de Microsoft, Meta y Nvidia, y los rumores e informes finales contextualizados antes de la E/S.

Si compra algo a través de un enlace en este artículo, podemos ganar comisión.

Continue Reading

Noticias

¿Se puede confiar en Sam Altman con el futuro?

Published

on

En 2017, poco después de que los investigadores de Google inventaron un nuevo tipo de red neuronal llamada Transformer, un joven ingeniero de OpenAi llamado Alec Radford comenzó a experimentar con ella. Lo que hizo que la arquitectura del transformador fuera diferente a la de los sistemas de IA existentes fue que podía ingerir y hacer conexiones entre los más grandes volúmenes de texto, y Radford decidió entrenar su modelo en una base de datos de siete mil libros en inglés no publicados: ruido, aventura, cuentos especulativos, la gama completa de fantasía e invención humana. Luego, en lugar de pedirle a la red que traduzca el texto, como lo habían hecho los investigadores de Google, lo llevó a predecir la siguiente palabra más probable en una oración.

La máquina respondió: una palabra, luego otra y otra, cada nuevo término inferido de los patrones enterrados en esos siete mil libros. Radford no le había dado reglas de gramática o una copia de Strunk and White. Simplemente lo había alimentado con historias. Y, de ellos, la máquina parecía aprender a escribir por su cuenta. Se sintió como un truco mágico: Radford volcó el interruptor, y algo vino de la nada.

Sus experimentos sentaron las bases para ChatGPT, lanzadas en 2022. Incluso ahora, mucho después de esa primera Jolt, la generación de texto aún puede provocar una sensación de incansable. Pídale a ChatGPT que cuente una broma o escriba un guión, y lo que devuelve, en ración bueno, pero de manera confiable, es una especie de curva estadística adecuada para el vasto corpus en el que fue entrenado, cada oración que contiene rastros de la experiencia humana codificada en esos datos.

Cuando estoy redactando un correo electrónico y un tipo, “Hola, muchas gracias por”, luego pausa, y el programa sugiere “tomar”, luego “el”, entonces “tiempo”, me he vuelto recientemente consciente de cuál de mis pensamientos diverge del patrón y qué se ajusta a él. Mis mensajes ahora están sombreados por la imaginación general de los demás. Muchos de los cuales, al parecer, quieren agradecer a alguien por tomar. . . el . . . tiempo.

Que el avance de Radford ocurrió en Operai no fue un accidente. La organización había sido fundada, en 2015, como un “Proyecto Manhattan sin fines de lucro para IA”, con fondos tempranos de Elon Musk y el liderazgo de Sam Altman, quien pronto se convirtió en su cara pública. A través de una asociación con Microsoft, Altman aseguró el acceso a poderosas infraestructuras informáticas. Pero, para 2017, el laboratorio todavía estaba buscando un logro de firma. En otra pista, los investigadores de Operai enseñaban a un robot virtual en forma de T para voltear: el bot intentaría movimientos aleatorios, y los observadores humanos votarían sobre qué se parecían a un flip. Con cada ronda de retroalimentación, mejoró, minimalmente, pero medidablemente. La compañía también tenía un espíritu distintivo. Sus líderes hablaron sobre la amenaza existencial de la inteligencia general artificial, el momento, definida vagamente, cuando las máquinas superarían la inteligencia humana, mientras la persiguen implacablemente. La idea parecía ser que la IA era potencialmente tan amenazante que era esencial construir una buena IA más rápido que cualquier otra persona podría construir una mala.

Incluso los recursos de Microsoft no eran ilimitados; Los chips y la potencia de procesamiento dedicado a un proyecto no se pueden usar para otro. A raíz del avance de Radford, el liderazgo de Openai, especialmente el genial Altman y su cofundador y científico jefe, el débilmente chamánico Ilya Sutskever, tomó una serie de decisiones fundamentales. Se concentrarían en modelos de idiomas en lugar de, por ejemplo, los robots de flujo posterior. Dado que las redes neuronales existentes ya parecían capaces de extraer patrones de los datos, el equipo decidió no concentrarse en el diseño de la red, sino para acumular la mayor cantidad de datos de capacitación posible. Se movieron más allá del caché de libros inéditos de Radford y se convirtieron en un pantano de transcripciones de YouTube y charla de tableros de mensajes: el lenguaje raspado de Internet en un arrastre generalizado.

Ese enfoque para el aprendizaje profundo requirió más poder informático, lo que significó más dinero, ejerciendo tensión en el modelo original sin fines de lucro. Pero funcionó. GPT-2 fue lanzado en 2019, un evento de época en el mundo de la IA, seguido por el ChatGPT más orientado al consumidor en 2022, que causó una impresión similar en el público en general. Los números de usuario aumentaron, al igual que una sensación de impulso místico. En un retiro fuera del sitio cerca de Yosemite, Sutskever, según los informes, incendió una efigie que representa la inteligencia artificial no alineada; En otro retiro, lideró a colegas en un canto: “Siente el Agi. Siente el agi”.

En el espinoso “Imperio de la IA: Dreams and Nightmares in Sam Altman’s OpenAi” (Penguin Press), Karen Hao rastrea las consecuencias de los avances de GPT a través de los rivales de OpenAi: Google, Meta, Antropic, Baidu, y argumenta que cada compañía, a su manera, se refleja las elecciones de Altman. El modelo de escala OpenAI a toda costa se convirtió en el incumplimiento de la industria. El libro de Hao es a la vez admirablemente detallado y un dedo puntiagudo largo. “Era específicamente OpenAi, con sus orígenes multimillonario, una inclinación ideológica única y la unidad singular de Altman, la red y el talento de recaudación de fondos, que creó una combinación madura por su visión particular de emerger y hacerse cargo”, escribe. “Todo lo que Openai hizo fue lo contrario de inevitable; los costos globales explosivos de sus modelos masivos de aprendizaje profundo, y la peligrosa raza que provocó en toda la industria para escalar tales modelos a los límites planetarios, solo podría haber surgido del único lugar que realmente hizo”. En otras palabras, hemos sido seducidos, llenos por la retórica espeluznante y de alta mentalidad de riesgo existencial. La historia de la evolución de la IA durante la última década, en la narración de Hao, no se trata realmente de la fecha de adquisición de la máquina o el grado de control humano sobre la tecnología, los términos del debate de AGI. En cambio, es una historia corporativa sobre cómo terminamos con la versión de AI que tenemos.

Hao escribe el “pecado original” de este brazo de tecnología, yacía en una decisión de un matemático de Dartmouth llamado John McCarthy, en 1955, para acuñar la frase “inteligencia artificial” en primer lugar. “El término se presta a las exageraciones casuales antropomorfizantes y sin aliento sobre las capacidades de la tecnología”, observa. Como evidencia, señala a Frank Rosenblatt, un profesor de Cornell que, a finales de los años cincuenta, ideó un sistema que podía distinguir entre cartas con un pequeño cuadrado a la derecha contra la izquierda. Rosenblatt lo promovió como el cerebro, en su camino hacia la sensibilidad y la autocreplicación, y estas afirmaciones fueron recogidas y transmitidas por la Nueva York Veces. Pero una vacilación cultural más amplia sobre las implicaciones de la tecnología significaba que, una vez que OpenAi, hizo su avance, Altman, su CEO, se veía para ser visto no solo como un administrador fiduciario sino también como ético. La pregunta de fondo que comenzó a burbujear alrededor del valle, Keach Hagey escribe en “The Optimist: Sam Altman, OpenAi, y la carrera para inventar el futuro” (Norton): “Primero susurró, luego murmuró y luego aparece en ensayos en línea elaborados de los desertores de la compañía: ¿podemos confiar en esta persona para llevarnos a Agi?”

Dentro del mundo de los fundadores de la tecnología, Altman podría haber parecido un candidato bastante confiable. Salió de sus veinte años no solo muy influyente y muy rico (lo cual no es inusual en Silicon Valley), sino con su reputación moral básicamente intacta (lo cual es). Criado en un suburbio de St. Louis en un hogar judío de reforma, el mayor de cuatro hijos de un desarrollador de bienes raíces y un dermatólogo, había sido identificado desde el principio como una especie de niño polimatico en John Burroughs, una escuela preparatoria local. “Su personalidad me recordó a Malcolm Gladwell”, le dice a Hagey la cabeza de la escuela, Andy Abbott. “Puede hablar de cualquier cosa y es realmente interesante”: computadoras, política, Faulkner, derechos humanos.

Altman salió como gay a los dieciséis años. En Stanford, según Hagey, cuya biografía es más convencional que la de Hao, pero es bastante convincente, lanzó una campaña estudiantil en apoyo del matrimonio homosexual y entretuvo brevemente la posibilidad de tomarlo nacional. En una feria empresarial durante su segundo año, en 2005, el altman físicamente leve se paró en una mesa, abrió su teléfono, declaró que la geolocalización era el futuro e invitó a cualquier persona interesada a unirse a él. Pronto, se retiró y dirigía una compañía llamada Loopt. Abbott recordó el momento en que escuchó que su antiguo estudiante iba a la tecnología. “Oh, no vayas en esa dirección, Sam”, dijo. “¡Eres tan agradable!”

Continue Reading

Trending