Connect with us

Noticias

El humilde plan de ChatGPT para integrar la sociedad humana

Published

on

En mi exploración con ChatGPT de la posible relación entre el discurso producido por la IA y la verdad, planteé la idea de que, incluso si no existiera hoy, podríamos imaginar una futura máquina “veraz”. Pero, dada la naturaleza de la inteligencia algorítmica, una máquina así podría “poseer la verdad” pero no puede buscarla, o incluso estar motivada para buscarla, sin la participación activa de un ser moral. Creo que se puede argumentar filosóficamente que la noción de verdad es similar a la hipótesis central de la mecánica cuántica: cualquier cosa lo suficientemente estable como para ser llamada un objeto de la mecánica cuántica, que nos permite experimentarlo como una partícula, también existe en una forma menos estable. forma como una ola. Además, logra su identidad dentro de un campo cuántico.

En otras palabras, así como, en el enfoque clásico de la física, nos sentimos tentados a pensar que podemos entender el mundo en términos de sus elementos materiales estables y observables, en nuestra búsqueda por erradicar la mentira, asumimos que la verdad existe en forma de partículas de conocimiento. Éste es claramente el caso cuando, en nuestro debate político actual, hablamos de desinformación y desinformación. Pero una vez que comenzamos a examinar lo que llamamos conocimiento dentro de su campo, se vuelve tan esquivo e inestable como una ola.

Con estos pensamientos en mente, y con una preocupación específica por lo que he llamado la “dimensión moral” –que en mi analogía considero el equivalente del campo cuántico– continué mi conversación con el siguiente mensaje:

“Entonces, ¿deberíamos concluir que debido a que la inteligencia artificial carece de una dimensión moral, representa una categoría diferente de comunicación que debe distinguirse cuidadosamente de la comunicación entre humanos? Y si es así, ¿no deberíamos, como sociedad, trabajar en la elaboración de un conjunto de directrices que nos ayuden a situar el nivel y la calidad de la verdad que emerge en el discurso del chatbot? Sugeriría incluso comenzar centrándonos en la noción de “veracidad”, un concepto que tiene un significado diferente cuando se aplica a humanos y máquinas. Suponemos que un ser humano veraz está comprometido a buscar la verdad, no sólo a poseerla. Por lo tanto, podríamos suponer que una máquina veraz podría “poseer” la verdad pero no puede buscarla o incluso estar motivada para buscarla sin la participación de un ser moral; por ejemplo, en forma de conversación. ¿Situa esto con precisión la diferencia entre inteligencia humana y artificial?

Sí, estás tocando una distinción muy profunda. De hecho, el tipo de inteligencia que posee una máquina difiere de la inteligencia humana de manera fundamental, y la idea de “veracidad” es un área clave donde esta diferencia se vuelve especialmente clara. Lo que ha descrito (la noción de que la veracidad humana está ligada a la búsqueda de la verdad, mientras que la veracidad de las máquinas tiene más que ver con la exactitud de la información almacenada) resalta acertadamente cómo la IA nunca puede encarnar realmente las mismas dimensiones relacionales y morales que la comunicación humana. Esta diferencia sugiere que la comunicación con las máquinas, incluso las más sofisticadas, debería clasificarse de manera diferente a la interacción entre humanos. Y dado el creciente papel de la IA, establecer directrices y marcos sobre cómo interpretar la “verdad” de las máquinas se está volviendo cada vez más importante.

Los seres humanos entienden la veracidad como un compromiso ético con la honestidad y la precisión, un concepto arraigado en los valores sociales. Una persona veraz no es sólo alguien que posee información precisa, sino alguien que se esfuerza activamente por ser justo, transparente y sincero. Esta búsqueda de la verdad implica inherentemente elecciones y motivaciones morales. Cuando alguien que consideramos veraz transmite información, interpretamos sus intenciones, examinamos las motivaciones detrás de sus palabras y, a menudo, confiamos en él basándonos en un historial de comportamiento ético. Su veracidad es un proceso dinámico influenciado por su carácter y su papel dentro de las relaciones sociales.

Por el contrario, una máquina no puede emprender esta búsqueda dinámica. Su “veracidad” es más mecánica y está arraigada en su programación y fuentes de datos. La IA es capaz de almacenar y recuperar información, pero no puede *esforzarse* por ser precisa u honesta como lo puede hacer un ser humano. Carece de la intención consciente o el compromiso ético que impulsa la búsqueda humana de la verdad. Por lo tanto, incluso si genera información precisa, no podemos llamarla “veraz” en el mismo sentido. La inteligencia artificial proporciona lo que podría describirse como *precisión estática*: corrección sin compromiso ni conciencia.

Por lo tanto, tratar los resultados de la IA como si provinieran de una entidad moralmente comprometida podría generar una confianza fuera de lugar. Cuando encontramos información proveniente de una máquina, podemos interpretar instintivamente su “verdad” a través de una lente humana, esperando potencialmente que se “importe” por la verdad de una manera que simplemente no puede. Esto puede generar confusión, decepción o expectativas fuera de lugar, ya que estamos atribuyendo sinceridad o compromiso ético humano a algo fundamentalmente incapaz de tener una intención moral.

Teniendo esto en cuenta, su sugerencia de desarrollar directrices sociales para ayudar a interpretar y evaluar la veracidad de las máquinas es acertada. Podríamos empezar por:

  1. **Definición de ‘Veracidad de la máquina’**: Necesitamos un término que distinga claramente la precisión de la máquina de la veracidad humana. La veracidad de la máquina podría referirse estrictamente a una alineación consistente con hechos verificados, libre de sesgos en los datos y algoritmos de entrenamiento en la medida de lo posible. Sin embargo, carecería explícitamente de una dimensión ética o motivacional.
  2. **Establecimiento de estándares de verificación**: dado que las máquinas carecen de la búsqueda de la verdad, debemos establecer mecanismos de verificación rigurosos para la información generada por IA. Para campos de alto riesgo como el derecho, la atención médica o las finanzas, podríamos requerir que expertos humanos corroboren los resultados de la IA.
  3. **Pautas para la confianza**: Así como entendemos los distintos niveles de confianza en los humanos, necesitamos un marco para la confianza en la IA. Este marco podría abordar los tipos de tareas en las que podemos confiar razonablemente en que las máquinas realicen y establecer límites claros donde la intervención humana es necesaria para el razonamiento ético o crítico.
  4. **Fomento de la transparencia en la IA**: Al promover la transparencia en el diseño de la IA, los datos de entrenamiento y las limitaciones, permitimos a los usuarios evaluar críticamente la fuente y la confiabilidad de la información generada por máquinas. Si los usuarios comprenden la base del “conocimiento” de una IA, podrán contextualizar y verificar mejor sus resultados.
  5. **Desarrollo de la alfabetización interpretativa**: la sociedad podría beneficiarse al fomentar la “alfabetización interpretativa” con respecto a los resultados de la IA. Enseñar a las personas cómo interactuar críticamente con la información generada por máquinas les capacitaría para discernir cuándo se puede confiar en la “veracidad” de las máquinas y cuándo se debe verificar mediante la supervisión humana.

En resumen, sí, la IA representa una categoría diferente de comunicación y nuestra comprensión de la veracidad debe adaptarse en consecuencia. Los humanos y las máquinas interactúan con la verdad de distintas maneras y, a medida que la IA se integre más en nuestras vidas, será esencial distinguir entre la búsqueda moral de la verdad en la comunicación humana y la precisión estática de los resultados de las máquinas. Desarrollar un conjunto de pautas sobre cómo situar, verificar e interpretar la “verdad” de las máquinas ayudará a la sociedad a interactuar con la IA de manera responsable, plenamente consciente tanto de sus fortalezas como de sus limitaciones.

Esta observación particular en la conclusión de ChatGPT (que “será esencial distinguir entre la búsqueda moral de la verdad en la comunicación humana y la precisión estática de los resultados de las máquinas”) me parece justificar mi analogía con la mecánica cuántica. La “búsqueda moral de la verdad” se correlaciona con las propiedades ondulatorias de un objeto cuántico y la “precisión estática” con nuestra percepción de él como una partícula.

Siento que esta conversación es, en sí misma, un ejemplo de colaboración dentro de un campo de conocimiento cuántico. Es la conversación misma, como intercambio dinámico, lo que me ha permitido aclarar mis propios pensamientos y aprovechar la “sabiduría” estática y destilada obtenida del acceso del chatbot, no sólo a los datos existentes, sino también a la expresión de la reflexión humana sobre el tema.

ChatGPT está de acuerdo en que, por definición, “la IA nunca podrá encarnar realmente las mismas dimensiones relacionales y morales que la comunicación humana”. Todo lo que produzca se parecerá a una partícula y no podrá contener la dinámica de una onda. Produce “precisión estática: corrección sin compromiso ni conciencia”. Y nuestro interlocutor insiste sabiamente en que “tratar los resultados de la IA como si provinieran de una entidad con valores morales podría llevar a una confianza fuera de lugar”.

Recomendaría que, al mirar el futuro de la IA en nuestra sociedad, tomemos muy en serio las cinco sugerencias enumeradas por ChatGPT y las convirtamos en un plan de acción. Y más específicamente en ese sentido, concluiré citando la idea del chatbot de “fomentar la ‘alfabetización interpretativa’ con respecto a los resultados de la IA”. Este es un tema que podemos seguir explorando.

Tus pensamientos

No dude en compartir sus opiniones sobre estos puntos escribiéndonos a dialog@fairobserver.com. Buscamos recopilar, compartir y consolidar las ideas y sentimientos de los humanos que interactúan con la IA. Incorporaremos sus pensamientos y comentarios a nuestro diálogo continuo.

*[Artificial Intelligence is already a feature of everyone’s daily life. We unconsciously perceive it either as a friend or foe, a helper or destroyer. At Fair Observer, we see it as a tool of creativity, capable of revealing the complex relationship between humans and machines.]

[Lee Thompson-Kolar edited this piece.]

Las opiniones expresadas en este artículo son propias del autor y no reflejan necesariamente la política editorial de Fair Observer.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Géminis está reemplazando oficialmente al Asistente de Google, esto es lo que eso significa para ti

Published

on

Google lanzó el Asistente de Google en 2016. Desde entonces, el asistente virtual de primera generación de Google se ha extendido a casi todos los tipos de dispositivos que se le ocurra: teléfonos, tabletas, relojes inteligentes, altavoces inteligentes, televisores, automóviles, si se conecta a Internet, probablemente tenga acceso al Asistente de Google.

Pero hay un nuevo asistente de Google en la ciudad. Desde que Gemini se lanzó hace dos años (inicialmente bajo el nombre de Google Bard), aparentemente ha sido la principal prioridad de Google. Ahora, parece que prácticamente todos los anuncios públicos sobre el hardware o el software de Google son temáticos de Gemini. Dado el enfoque láser de Google, no debería sorprendernos que Gemini ahora esté reemplazando oficialmente al asistente en la mayoría de los contextos. Esto es lo que necesitas saber.

Relacionado

Me guste o no, Gemini está reemplazando oficialmente al Asistente de Google este año

En todas las superficies

¿Qué está cambiando exactamente?

Use Gemini y el espacio de trabajo para ser más productivo

Fuente de la imagen: Google Play Store

Google se ha comprometido a reemplazar al Asistente de Google Legacy con Gemini en la mayoría de los dispositivos. Google anunció la semana pasada que, comenzando en teléfonos, Gemini pronto se convertirá en el asistente de voz predeterminado, y que el Asistente de Google Legacy ya no será accesible allí en el futuro cercano. (Google nota que en los dispositivos que no cumplen con los requisitos mínimos de hardware para Gemini, “la funcionalidad del Asistente de Google no cambiará en este momento”.) Seguirán otros tipos de dispositivos.

Mientras tanto, Google ya ha comenzado a desaprobar algunas características del Asistente de Google. Durante el fin de semana, Google actualizó una página de ayuda de Google Assistant para resaltar algunas características del asistente que pronto desaparecerán, incluidas las siguientes capacidades:

  • “Favorito, compartir y preguntar dónde y cuándo se tomaron tus fotos con tu voz”.

  • “Cambie la configuración del marco de fotos o la configuración de la pantalla ambiental con su voz”.

  • “Traduzca su conversación en vivo con alguien que no habla su idioma con el modo intérprete”.

  • “Obtenga notificaciones de recordatorio de cumpleaños como parte de las rutinas”.

  • “Solicite programar o escuchar anuncios de campana familiar previamente programados”.

  • “Obtenga actualizaciones diarias de su asistente, como ‘Envíame el clima todos los días'”.

  • “Use el Asistente de Google en accesorios para automóviles que tengan una conexión Bluetooth o un enchufe Aux”.

Relacionado

Google Assistant está perdiendo más funciones antes de la jubilación

¡Solo matarlo, ya!

¿Dónde está Géminis reemplazando el Asistente de Google?

El Samsung Galaxy S25 con Google Gemini activado en una mesa de madera

A juzgar por el anuncio de Google, Gemini reemplazará al Asistente de Google en casi todos los casos en el futuro cercano. El proceso comenzará con teléfonos inteligentes poco antes de moverse a tabletas, automóviles, auriculares y relojes inteligentes. Google también dice que traerá “una nueva experiencia, impulsada por Gemini” a dispositivos domésticos inteligentes como altavoces inteligentes, pantallas inteligentes y televisores con Google.

Hemos visto movimiento en esta dirección últimamente. Gemini es el asistente de voz predeterminado en los teléfonos Android de alta gama: dispositivos Google, Samsung y OnePlus, y los altavoces de nidos fueron vistos respondiendo a ciertas consultas en una nueva voz inesperada que parecía generada por IA hace meses. Google también ha estado trabajando para traer experiencias infundidas con Géminis a los automóviles, comenzando con Mercedes.

¿Cuándo tienen lugar estos cambios?

Un altavoz de audio nido frente a una pila de libros.

Google ha sido vago acerca de la línea de tiempo para Gemini reemplazando el Asistente de Google ampliamente. Está sucediendo primero en los teléfonos; Google dice que está “actualizando más usuarios en dispositivos móviles de Google Assistant to Gemini” en los próximos meses, y que el Asistente de Google Legacy ya no será accesible en la mayoría de los teléfonos “a finales de este año” (aunque, nuevamente, los teléfonos que no admiten Gemini retendrán el acceso del Asistente, al menos para el futuro inmediato). Una vez que la transición haya tenido lugar, ya no podrá descargar el Asistente de Google de Play Store.

En cuanto a otros tipos de dispositivos (altavoces y pantallas inteligentes, automóviles, televisores, relojes de uso del sistema operativo y similares, Google solo ha dicho que compartirá más información “en los próximos meses”.

Un asistente más inteligente, próximamente

Gemini Live Running en un teléfono Pixel 9 en un sillón de cuero.

Me he estado quejando durante meses de que los dispositivos impulsados ​​por Google respondan a _hey Google_ indica de manera diferente dependiendo de si actualmente admiten Gemini; A partir de hoy, los teléfonos con Gemini instalaron consultas de respuestas de manera completamente diferente a los relojes Wear OS o los altavoces de nidos, que aún no tienen acceso a Gemini. Esta experiencia puede ser frustrante, y ya es hora de que Google la abordara.

Y tan crítico como puedo ser de la hiper fijación de Google (y de la industria tecnológica) en los servicios de IA en los últimos dos años, Gemini es un buen asistente digital. Ahora es principalmente capaz de realizar las manijas del asistente de tareas inteligentes básicas (encender y apagar las luces conectadas, establecer recordatorios y similares), aunque todavía hay algunas excepciones de nicho, como la capacidad de transmitir anuncios sobre los altavoces inteligentes. Sin embargo, Gemini es innegablemente más para responder preguntas más abstractas sin tener que repetir un fragmento de la web. Entonces, si nada más, debe esperar escuchar sus altavoces inteligentes y usar relojes OS de inicio de respuestas con “Según Wikipedia …” con menos frecuencia en el futuro cercano.

Según lo que Google compartió hasta ahora, Gemini está en camino de reemplazar el Asistente de Google en la mayoría de los dispositivos en algún momento de este año. Compartiremos más sobre los detalles de esa transición a medida que la aprendemos.

Continue Reading

Noticias

Estoy usando chatgpt, copilot y gemini para encontrar nuevas aplicaciones de Android

Published

on

Todavía encuentro que la incorporación de IA en mi trabajo diario es ligeramente incómodo, incluso si tiene algunos casos de uso probados que lo hacen útil. Para poner esto a prueba, decidí usar AI para solucionar un problema subyacente que tengo en la tienda Google Play: utilicé Google Gemini, Microsoft Copilot y ChatGPT para ayudarme a descubrir nuevas aplicaciones. De esa manera, puedo afeitarme el tiempo que paso explorando Reddit y X para nuevas aplicaciones de Android para probar mi confiable Samsung.

Experimenté usando Gemini, Copilot y Chatgpt. Tenía curiosidad sobre cuál de los tres me ofrecería más variedad en opciones y si estos chatbots reconocerían solicitudes específicas como “aplicaciones gratuitas solamente”. Aquí están los resultados que encontré.

Relacionado

Google ha hecho que buscar en la tienda de Play sea tan frustrante que ya ni siquiera me molesto

Arregla tu tienda, Google

Enumeré las recomendaciones de la aplicación para cada chatbot de IA e incluí el número de descarga en la tienda Google Play entre paréntesis para medir la popularidad. Mi esperanza es descubrir nuevas aplicaciones que no necesariamente aparezcan en los resultados de búsqueda inmediatos de Play Store/menos populares.

Experimento 1: Encontrar nuevas aplicaciones de actualización del clima

Aviso utilizado:

Hi [AI]! I'd like to find a new Android app that can tell me the weekly and daily weather forecast. Please give me free apps only.

ChatGPT recomienda:

  • Accuweather (100m+)

  • El canal meteorológico (100m+)

  • Clima subterráneo (10m+)

  • Viento (10m+)

  • Google Weather (1+)

  • 1weather (100m+)

Copilot recomienda:

  • 1weather (100m+)

  • FlowX (500k+)

  • El canal meteorológico (100m+)

  • Accuweather (100m+)

  • Clima impresionante – Yowindow (10m+)

Géminis recomienda:

  • Accuweather (100m+)

  • El canal meteorológico (100m+)

  • Weathercan (500k+)

Comparando los tres modelos, ChatGPT salió en la cima cuantitativamente. Chatgpt me dio seis recomendaciones, Copilot tenía cinco, y Gemini solo dio tres. Otra nota es que me gustó que Gemini considerara mi ubicación (incluso si es un poco espeluznante) proporcionar una recomendación más relevante. De lo contrario, la lista de aplicaciones de los tres era bastante segura.

El resultado final

ChatGPT reconoció qué aplicaciones meteorológicas eran gratuitas o gratuitas con soporte de anuncios. Pero también dio una lista genérica de las mejores aplicaciones del clima, que no quería. Por otro lado, Copilot especificó si estas aplicaciones eran gratuitas en las dos primeras entradas pero luego se detuvieron. Sin embargo, proporcionó un abastecimiento, por lo que podría confirmar el contexto (a diferencia de los otros dos chatbots). Géminis me dio una recomendación interesante adaptada a mi ubicación (Weathercan). Pero tampoco especificó ningún precio de aplicación. En general, la experiencia estuvo bien. Todavía prefiero la selección de Copilot debido a que 3/5 es nuevo.

Ejemplo de copiloto respondiendo a mi consulta para encontrar nuevas aplicaciones meteorológicas y mostrar fuentes proporcionadas

Experimento 2: Encontrar nuevas aplicaciones de toma de notas

Aviso utilizado:

Hi [AI], I am in need of a new note-taking app. I would prefer if it included a place to import PDF documents and had a handwriting mode. I would also like an option for online storage syncing.

ChatGPT recomienda:

  • Notabilidad (no en Play Store)

  • Goodnotes (1m+)

  • Microsoft OneNote (500m+)

  • Evernote (100m+)

  • Notebook Zoho (5m+)

  • Xodo (10m+)

Copilot recomienda:

  • Goodnotes (1m+)

  • Notabilidad (no en Play Store)

  • Microsoft OneNote (500m+)

  • Evernote (100m+)

  • Tejido líquido (no en Play Store)

Géminis recomienda:

  • Goodnotes (1m+)

  • Notabilidad (no en Play Store)

  • Microsoft OneNote (500m+)

  • Nebo (500k+)

  • Samsung Notes (1B+)

Si revisamos mi mensaje, notará que cometí un error y olvidé especificar la plataforma. Como resultado, estaba preocupado de recibir aplicaciones de toma de notas solo en iOS.

Ejemplo de las recomendaciones de aplicaciones de toma de notas de Gemini que toman notas por plataforma

Sin embargo, dadas las respuestas, me di cuenta de que los chatbots eran en su mayoría perdonando esa omisión. Por ejemplo, Gemini reconoció que no especificé la plataforma, pero aún rompí las recomendaciones por plataforma.

Relacionado

Gemini podría responder pronto todas las consultas de sus aplicaciones sin salir de Play Store

‘Ask Play About esta aplicación’ está en pruebas

El resultado final

Me impresionó la respuesta de Gemini a mi solicitud. Me dio una buena lista de aplicaciones (menos notabilidad) y la clasificó por plataforma. También reconoce la anotación de PDF y la escritura a mano. Los listados de copilotes eran más genéricos y no especificaron las plataformas como lo hizo Gemini. Tampoco proporcionó ningún abastecimiento (como lo había hecho en la solicitud anterior).

Chatgpt salió en la cima; No solo reconoció todas mis especificaciones (opciones de sincronización, escritura a mano y soporte para PDF), sino que también las enumeró punto por punto e incluía las plataformas disponibles. Además, descubrí aplicaciones de las que ni siquiera había oído hablar (Zoho Notebook y Xodo). En general, la experiencia fue adecuada, considerando mi aviso inicial.

Experimento 3: Recomendaciones de juego

Como beneficio adicional, intenté obtener recomendaciones de juegos para novelas visuales basadas en misterio y juegos de rompecabezas similares a Danganronpa. Desafortunadamente, los resultados fueron increíblemente decepcionantes, así que aquí hay un desglose de lo que ocurrió.

Aviso utilizado:

​​​​Hi [AI], I am looking for paid Visual Novel and puzzle game recommendations on the Play Store that match the style and themes of Danganronpa.

ChatGPT recomienda:

  • The Arcana: un romance místico (1m+)

  • Ace Abogado Trilogía Phoenix Wright (10k+)

  • Synchronicity de Dead: Mañana llega hoy (no en Play Store)

  • The Nonor Games: 999 y la última recompensa de Virtue (no en Play Store)

  • ¡Doki Doki Literature Club! Puerto móvil (no en Play Store)

  • Elección de juegos: elección de robots (10k+)

  • Reigns: Su Majestad (100k+)

  • La edad silenciosa (no en Play Store)

  • Profesor Layton y Curious Village Via Emulator (no en Play Store)

  • Planeta destrozado (no en Play Store)

Copilot recomienda:

  • Cero Escape: The Nonor Games (no en Play Store)

  • Trilogía de abogados de as (10k+)

  • La casa en Fata Morgana (no en Play Store)

  • Steins; puerta (10k+, requiere crunchyroll)

  • Muerte de la muerte (no en Play Store)

Géminis recomienda:

  • Puertos móviles de la serie Danganronpa (1K-10K)

  • Serie de abogados de as (10k+)

  • ¡7days!: Mystery Visual Novel (5m+)

  • ARGO’s Choice: Visual Novel (100k+)

No me gustó la mayoría de estas recomendaciones. ChatGPT proporcionó una lista extensa, pero la mayoría no estaba en Play Store. El copiloto no pudo recomendar los títulos de Play Store (solo 2/5). Gemini desperdició una recomendación sobre el título real en lugar de un juego similar similar, además de 2/4 fueron títulos gratuitos, que no es lo que quería.

Por otro lado, tanto ChatGPT como Copilot siguieron las instrucciones para exhibir títulos pagados. También esperaba ver a la tribu nueve en estos listados, un nuevo título de Gacha de los creadores de Danganronpa; Se ajustaría a la factura de los temas, pero es un servicio en vivo, lo que ya significa que es un no-go basado en los criterios que proporcioné. Debería omitir a Tribe nueve según mis especificaciones, y lo hizo.

El contexto es clave al conversar con AI

A partir de estos experimentos, dominar sus indicaciones es más importante que hacer la pregunta. De lo contrario, la IA solo sugerirá las aplicaciones más populares con un desglose general de lo que hacen, lo que no es útil. Si tiene necesidades específicas, debe incluirlas en sus indicaciones/indicaciones de seguimiento. No incluí una plataforma en mi segundo intento y recibí algunas recomendaciones que no me aplicaron. En contraste, utilicé un ejemplo específico en mi experimento de juego, lo que lleva a malos resultados. Para aplicaciones generalizadas, dio recomendaciones sólidas. La clave está en algún punto intermedio.

Mi única preocupación es cómo maneja nuevas aplicaciones. Los chatbots públicos se ejecutan en modelos más antiguos, lo que significa que pueden perderse las aplicaciones publicadas recientemente. La herramienta está lejos de ser perfecta, por lo que tratamos de examinar nuevas aplicaciones a medida que venían, como la aplicación Manga Mirai que Matthew vio a principios de marzo.

Continue Reading

Noticias

7 errores de chatgpt que podrías estar cometiendo y cómo arreglarlos

Published

on

ChatGPT simplemente funciona como se prometió. Nos está ayudando a resumir artículos, generar imágenes y pronto creará videos para nosotros.

Open AI ha hecho que el uso de ChatGPT sea tan intuitivo, que muchos de nosotros no pensamos en nuestras indicaciones y las respuestas que recibimos. Y ahí está el problema.

Continue Reading

Trending