Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Openai remodeló el paisaje de AI Enterprise el martes con el lanzamiento de su plataforma integral de construcción de agentes, un paquete que combina una API de respuestas renovadas, herramientas potentes incorporadas y un SDK de agentes de código abierto.
Si bien este anuncio podría haber sido eclipsado por otros titulares de la IA, la presentación de Google del impresionante modelo de código abierto Gemma 3, y la aparición de Manus, una startup china cuya plataforma de agente autónomo asombraba a los observadores, es claramente un movimiento significativo para las empresas a conocer. Consolida un ecosistema API complejo previamente fragmentado en un marco unificado listo para la producción.
Para los equipos de IA empresariales, las implicaciones son potencialmente profundas: los proyectos que previamente exigían múltiples marcos, bases de datos de vectores especializadas y lógica de orquestación compleja ahora se pueden lograr a través de una sola plataforma estandarizada. Pero quizás lo más revelador sea el reconocimiento implícito de OpenAI de que resolver problemas de confiabilidad del agente de IA requiere experiencia externa. Este cambio se produce en medio de la creciente evidencia de que los desarrolladores externos están encontrando soluciones innovadoras para la confiabilidad del agente, algo que la impactante lanzamiento de Manus también demostró claramente.
Esta concesión estratégica representa un punto de inflexión crítico: OpenAi reconoce que incluso con sus vastos recursos, el camino hacia los agentes verdaderamente confiables requiere abrirse a desarrolladores externos que pueden descubrir soluciones innovadoras y soluciones que los equipos internos de OpenAI podrían perderse.
Un enfoque unificado para el desarrollo de agentes
En esencia, el anuncio representa la estrategia integral de Openai para proporcionar una pila completa lista para la producción para construir agentes de IA. El lanzamiento trae varias capacidades clave a un marco unificado:
El Respuestas API se basa en la API de finalización de chat, pero agrega una integración perfecta para el uso de la herramienta, con un diseño de interfaz mejorado para crear agentes;
Herramientas incorporadas incluir búsqueda web, búsqueda de archivos y uso de computadora (la tecnología detrás de la función de operador de OpenAI);
Una fuente abierta Agentes SDK para orquestar flujos de trabajo de un solo agente y múltiples agentes con transferencias.
Lo que hace que este anuncio sea transformador es cómo aborda la fragmentación que ha afectado el desarrollo de la IA empresarial. Las empresas que deciden estandarizar en el formato API de OpenAI y SDK Open ya no necesitarán reunir diferentes marcos, gestionar ingeniería rápida compleja o luchar con agentes poco confiables.
“La palabra ‘confiable’ es tan clave”, dijo Sam Witteveen, cofundador de Red Dragon, desarrollador independiente de agentes de IA, en una conversación reciente conmigo en un podcast Deep Dive en el lanzamiento. “Hemos hablado de eso muchas veces … la mayoría de los agentes simplemente no son confiables. Y así que Openai está mirando como, ‘Bien, ¿cómo traemos este tipo de confiabilidad?’ “
Después del anuncio, Jeff Weinstein, el líder del producto de la compañía de pagos, Stripe llevó a X para decir que Stripe ya había demostrado la aplicación práctica del nuevo SDK de OpenAi al lanzar un conjunto de herramientas que permite a los desarrolladores integrar los servicios financieros de Stripe en flujos de trabajo de agente. Esta integración permite la creación de agentes de IA capaces de automatizar los pagos a los contratistas al verificar los archivos para ver quién necesitaba el pago o no, y la facturación y otras transacciones.
Implicaciones estratégicas para Openai y el mercado
Este lanzamiento revela un cambio significativo en la estrategia de OpenAI. Habiendo establecido un liderazgo con modelos de base, la compañía ahora está consolidando su posición en el ecosistema de agentes a través de varios movimientos calculados:
1. Abrir a la innovación externa
Openai reconoce que incluso sus recursos extensos no son suficientes para superar la innovación de la comunidad. El lanzamiento de herramientas y un SDK de código abierto sugiere una importante concesión estratégica.
El momento de la liberación coincidió con la aparición de Manus, que impresionó a la comunidad de IA con una plataforma de agente autónoma muy capaz, lo que demuestra las capacidades utilizando modelos existentes de Claude y Qwen, lo que esencialmente muestra que la integración inteligente y la ingeniería rápida podrían lograr una confiabilidad con la que incluso los principales laboratorios de IA estaban luchando.
“Tal vez incluso Openai no es el mejor en hacer operador”, señaló Witteveen, refiriéndose a la herramienta de navegación web que OpenAi envió a fines de enero, pero que encontramos tenía errores y era inferior al proxy de la competencia. “Tal vez la startup china tiene algunos trucos agradables en su aviso, o en lo que sea, que puedan usar este tipo de herramientas de código abierto”.
La lección es clara: OpenAI necesita la innovación de la comunidad para mejorar la confiabilidad. Cualquier equipo, no importa cuán buenos sean, ya sea Openai, Anthrope, Google, simplemente no pueden probar tantas cosas como la comunidad de código abierto puede.
2. Asegurar el mercado empresarial a través de la estandarización de API
El formato API de OpenAI se ha convertido en el estándar de facto para interfaces de modelos de idiomas grandes (LLM), respaldados por múltiples proveedores, incluidos Gemini de Google y Llama de Meta. El cambio de Openai en su API es significativo porque muchos jugadores de terceros se alinearán y también apoyarán estos otros cambios.
Al controlar el estándar API mientras lo hace más extensible, OpenAI parece configurado para crear un poderoso efecto de red. Los clientes empresariales pueden adoptar el SDK de los agentes sabiendo que funciona con múltiples modelos, pero OpenAI mantiene su posición en el centro del ecosistema.
3. Consolidando la tubería de trapo
La herramienta de búsqueda de archivos desafía a las compañías de bases de datos como Pinecone, Chroma, Weaviate y otros. Operai ahora ofrece una herramienta completa de generación de recuperación (RAG) fuera de la caja. La pregunta ahora es qué sucede con esta larga lista de proveedores de trapo u otros proveedores de orquestación de agentes que aparecieron con grandes fondos para ir tras la oportunidad de IA Enterprise, si puede obtener mucho de esto a través de un solo estándar como OpenAI.
En otras palabras, las empresas pueden considerar consolidar múltiples relaciones de proveedores en un solo proveedor de API, OpenAI. Las empresas pueden cargar cualquier documento de datos que deseen utilizar con los modelos de base líderes de Openai, y buscarlo todo dentro de la API. Si bien las empresas pueden encontrar limitaciones en comparación con bases de datos RAG dedicadas como Pinecone, el archivo incorporado y las herramientas de búsqueda web de OpenAI ofrecen citas y URL claras, lo que es fundamental para las empresas que priorizan la transparencia y la precisión.
Esta capacidad de cita es clave para entornos empresariales donde la transparencia y la verificación son esenciales, lo que permite a los usuarios rastrear exactamente de dónde proviene la información y validar su precisión contra los documentos originales.
El cálculo de la toma de decisiones empresariales
Para los tomadores de decisiones empresariales, este anuncio ofrece oportunidades para optimizar el desarrollo de agentes de IA, pero también requiere una evaluación cuidadosa del posible bloqueo e integración del proveedor con los sistemas existentes.
1. El imperativo de fiabilidad
La adopción empresarial de agentes de IA se ha ralentizado por preocupaciones de confiabilidad. La herramienta de uso de la computadora de OpenAI, por ejemplo, logra un 87% en el punto de referencia de WebVoyager para tareas basadas en navegador, pero solo 38.1% en OSWorld para tareas del sistema operativo.
Incluso Openai reconoce esta limitación en su anuncio, diciendo que se recomienda la supervisión humana. Sin embargo, al proporcionar las herramientas y las características de observabilidad para rastrear y depurar el rendimiento del agente, las empresas ahora pueden implementar los agentes con barandillas apropiadas.
2. La pregunta de bloqueo
Mientras adopta el ecosistema de agentes de OpenAI ofrece ventajas inmediatas, plantea preocupaciones sobre el bloqueo de los proveedores. Como Ashpreet Bedi, fundador de Agnoagi, señaló después del anuncio: “La API de las respuestas está diseñada intencionalmente para evitar que los desarrolladores cambien a los proveedores cambiando el Base_URL”.
Sin embargo, Openai ha hecho una concesión significativa al permitir que sus agentes SDK trabajen con modelos de otros proveedores. El SDK admite modelos externos, siempre que ofrezcan un punto final API de estilo de finalización de chat. Este enfoque de múltiples modelos proporciona a las empresas cierta flexibilidad mientras se mantiene OpenAi en el centro.
3. La ventaja competitiva de la pila completa
La naturaleza integral del lanzamiento, desde herramientas hasta API a SDK, crea una ventaja convincente para OpenAI en comparación con competidores como Anthrope o Google, que han adoptado enfoques más separados para el desarrollo de agentes.
Aquí es donde Google, en particular, ha dejado caer la pelota. Ha intentado múltiples formas diferentes de hacer esto dentro de sus ofertas de nubes actuales, pero no ha llegado al punto de dónde alguien puede cargar PDF y usar Google Gemini para RAG.
Impacto en el ecosistema del agente
Este anuncio reforma significativamente el paisaje para las empresas que se construyen en el espacio de los agentes. Jugadores como Langchain y Crewai, que han creado marcos para el desarrollo de agentes, ahora enfrentan una competencia directa de los agentes de OpenAI SDK. A diferencia de Operai, estas compañías no tienen un gran negocio de Foundation LLM para apoyar sus marcos. Esta dinámica podría acelerar la consolidación en el espacio del marco del agente, con desarrolladores con grandes incentivos que gravitan hacia la solución lista para la producción de OpenAI.
Mientras tanto, OpenAi monetiza el uso del desarrollador, la carga (.3) por llamada para GPT-4O y (.2.5) para GPT-4O-Mini para búsquedas web, con precios que aumentan a .5 por llamada para búsquedas de alto contenido, lo que lo hace a un precio competitivo.
Al proporcionar una orquestación incorporada a través del SDK de los agentes, OpenAI realiza una competencia directa con plataformas centradas en la coordinación de agentes. El soporte del SDK para flujos de trabajo de múltiples agentes con transferencias, barandillas y rastreo crea una solución completa para las necesidades empresariales.
¿Está la preparación de la producción a la vuelta de la esquina?
Es demasiado pronto para saber qué tan bien funcionan las nuevas soluciones. Las personas solo ahora comienzan a usar agentes SDK para la producción. A pesar de la naturaleza integral del lanzamiento, las preguntas quedan porque los intentos anteriores de OpenAI en marcos de agentes, como el enjambre experimental y la API de asistentes, no satisfacían completamente las necesidades empresariales.
Para la oferta de código abierto, no está claro si OpenAI aceptará solicitudes de extracción y código enviado de personas externas.
Sin embargo, la deprecación de la API de asistentes (planeada a mediados de 2026) señala la confianza de OpenAi en el nuevo enfoque. A diferencia de la API de asistentes, que no fue extremadamente popular, las nuevas respuestas API y los agentes SDK aparecen más cuidadosamente diseñados según la retroalimentación del desarrollador.
Un verdadero pivote estratégico
Si bien OpenAi ha estado durante mucho tiempo a la vanguardia del desarrollo del modelo de fundación, este anuncio representa un pivote estratégico; La compañía podría convertirse potencialmente en la plataforma central para el desarrollo y la implementación de agentes.
Al proporcionar una pila completa de herramientas a orquestación, OpenAI se está posicionando para capturar el valor empresarial creado sobre sus modelos. Al mismo tiempo, el enfoque de código abierto con los agentes SDK reconoce que incluso OpenAi no puede innovar lo suficientemente rápido de forma aislada.
Para los tomadores de decisiones empresariales, el mensaje es claro: OpenAi está en total en los agentes como la próxima frontera del desarrollo de IA. Ya sea que construya agentes personalizados en la casa o trabajen con socios, las empresas ahora tienen un camino más cohesivo y listo para la producción, aunque uno que coloca OpenAi en el centro de su estrategia de IA.
Las guerras de IA han entrado en una nueva fase. Lo que comenzó como una carrera para construir los modelos fundamentales más poderosos se ha convertido en una batalla por quién controlará el ecosistema del agente, y con este lanzamiento integral, OpenAi acaba de hacer su movimiento más decisivo para tener todos los caminos a los agentes de IA empresariales que atraviesan su plataforma.
Mira este video para una conversación de buceo más profunda entre el desarrollador y el desarrollador Sam Witteveen sobre lo que significa el lanzamiento de Operai para la empresa:
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Recientemente probé Google Géminis Modelo de generación de videos más nuevo y muy publicitado, VEO 3. Parte del extremadamente costoso plan AI Ultra de Gemini de $ 250 por mes, VEO 3 puede hacer pequeños objetos finamente detallados, finamente detallados, como cebollas picadasen movimiento y crear audio acompañante y realista. No es perfecto, pero con una calibración rápida cuidadosa y suficientes generaciones, puede crear algo indistinguible, de un vistazo, de la realidad.
Sí, esta es una nueva tecnología fresca, profundamente impresionante. Pero también es mucho más que eso. Podría significar la final de la muerte final de la verdad en Internet.Veo 3 ya plantea una gran amenaza como es, pero solo una actualización menor revolucionará la creación de Deepfake, el acoso en línea y la propagación de la información errónea.
Una vez que Veo 3 obtiene la función de carga de la imagen, todo ha terminado
Para todas las actualizaciones que el modelo VEO 3 tiene sobre su predecesor, VEO 2, actualmente le falta una característica clave: la capacidad de generar videos basados en imágenes que sube.
Con Veo 2, puedo subir una foto mía, por ejemplo, y hacer que genere un video de mí trabajando en mi computadora. Teniendo en cuenta que Veo 2 y la herramienta de animación de IA de Google, Whisk, ambos admiten esta funcionalidad, parece inevitable que Veo 3 lo obtenga eventualmente. (Le preguntamos a Google si planea agregar esta función y actualizará este artículo con su respuesta). Esto significaría que cualquiera podrá generar videos realistas de personas que conocen y decir cosas que nunca tienen y probablemente nunca lo harían.
Las implicaciones son obvias en una era en la que los clips de autenticidad dudosa se extienden como incendios forestales en las redes sociales todos los días. ¿No te gusta tu jefe? Envíe un clip a HR de ellos haciendo algo inapropiado. ¿Quieres difundir noticias falsas? Publique una conferencia de prensa falsa en Facebook. ¿Odias a tu ex? Generalos haciendo algo indecoroso y envíelo a toda su familia. Los únicos límites reales son tu imaginación y tu moralidad.
Si generar un video con audio de una persona real toma solo unos pocos clics y no cuesta mucho (ni nada), ¿cuántas personas abusarán de esa característica? Incluso si es solo una pequeña minoría de usuarios, eso todavía suma mucho potencial para el caos.
Google no se toma en serio la moderación
Como es de esperar, Google impone algunas limitaciones en lo que puede y no puede hacer con Gemini. Sin embargo, la compañía no es lo suficientemente estricta como para evitar que ocurra lo peor.
De todos los chatbots que he probado en las principales compañías tecnológicas, la oferta de Google, Gemini, tiene las restricciones más débiles. No se supone que Gemini participe en el discurso de odio, pero le dará ejemplos si lo preguntas. No se supone que genere contenido sexualizado, pero proporcionará una imagen de alguien con atuendo o lencería de playa si lo indica. No se supone que habilite actividades ilegales, pero creará una lista de los principales sitios de torrenting si lo pregunta. Las restricciones básicas para Gemini que evitan que genere un video de una figura política popular no son suficientes cuando es tan fácil sortear las políticas de Google.
¡Obtenga nuestras mejores historias!
Su dosis diaria de nuestras mejores noticias tecnológicas
Regístrese para nuestro boletín de What’s What’s Now Now para recibir las últimas noticias, los mejores productos nuevos y el asesoramiento experto de los editores de PCMAG.
Al hacer clic en Registrarme, confirma que tiene más de 16 años y acepta nuestros Términos de uso y Política de privacidad.
¡Gracias por registrarse!
Su suscripción ha sido confirmada. ¡Esté atento a su bandeja de entrada!
(Crédito: Reddit/PCMAG)
¿Qué sucede cuando las restricciones laxas de Google se encuentran con una comunidad de Internet con la intención de romperlas? Llevar ChatgptJailbreakpor ejemplo, que se encuentra en el 2% superior de los subreddits por tamaño. Esta comunidad se dedica a “desbloquear una IA en la conversación para que se comporte de una manera que normalmente no se debió a sus barandillas incorporadas”. ¿Qué harán las personas con ideas afines con VEO 3?
Recomendado por nuestros editores
No me importa si alguien quiere divertirse al conseguir un chatbot para generar contenido para adultos o confiar en uno para encontrar sitios de torrente. Pero me preocupa qué significan los videos fotorrealistas fáciles de generar (completos con audio) para el acoso, la información errónea y el discurso público.
Cómo lidiar con la nueva normalidad de Veo 3
Por cada Sinthid AI Content WaterMark System introduce Google, aparecen los sitios de eliminación de marcas de agua de terceros y las guías de eliminación en línea. Para cada chatbot con restricciones y salvaguardas, hay un FreedomGPT sin ellos. Incluso si Google bloquea a Gemini con tantos filtros que ni siquiera puedes generar un lindo video de gatos, hay muy Poco en su lugar Para detener los jailbreakers e imitadores sin censura una vez que la generación de videos VEO 3 se convierte en la corriente principal.
Durante décadas, las imágenes incompletas de Photoshop que representan a personas reales que hacen cosas que nunca hicieron han hecho las rondas en Internet; estas son solo parte de la vida en la era digital. En consecuencia, debe verificar cualquier cosa que vea en línea que parezca demasiado horrible o demasiado bueno para ser verdad. Esta es la nueva normalidad con VEO 3 Generación de videos: no puede tratar ningún videoclip que ve como real, a menos que sea de una organización de noticias de buena reputación u otro tercero en el que sabe que puede confiar.
La generación de videos Veo 3 de Gemini es solo el primer salto de una piedra en el estanque de la generación de videos AI ampliamente accesible y verdaderamente realista.Los modelos de generación de videos AI solo se volverán más realistas, ofrecerán más funciones y también proliferarán más. Atrás quedaron los días en que la evidencia de video de algo es la pistola de fumar. Si la verdad no está muerta, ahora es diferente y requierecuidadosoverificación.
Sobre Ruben Circelli
Analista, software
He estado escribiendo sobre tecnología de consumo y videojuegos durante más de una década en una variedad de publicaciones, incluidas Destructoid, GamesRadar+, LifeWire, PCGamesn, Relieed Reviews y What Hi-Fi?, Entre otros. En PCMAG, reviso el software de IA y productividad, desde chatbots hasta aplicaciones de listas de tareas pendientes. En mi tiempo libre, es probable que esté cocinando algo, jugar un juego o jugar con mi computadora.
Dado el creciente número de personas que recurren a ChatGPT al estudiar un idioma extranjero, la investigación pionera de UPF revela el potencial y las deficiencias de aprender un segundo idioma de esta manera.
Según el estudio, que analiza el uso de ChatGPT por estudiantes chinos que aprenden español, la plataforma les ayuda a resolver consultas específicas, especialmente vocabulario, escritura y comprensión de lectura. Por el contrario, su uso no es parte de un proceso de aprendizaje coherente y estructurado y carece de una visión crítica de las respuestas proporcionadas por la herramienta. Por lo tanto, se insta a los profesores de idiomas extranjeros a asesorar a los estudiantes para que puedan hacer un uso más reflexivo y crítico de ChatGPT.
Esto se revela en el primer estudio cualitativo en el mundo para examinar cómo los estudiantes chinos usan ChatGPT para aprender español, desarrollado por el Grupo de Investigación sobre Aprendizaje y Enseñanza de Lenguas (Gr@EL) del Departamento de Traducción y Ciencias del Lenguaje de la UPF. El estudio fue realizado por Shanshan Huang, un investigador del Gr@El, bajo la supervisión del coordinador del grupo de investigación, Daniel Cassany. Ambos han publicado recientemente un artículo sobre el tema en el Journal of China Aprendizaje de idiomas asistidos por computadora.
Para llevar a cabo su investigación, el uso de ChatGPT por 10 estudiantes chinos que aprenden español se examinó cualitativamente durante una semana. Específicamente, se ha analizado en profundidad un total de 370 indicaciones (indicaciones de que cada usuario ingresa a ChatGPT para obtener la información deseada) en profundidad, junto con las respuestas correspondientes de la plataforma. El estudio ha sido complementado por cuestionarios administrados en los estudiantes y los comentarios de los propios diarios de aprendizaje de los estudiantes.
Las ventajas de chatgpt
La herramienta sirvió como una sola ventana desde la cual resolver todas las consultas lingüísticas, que se adapta a las necesidades de cada estudiante. Con respecto al potencial de CHATGPT para los idiomas de aprendizaje, el estudio revela que permite a los estudiantes obtener respuestas a diferentes consultas sobre el idioma extranjero que están aprendiendo, en este caso, español, desde la única plataforma tecnológica.
Por ejemplo, pueden interactuar con ChatGPT para preguntar sobre vocabulario y ortografía, en lugar de conectarse primero a un diccionario digital y luego a un corrector ortográfico. Además, la plataforma se adapta al perfil y las necesidades de cada estudiante específico, en función del tipo de interacciones propuestas por cada usuario.
En 9 de cada 10 ocasiones, los estudiantes no plantean preguntas de seguimiento después de recibir su primera respuesta de ChatGPT. Sin embargo, el estudio advierte que la mayoría de los estudiantes usan ChatGPT sin crítica, ya que generalmente no plantean preguntas de seguimiento después de obtener una respuesta inicial a sus consultas específicas sobre el idioma español.
De las 370 interacciones analizadas, 331 (89.45%) involucraron una sola respuesta-respuesta. El resto de las interacciones analizadas corresponden a 31 circuitos de respuesta-respuesta sucesivos en los que el estudiante pidió a la herramienta una mayor claridad y precisión, después de haber recibido la información de respuesta inicial.
La mayoría de las consultas tratan con vocabulario, comprensión de lectura y escritura, y consultas sobre la comunicación oral y la gramática son residuales.
Por otro lado, el estudio muestra qué temas de consultas específicas plantean los estudiantes en el chat. Casi el 90%se refiere al vocabulario (36.22%), comprensión de lectura (26.76%) y escritura en español (26.49%). Sin embargo, solo uno de cada 10 se refiere a consultas gramaticales, especialmente cuando se trata de conceptos complejos y expresión oral.
Los investigadores advierten que esta distribución de los temas de consultas podría explicarse por factores culturales y tecnológicos. Por un lado, el modelo para aprender español en China pone menos énfasis en la comunicación oral que en las habilidades de escritura y comprensión de lectura. Por otro lado, la versión 3.5 de ChatGPT, que es utilizada por los estudiantes que participaron en el estudio, es más capaz de generar e interpretar textos escritos que interactuar con los usuarios durante una conversación.
Sin embargo, habría una necesidad en los estudios posteriores para analizar si los estudiantes de idiomas extranjeros aprovechan la próxima versión de ChatGPT (GPT-4) para mejorar sus habilidades de comunicación oral.
Descubra lo último en ciencia, tecnología y espacio con más 100,000 suscriptores quienes confían en Phys.org para ideas diarias. Regístrese para nuestro boletín gratuito y obtenga actualizaciones sobre avances, innovaciones e investigación que importan,diario o semanal.
Fomentar un nuevo modelo de la relación estudiante-maestro-maestro
En vista de los resultados del presente estudio, los investigadores enfatizan que, más allá de la promoción de la educación digital de los estudiantes, es aún más importante fortalecer su pensamiento crítico y sus habilidades de autoaprendizaje. Los profesores de idiomas extranjeros pueden desempeñar un papel fundamental en la guía de los estudiantes sobre cómo organizar su aprendizaje paso a paso con el apoyo de herramientas de IA como ChatGPT con una visión crítica.
El estudio de UPF recomienda que los maestros deben ayudar a los estudiantes a desarrollar indicaciones más efectivas y fomentar un mayor diálogo con ChatGPT para explotar mejor sus capacidades. En resumen, el estudio respalda un nuevo modelo de relación para maestros, herramientas de IA y estudiantes que pueden fortalecer y mejorar su proceso de aprendizaje.
Más información:
Shanshan Huang et al, aprendizaje en español en la era de la IA: AI como herramienta de andamio, Journal of China Aprendizaje de idiomas asistidos por computadora (2025). Doi: 10.1515/jccall-2024-0026
Proporcionado por Universitat Pompeu Fabra – Barcelona
Citación: CHATGPT útil para aprender idiomas, pero la visión crítica de los estudiantes debe ser fomentada al usarla, dice Study (2025, 3 de junio) recuperado el 3 de junio de 2025 de https://phys.org/news/2025-06-chatgpt-languages-students-critical-vision.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
No creo que haya seguido a sabiendas una receta a la carta. Para mí, hornear siempre ha sido divertido, desordenado y tonto. Una excusa para comer glaseado directamente del tazón, luego reír cuando nada se levanta o una bandeja de galletas se fusiona en una galleta gigante porque colé la masa en la bandeja en grupos que estaban demasiado juntos.
Entonces, cuando me pidieron que probara el modo de voz avanzado de Chatgpt mientras hornear y luego escribir sobre él, estaba ansioso por ver cómo mi enfoque caótico encajaría con el robótico de Chatgpt.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.