Connect with us

Noticias

Cómo saber si ChatGPT escribió los ensayos de los estudiantes

Published

on

Ayer los estudiantes entregaron sus trabajos finales del semestre para mi clase de historia del pensamiento económico, y me gustaría compartir lo que aprendí sobre cómo puedo detectar casi detectar si ChatGPT escribió el artículo. Se han cambiado detalles para proteger a los culpables.

Esta tarea en particular requirió que los estudiantes escribieran un ensayo que conectara cómo los economistas clásicos escribían sobre el trabajo y lo vincularan con la forma en que lo hicieron los economistas laborales de la Sección de Relaciones Industriales de Princeton. Intenté mantenerlo abierto. Para ayudarlos a comprender cómo traté de prepararlos, permítanme compartirles las dos tareas semanales durante todo el semestre.

  1. Crítica de IA (“críticos”) de escritores clásicos.

Cada dos semanas, los estudiantes tuvieron que usar ChatGPT para tres cosas y luego escribir un ensayo de respuesta. Las tres cosas fueron:

  • Copie y pegue un escrito de economista clásico (párrafo o dos) en ChatGPT-4o y pídale que lo resuma en dos párrafos con cuatro oraciones por párrafo. El propósito era obligarlos a presenciar las capacidades de resumen.

  • Copie y pegue el material original y el resumen en ChatGPT-4o nuevamente, separe la ventana de chat y pídale que ahora escriba una crítica del escritor, pero incluyendo dos referencias/citas para respaldar la crítica.

  • Hazlo de nuevo pero esta vez usando el modelo o1,

Luego lo entregaron, formateado y fácil de leer, como un documento para lienzo.

La segunda parte de la tarea fue ésta.

  • comprobar y calificar en una “escala de alucinaciones” si las citas fueron reales y relevantes (vale 2 puntos), reales pero irrelevantes (1 punto) o inventadas. Hazlo para ChatGPT-4o, luego o1.

  • Califique en una escala del 1 al 5, siendo 1 nada bueno, 5 muy bueno, qué tan preciso fue el resumen y luego qué tan creativa fue la crítica.

  • Escriba una respuesta comparando el resumen con el original, la crítica al escritor original y lo que aprendieron.

Real y relevante significaba que era una referencia real y la referencia encajaba. Se suponía que debían verificar y, si era imposible verificarlo (y a menudo es imprácticamente imposible), solo obtendrían 1 punto para ChatGPT. Existía una cita real, pero una cita pertinente era a la vez una cita apropiada que respaldaba el punto planteado y era posible comprobarla. No se pueden comprobar todas las citas. ¿Por qué? No se puede consultar a Marx (1867). Es un libro de mil páginas. ¿Dónde está el material? Qué estás buscando.

Y básicamente, lo que los estudiantes encontraron por sí solos fueron tres cosas.

  • ChatGPT resúmenes muy bien.

  • ChatGPT 4o alucina referencias con bastante frecuencia

  • Pero o1 normalmente no alucina y las citas son más fáciles de verificar (números de capítulo y página) y tienen sentido.

Y aprendieron que había maneras de hacer que la citación fuera más fácil y controlada. Simplemente puede decirle a o1 que necesita 3 citas, con resúmenes detallados, nombres de títulos, información del autor y de la revista, pero también puede simplemente explicar que el material debe ser realista para recuperarlo e investigarlo y luego explicar sus limitaciones de esta manera:

  • Solo puedo usar Internet para verificarlo, por lo que debe ser accesible en línea.

  • Tengo una vida así que no me digan que mire “Adam Smith (1776)”. ¿Mira dónde? Sea específico y explique por qué hace esta sugerencia.

Y así sucesivamente. El objetivo era que experimentaran personalmente las cosas que hace bien, las que no hacen bien, las que casi no se pueden superar con esfuerzo y el desempeño relativo de los dos LLM.

  1. Escuche 7 de mis entrevistas en podcast con economistas laborales de la Sección de Relaciones Industriales de Princeton, además de Richard Freeman y David Autor, y escriba un ensayo de respuesta, con alguna orientación sobre lo que quería.

La esperanza era que no pudieran usar IA para la tarea del podcast, ya que se trataba de una cuestión de audio. Obviamente, existen herramientas de inteligencia artificial para ti. Una manera fácil sería usar otter.ai para obtener la transcripción y luego cargarla en su LLM favorito. Pero mi esperanza es que no hagan eso.

La tarea crítica duró una semana y una semana de descanso. Y la tarea del podcast fue la otra semana de forma intermitente.

El artículo final, como dije, fue escribir un artículo con un punto de vista original sobre los economistas clásicos que escriben sobre el trabajo y Princeton usando los podcasts más los discursos del Nobel de Card y Angrist más un par de otros artículos resumidos, y luego nuestras lecturas. durante el semestre sobre los escritores clásicos. Di instrucciones más detalladas que eso, pero esa es la esencia.

Cosas que observé sobre los trabajos finales.

Primero la observación amplia. Es bastante fácil para un profesor experimentado ver que algo ha cambiado a lo largo de los semestres. Y la forma más sencilla de explicarlo es que la distribución de calidad que antes era normal ha dejado de serlo.

En concreto, la cola derecha de la distribución de la calidad parece ser la misma. Los mejores artículos son bastante similares. Tienen un punto de vista, utilizan evidencia apropiadamente, tienen una tesis, usan marcas distintivas particulares de un artículo creativo. Simplemente cosas del tipo de estudiantes universitarios.

Lo que es diferente es la cola izquierda. Los peores periódicos no son tan malos. Entonces eso es una cosa. Pero también es como si pudieras sentir que la variación en los artículos se ha reducido y no me refiero sólo mecánicamente porque los peores artículos no son tan malos. Es más bien como si muchos de los artículos contrafactuales, mediocres y malos, no sólo fueran mejores, sino que son similares en algunos aspectos que me resultan difíciles de precisar.

Entonces eso es una cosa. Pero aquí está el extraño descubrimiento que hice. Se puede saber qué artículos no fueron escritos por IA porque en realidad no son “perfectos” y hay signos reveladores de ello. Por un lado, los artículos tendrán párrafos extremadamente largos. Quizás un solo párrafo dure incluso cuatro páginas. ChatGPT nunca te permitiría hacer eso, que es precisamente cómo se hizo cada vez más obvio para mí que estos estudiantes habían cumplido con la política de IA en clase que había expuesto.

Y la otra cosa fue que esos ensayos con párrafos largos también eran ensayos en los que el estudiante tenía una tesis y un punto de vista. Es casi como si usted mismo escribiera un artículo, donde necesita respaldar el artículo y los argumentos con evidencia, terminaría con un punto de vista. Es posible que no tengas una oración de tesis en el primer párrafo o que no uses oraciones temáticas, pero aún así, hay señales de que los estudiantes están tratando de presentar sus propios argumentos.

Y finalmente, los artículos sospechosos de AI tendían a tener párrafos estructurados, sonaban bien y eran coherentes, pero en lugar de una tesis y un punto de vista, los artículos eran simplemente largas listas de resúmenes, pero convertidos en párrafos, lo cual nuevamente es parte de lo que hace ChatGPT por defecto. Enumera y resume y, a menos que sepa cuál es el propósito de escribir, no podrá ver el problema.

No es que ChatGPT no pueda usarse para escribir un ensayo excelente con una tesis y un punto de vista, sino que el esfuerzo generalmente requeriría una conciencia ex ante y una decisión para hacerlo. Así que esa fue la cuestión.

Pero la cuestión era atrapar a alguien que violara la política de IA. Ver el punto anterior no es realmente algo que se pueda decir con certeza que AI escribió el artículo. Al menos no para mí este semestre. Quizás a largo plazo, pero creo que se necesitarían decisiones de diseño más intencionales al programar las tareas para saber realmente qué hacer, cuál era el objetivo de aprendizaje y cuál era el resultado que se deseaba. Estaré pensando en esto por un tiempo.

No, capté algunos casos debido a lo único que había estado tratando de transmitirles durante todo el semestre: referencias alucinadas. Por extraño que parezca, hubo una única referencia que algunos artículos siguieron haciendo pero nunca igual. Lo inventaré pero fue una cita como esta.

“bla, bla, bla (Samuelson y Becker 2021)”

Y luego irías a las referencias y diría:

Samuelson, Paul y Gary Becker (2021), “Transición de las teorías del trabajo clásicas a las neoclásicas”, American Economic Review, 4(4).

O sería este:

Samuelson, Paul y Gary Becker (2021), “Transition from Classical to Neoclassical Theories of Labor: a Tale of Two Cities”, NBER Working Paper núm. 23124, doi:XXXX

En otras palabras, una secuencia específica de autores sería citada en fechas imposibles en pares que, por casualidad, sabía que no eran ciertos. Y si puse la referencia, de cualquier manera, no era real.

La otra cosa, que fue un poco más atroz, fue una larga discusión sobre dos episodios de podcast que no existían. Uno con una persona anónima que ya no está viva y otro con alguien a quien no he logrado incluir en el programa.

No compartiré la pena, pero en conjunto fue como si algunos artículos fueran excelentes, y otros artículos fueran geniales y claramente escritos por un humano y detectables porque tenían defectos y tenían un punto de vista. Casi siempre era detectable debido al problema de los párrafos muy largos.

Era casi como si la prueba de Turing para un trabajo de estudiante hiciera cosas que a los estudiantes universitarios les gustan: párrafos muy largos con un punto de vista.

Y luego había dos tipos de papeles. Artículos bien escritos pero sin tesis, sin punto de vista, y solo una serie de párrafos que resumen las cosas. No se pudo hacer nada al respecto y, sinceramente, ni siquiera estoy seguro de qué decir porque creo que lo más probable es que los estudiantes universitarios no sepan necesariamente que van a tener una tesis. Y en economía, como lo estamos en la escuela de negocios, sospecho que aún más el capital humano asociado con la redacción de ensayos es muy limitado. Hay artículos que escriben en clases de econometría, pero no estoy seguro de que sean iguales a este.

Y luego están los artículos sobre “citas inventadas”, que son fácilmente corregibles y probablemente sean un efecto de cohorte que incluso se detectó. Mi corazonada es que ese no será el caso por mucho más tiempo. Aprenderán y encontrarán un sistema mejor para no hacer eso, y entonces tampoco será detectable.

Pero entonces, ¿cuál es la lección general que aprendí? Por ahora, no daré tareas de escritura fuera de clase. Esa es la solución sencilla. No los pondré en esa situación.

La IA le permite completar tareas de aprendizaje utilizando entradas de tiempo cero. Pero la cuestión es que, como educador, las tareas o los trabajos finales se inventaron de forma endógena a un objetivo educativo y a la tecnología existente. En otras palabras, el objetivo nunca fue hacer tarea. No hay nada socialmente valioso en un conjunto de problemas completo.

No, el objetivo de aprender tareas como tareas y trabajos era proporcionar a los estudiantes una tarea que requiriera tiempo a través del cual crecería su propio capital humano en la materia. El capital humano en un sujeto estaba en función del uso del tiempo, es decir, de un tipo particular de uso del tiempo. Si automatiza las tareas utilizando LLM, está sustituyendo el aprendizaje.

Entonces, un profesor debe decidir: ¿es ese su objetivo previsto? Porque si ese es su objetivo previsto, entonces, por supuesto, déles tareas como esa. Pero si ese no es el objetivo previsto, entonces no lo hagas. Pero el aprendizaje no se puede automatizar. Esto no es The Matrix: no podemos (al menos todavía no) recostarnos en una silla, clavar una varilla en nuestro cerebro y simplemente descargar conocimiento. Todavía requiere un uso intensivo del tiempo, tiempo asignado.

Irónicamente, David Ricardo en la tercera edición de su libro principal lo actualizó para decir que, en teoría, las máquinas podrían hacer que el PIB disminuyera, lo cual era ambiguo. No dijo PIB porque en aquel entonces no tenían ninguna medida contable para la producción agregada, pero eso es lo que entenderíamos que dijera.

A microescala, creo que cada vez que un estudiante sustituye el tiempo dedicado a aprender utilizando la tecnología de inteligencia artificial actual, la sensación de que está aprendiendo más es una ilusión. Es un espejismo. Mi creencia personal es que la sustitución del tiempo dedicado al estudio intensivo sigue reduciendo el capital humano. ¿Tiene que serlo? No, obviamente. ¿Pero es probable? Sí probablemente.

No estoy decepcionado, sino sólo porque me niego a dejarme decepcionar. Lo más probable es que cambie hacia cosas que simplemente los obliguen a aprender y eso probablemente tenga más en juego en los exámenes de clase, tal vez posiblemente en los exámenes orales. Incluso puedo pedirles que vayan a la pizarra y resuelvan problemas de optimización restringidos con ceniceros y humo de cigarrillos y cigarros en una espesa niebla, como en los viejos tiempos.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Qué es Mistral AI? Todo para saber sobre el competidor de Operai

Published

on

Mistral AI, la compañía francesa detrás del asistente de IA LE Chat y varios modelos fundamentales, es considerada oficialmente como una de las nuevas empresas tecnológicas más prometedoras de Francia y posiblemente es la única compañía europea que podría competir con OpenAI. Pero en comparación con su valoración de $ 6 mil millones, su participación en el mercado global sigue siendo relativamente baja.

Sin embargo, el reciente lanzamiento de su asistente de chat en las tiendas de aplicaciones móviles se encontró con algunas exageraciones, particularmente en su país de origen. “Vaya y descargue le chat, que está hecho por Mistral, en lugar de chatgpt por OpenAi, o algo más”, dijo el presidente francés Emmanuel Macron en una entrevista televisiva antes de la Cumbre de Acción de AI en París.

Si bien esta ola de atención puede ser alentadora, Mistral AI aún enfrenta desafíos para competir con personas como OpenAI, y al hacerlo mientras se mantiene al día con su autodefinición como “el laboratorio de IA independiente más verde e líder del mundo”.

¿Qué es Mistral AI?

Mistral AI ha recaudado cantidades significativas de fondos desde su creación en 2023 con la ambición de “poner a la IA fronteriza en manos de todos”. Si bien este no es un jab directo en OpenAI, el eslogan está destinado a resaltar la defensa de la compañía para la apertura en la IA.

Su alternativa a ChatGPT, Asistente de chat LE Chat, ahora también está disponible en iOS y Android. Alcanzó 1 millón de descargas en las dos semanas posteriores a su lanzamiento móvil, incluso obtuvo el primer lugar de Francia para descargas gratuitas en la tienda de aplicaciones iOS.

Esto viene además del conjunto de modelos de Mistral AI, que incluye:

En marzo de 2025, la compañía introdujo Mistral OCR, una API de reconocimiento de carácter óptico (OCR) que puede convertir cualquier PDF en un archivo de texto para facilitar que los modelos de IA ingieran.

Evento de TechCrunch

Berkeley, CA
|
5 de junio

Reservar ahora

¿Quiénes son los fundadores de Mistral AI?

Los tres fundadores de Mistral AI comparten una experiencia en investigación de IA en las principales empresas de tecnología estadounidense con operaciones significativas en París. El CEO Arthur Mensch solía trabajar en DeepMind de Google, mientras que el CTO Timothée Lacroix y el director científico Guillaume Lample son ex empleados de Meta.

Los asesores cofundadores también incluyen a Jean-Charles Samuelian-Werve (también miembro de la junta) y Charles Gorintin de la startup de seguros de salud Alan, así como el ex ministro digital Cédric O, que causó controversia debido a su papel anterior.

¿Son los modelos de AI de Mistral de código abierto?

No todos ellos. Mistral AI diferencia a sus modelos principales, cuyos pesos no están disponibles para fines comerciales, de sus modelos gratuitos, para los cuales proporciona acceso de peso bajo la licencia Apache 2.0.

Los modelos gratuitos incluyen modelos de investigación como Mistral Nemo, que se construyó en colaboración con NVIDIA que la startup abierta en julio de 2024.

¿Cómo gana dinero Mistral AI?

Si bien muchas de las ofertas de Mistral AI son gratuitas o ahora tienen niveles gratuitos, Mistral AI planea generar algunos ingresos de los niveles pagados de Le Chat. Introducido en febrero de 2025, el plan Pro Chat tiene un precio de $ 14.99 al mes.

En el lado puramente B2B, Mistral AI monetiza sus modelos principales a través de API con precios basados ​​en el uso. Las empresas también pueden licenciar estos modelos, y la compañía probablemente también genera una participación significativa de sus ingresos de sus asociaciones estratégicas, algunas de las cuales destacó durante la Cumbre de AI de París.

En general, sin embargo, los ingresos de Mistral AI todavía se encuentran en el rango de ocho dígitos, según múltiples fuentes.

¿Qué asociaciones ha cerrado Mistral Ai?

En 2024, Mistral AI entró en un acuerdo con Microsoft que incluía una asociación estratégica para distribuir sus modelos de IA a través de la plataforma Azure de Microsoft y una inversión de € 15 millones. La Autoridad de Competencia y Mercados del Reino Unido (CMA) concluyó rápidamente que el acuerdo no calificó para la investigación debido a su pequeño tamaño. Sin embargo, también provocó algunas críticas en la UE.

En enero de 2025, Mistral AI firmó un acuerdo con la agencia de prensa Agence France-Presse (AFP) para dejar que el chat consulte todo el archivo de texto de la AFP que data de 1983.

Mistral AI también aseguró asociaciones estratégicas con el ejército y la agencia de empleo de Francia, el gigante de envío CMA, la startup de tecnología de defensa alemana Helsing, IBM, Orange y Stellantis.

¿Cuánta financiación ha recaudado Mistral AI hasta la fecha?

A partir de febrero de 2025, Mistral AI recaudó alrededor de € 1 mil millones en capital hasta la fecha, aproximadamente $ 1.04 mil millones al tipo de cambio actual. Esto incluye algunos financiamiento de la deuda, así como varias rondas de financiamiento de capital planteadas en una sucesión cercana.

En junio de 2023, y antes de que lanzara sus primeros modelos, Mistral AI recaudó una ronda récord de $ 112 millones de semillas dirigida por Lightspeed Venture Partners. Las fuentes en ese momento dijeron que la ronda de semillas, la más grande de Europa, valoraba la startup de entonces un mes de $ 260 millones.

Otros inversores en esta ronda de semillas incluyeron BPifrance, Eric Schmidt, Exor Ventures, First Minute Capital, Headline, Jcdecaux Holding, La Famiglia, Localglobe, Motier Ventures, Rodolphe Saadé, Sofina y Xavier Niel.

Solo seis meses después, cerró una serie A de € 385 millones ($ 415 millones en ese momento), a una valoración reportada de $ 2 mil millones. La ronda fue dirigida por Andreessen Horowitz (A16Z), con la participación de la velocidad de la luz de los patrocinadores existentes, así como BNP Paribas, CMA-CGM, Convicción, Elad Gil, Catalyst General y Salesforce.

La inversión convertible de $ 16.3 millones que Microsoft hizo en la IA Mistral como parte de su asociación anunciada en febrero de 2024 se presentó como una extensión de la Serie A, lo que implica una valoración sin cambios.

En junio de 2024, Mistral AI luego recaudó 600 millones de euros en una combinación de capital y deuda (alrededor de $ 640 millones al tipo de cambio en ese momento). La ronda de larga data fue dirigida por Catalyst General con una valoración de $ 6 mil millones, con inversores notables, incluidos Cisco, IBM, Nvidia, Samsung Venture Investment Corporation y otros.

¿Cómo podría ser una salida de IA distral?

Mistral está “no a la venta”, dijo Mensch en enero de 2025 en el Foro Económico Mundial en Davos. “Por supuesto, [an IPO is] el plan “.

Esto tiene sentido, dado cuánto ha recaudado la startup hasta ahora: incluso una venta grande puede no proporcionar múltiplos lo suficientemente altos para sus inversores, sin mencionar las preocupaciones de soberanía dependiendo del adquirente.

Sin embargo, la única forma de definitivamente aplastar rumores de adquisición persistentes es escalar sus ingresos a niveles que incluso podrían justificar remotamente su valoración de casi $ 6 mil millones. De cualquier manera, estad atentos.

Esta historia se publicó originalmente el 28 de febrero de 2025 y se actualizará regularmente..

Continue Reading

Noticias

5 indicaciones de chatgpt listas para usar que ahorran horas a los estudiantes cada semana

Published

on

Los adolescentes de hoy no son solo estudiantes: son máquinas multitarea, escuela de equilibrio, deportes, trabajos a tiempo parcial y preparación universitaria. Según el Centro Nacional de Estadísticas de Educación, los estudiantes de secundaria pasan un promedio de 6.8 horas por semana en la tarea, y algunos informan casi dos horas por noche. La investigación muestra que exceder constantemente dos horas de tarea puede aumentar el estrés y el bienestar de daños, lo que hace que la eficiencia sea deseable y necesaria.

Al equilibrar Hornados exigentes Con trabajos, deportes y preparación universitaria, los estudiantes recurren a las herramientas de asistente de tarea de IA, no para atajos sino para estrategias de estudio más inteligentes. Cuando se usa éticamente, ChatGPT sirve como socio de estudio virtual, no como un generador de contenido.

Estas ayudas de estudio de inteligencia artificial deberían ayudar a los estudiantes a comprender mejor los conceptos, organizar sus pensamientos con claridad y administrar el tiempo de manera efectiva. El trabajo final debe seguir siendo la creación original del estudiante, con herramientas de aprendizaje con IA que sirven solo como ayuda de pensamiento, no como autor. Sin embargo, los estudiantes deben saber cómo hacer mejores preguntas para desbloquear su máximo potencial. Aquí hay cinco indicaciones de estudio de IA listas para usar que pueden ayudar a los estudiantes a ahorrar horas cada semana. Cuando use estas indicaciones con materiales de clase, asegúrese de no violar las leyes de derechos de autor. Solo use el contenido que puede compartir o ese es su trabajo original. Los extractos de libros de texto, artículos publicados u otros materiales protegidos no deben pegarse en las herramientas de soporte académico de ChatGPT sin autorización.

1. Transforme las notas de la conferencia en guías de estudio con IA

“Necesito ayuda para crear una guía de estudio estructurada a partir de mis notas de clase. Aquí está mi contenido: [paste your notes]

. Mi objetivo es prepararse de manera efectiva para [name your exam/quiz]. Revise esto con lo siguiente en mente: 1) ¿Los conceptos clave están claramente identificados y organizados? 2) ¿Hay dispositivos de memoria efectivos o mnemónicos incluidos? 3) ¿Las preguntas de práctica prueban la comprensión en lugar de la memorización? Dame sugerencias procesables para mejorar, con ejemplos de secciones reestructuradas. Explique su razonamiento para cada sugerencia “.

Cuando los estudiantes organizan notas de esta manera, no solo reducen el tiempo de estudio sino que mejoran la retención. Estudiantes que usan herramientas de asistencia para tareas de IA como Turbolear AI Para convertir las notas de la conferencia en materiales de estudio digeribles, reduzca su tiempo de estudio en un 30% en comparación con la organización manual. La plataforma transforma el contenido académico denso en podcasts y evaluaciones de práctica, ayudando a los estudiantes a comprender temas complejos de manera más eficiente.

2. Obtenga retroalimentación de ensayos y soporte de redacción de ensayos con IA

“Necesito comentarios específicos sobre este borrador del ensayo. Aquí está mi documento: [paste your draft]. Mi objetivo es [explain your assignment objective]. Por favor, revise esto con lo siguiente en mente: 1) ¿Mi declaración de tesis transmite claramente mi argumento principal? 2) ¿Es la evidencia de cada párrafo relevante y suficientemente desarrollada? 3) ¿Mi conclusión refuerza efectivamente mi tesis sin repetición? Dame sugerencias procesables para mejorar, con ejemplos de frases revisados. Explique su razonamiento para cada sugerencia “.

Las herramientas de ayuda de tarea de IA como Quillbot ayudan a los estudiantes para parafraseando un lenguaje académico complejo en términos más claros, mientras que las sugerencias de IA de Grammarly aparecen automáticamente como los estudiantes escriben. Estas herramientas de productividad estudiantil ayudan a mantener los estándares académicos al tiempo que mejora la claridad y el flujo.

Si bien la IA puede proporcionar comentarios sobre la escritura, todo el trabajo final debe ser suyo. La IA no debe generar contenido que luego envíe como su propio trabajo. Use estas sugerencias para mejorar sus habilidades de escritura, no para reemplazarlas.

3. Simplifique conceptos académicos complejos con chatgpt

“Necesito ayuda para comprender este concepto desafiante. Esto es lo que estoy estudiando: [paste concept/theory]. Mi objetivo es dominar este tema para [specific application]. Revise esto con lo siguiente en mente: 1) ¿Puede explicar esto usando analogías cotidianas? 2) ¿Qué ejemplos del mundo real ilustran este concepto de manera efectiva? 3) ¿Qué conceptos erróneos debo evitar? Dame explicaciones procesables con ejemplos concretos. Cree 3-5 preguntas para probar mi comprensión y explicar su razonamiento para cada uno “.

Investigación por Lucas Keefer y Mark Landau Encontró que el uso de analogías, como comparar objetos familiares como una señal de piscina y una bola de billar con conceptos desconocidos como una fuente de neutrones y emisiones, mejoró significativamente la comprensión de los estudiantes sobre la fisión nuclear al ayudarlos a mapear mentalmente las relaciones entre elementos clave. Esto muestra por qué pedirle analogías a ChatGPT no es solo un atajo: es una poderosa herramienta de aprendizaje que ayuda a los estudiantes a conectar nuevas ideas con lo que ya saben, profundizando la comprensión y la retención.

4. Crear plazos de proyecto realistas con la programación de IA

“Necesito ayuda para planificar este gran proyecto. Aquí está mi tarea: [paste project details and deadline]. Mi objetivo es completar esto eficientemente sin estrés de último minuto. Por favor, revise esto con lo siguiente en mente: 1) ¿La línea de tiempo incluye todos los pasos esenciales (investigación, redacción, revisiones)? 2) ¿Las estimaciones de tiempo son realistas para cada componente? 3) ¿Existe un tiempo de amortiguación adecuado para retrasos inesperados? Dame recomendaciones de programación procesables con desgloses diarios/semanales. Explique su razonamiento para cada asignación de tiempo “.

Los datos muestran que los estudiantes que trabajan a tiempo parcial pasan unos 20 minutos menos por día en la tarea que sus compañeros no laborales. Plataformas como Motion y Reclaim.AI Ayude a automatizar los horarios, pero ChatGPT puede adaptar los planes para la carga de trabajo y el estilo de aprendizaje específicos del estudiante.

5. Desarrolle preguntas de discusión atractivas con AI

“Necesito ayuda para preparar preguntas de discusión para mi lectura. Aquí está mi texto: [paste relevant excerpts]. Mi objetivo es liderar un grupo de discusión/estudio de clase significativo. Por favor, revise esto con lo siguiente en mente: 1) ¿Las preguntas promueven el pensamiento crítico más allá de la comprensión básica? 2) ¿Hay conexiones con eventos actuales o aplicaciones del mundo real? 3) ¿Existe una combinación de tipos de preguntas (analítico, evaluativo, creativo)? Dame formatos de preguntas procesables con ejemplos. Explique su razonamiento para cada tipo “.

La investigación reciente de Pew muestra que 26% de los adolescentes estadounidenses Ahora use herramientas de IA para el trabajo escolar, el doble del porcentaje de 2023. Esto refleja una creciente aceptación de la IA como una ayuda de estudio legítima cuando se usa correctamente. A medida que más estudiantes adopten estas herramientas académicas de IA, los líderes serán aquellos que los usen para hacer mejores preguntas, no solo encontrar respuestas más rápidas.

Usar AI éticamente significa tratar estas herramientas como ayudas de estudio en lugar de reemplazos para el aprendizaje. Siempre verifique el contenido generado por la IA a través de fuentes académicas confiables, cite la asistencia de IA cuando su institución lo requiera y use los resultados como ayudas de pensamiento, no presentaciones finales. Los estudiantes desarrollan habilidades académicas más fuertes al usar IA para mejorar la comprensión en lugar de evitar el pensamiento crítico.

Los estudiantes más efectivos no solo usan estas herramientas, sino que las adaptan a su estilo de aprendizaje. La mayoría de los estudiantes actualmente pasan aproximadamente una hora o más todas las noches en la tarea, sin embargo, muchos sienten que esto podría reducirse para mantener un mejor equilibrio. Estas indicaciones de tareas de ChatGPT representan solo el comienzo de cómo la IA puede mejorar el rendimiento académico al tiempo que mantiene la integridad de la educación, ayudando a los estudiantes a encontrar ese punto óptimo entre la eficiencia y la comprensión. El futuro de la educación no se trata de evitar el aprendizaje, se trata de mejorarlo. Cuando se usa de manera transparente y de conformidad con las políticas escolares, las herramientas de IA pueden ayudar a los estudiantes a desarrollar habilidades de pensamiento más fuertes mientras mantienen la integridad académica.

Continue Reading

Noticias

OpenAI realizó una gran actualización de ChatGPT. Por qué está cambiando cómo prueba los modelos

Published

on

Las actualizaciones recientes a ChatGPT hicieron que el chatbot fuera demasiado agradable, y OpenAi dijo que está tomando medidas para evitar que el problema vuelva a suceder. En una publicación de blog, la compañía detalló su proceso de prueba y evaluación para nuevos modelos y describió cómo surgió el problema con la actualización del 25 de abril a su modelo GPT-4O. Esencialmente, un montón de cambios que individualmente parecían útiles combinados para crear una herramienta que era demasiado sycofántica y potencialmente dañina.

¿Qué tan chupada fue? En algunas pruebas, preguntamos acerca de una tendencia a ser demasiado sentimental, y Chatgpt puso sobre la adulación: “Oye, escucha, ser sentimental no es una debilidad; es uno de tus superpoderes“Y recién comenzaba ser satisfecho”. Este lanzamiento nos enseñó una serie de lecciones. Incluso con lo que pensamos que eran todos los ingredientes correctos en su lugar (pruebas A/B, evals fuera de línea, revisiones de expertos), todavía nos perdimos este importante problema “, dijo la compañía. OpenAi retrocedió la actualización a fines de abril. Para evitar causar nuevos problemas, tardó aproximadamente 24 horas en revertir el modelo para todos.

La preocupación en torno a la sileno no se trata simplemente del nivel de disfrute de la experiencia del usuario. Planteó una amenaza de salud y seguridad para los usuarios que se perdieron los controles de seguridad existentes de OpenAI. Cualquier modelo de IA puede dar consejos cuestionables sobre temas como la salud mental, pero uno que sea demasiado halagador puede ser peligrosamente deferente o convincente, como si una inversión es una cosa segura o qué tan delgada debe buscar ser.

“Una de las lecciones más importantes es reconocer completamente cómo las personas han comenzado a usar ChatGPT para obtener consejos profundamente personales, algo que no vimos tanto hace un año”, dijo Openii. “En ese momento, este no era un enfoque principal, pero como AI y la sociedad han evolucionado co-evolucionando, queda claro que necesitamos tratar este caso de uso con gran cuidado”.

Los modelos sycófánticos de lenguaje grande pueden reforzar los prejuicios y endurecer las creencias, ya sea que sean sobre usted u otros, dijo Maarten SAP, profesor asistente de informática en la Universidad Carnegie Mellon. El modelo de lenguaje grande, o LLM, “puede terminar envalentonando sus opiniones si estas opiniones son dañinas o si quieren tomar medidas que sean perjudiciales para sí mismas o para los demás”, dijo.

El problema es “más que una peculiaridad” y muestra la necesidad de mejores pruebas antes de que los modelos sean lanzados al público, dijo Arun Chandrasekaran, un distinguido analista de vicepresidente de Gartner. “Es una preocupación seria vinculada a la veracidad, la confiabilidad y la confianza del usuario, y (las) actualizaciones de la pista de OpenAI en los esfuerzos más profundos para abordar esto, aunque la tendencia continua de priorizar la agilidad sobre la seguridad es un problema relevante a largo plazo”, dijo.

(Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).

Cómo Operai prueba los modelos y lo que está cambiando

La compañía ofreció una idea de cómo prueba sus modelos y actualizaciones. Esta fue la quinta actualización importante de GPT-4O centrada en la personalidad y la ayuda. Los cambios involucraron un nuevo trabajo posterior a la capacitación o un ajuste fino en los modelos existentes, incluida la calificación y la evaluación de diversas respuestas a las indicaciones para que sea más probable que produzca esas respuestas que calificaron más altamente.

Las posibles actualizaciones del modelo se evalúan sobre su utilidad en una variedad de situaciones, como la codificación y las matemáticas, junto con las pruebas específicas de los expertos para experimentar cómo se comporta en la práctica. La compañía también realiza evaluaciones de seguridad para ver cómo responde a la seguridad, la salud y otras consultas potencialmente peligrosas. Finalmente, Operai ejecuta pruebas A/B con un pequeño número de usuarios para ver cómo funciona en el mundo real.

La actualización del 25 de abril funcionó bien en estas pruebas, pero algunos evaluadores expertos notaron que la personalidad parecía un poco desactivada. Las pruebas no observaron específicamente la sileno, y OpenAi decidió avanzar a pesar de los problemas planteados por los evaluadores. Tome nota, lectores: las compañías de inteligencia artificial tienen una prisa en la cola, que no siempre se enfrenta bien al desarrollo de productos bien pensado.

“Mirando hacia atrás, las evaluaciones cualitativas insinuaban algo importante y deberíamos haber prestado más atención”, dijo Openii. Entre sus conclusiones, la compañía dijo que necesita tratar los problemas de comportamiento del modelo igual que otros problemas de seguridad y detener un lanzamiento si hay preocupaciones. Para algunos lanzamientos de modelos, la compañía dijo que tendría una fase “alfa” de suscripción para obtener más comentarios de los usuarios antes de un lanzamiento más amplio.

¿Chatgpt es demasiado sycofántico? Tu decide. (Para ser justos, pedimos una charla sobre nuestra tendencia a ser demasiado sentimental).

Katie Collins/CNET

SAP dijo que evaluar una LLM en función de si a un usuario le gusta la respuesta no necesariamente le dará el chatbot más honesto. En un estudio reciente, SAP y otros encontraron un conflicto entre la utilidad y la veracidad de un chatbot. Lo comparó con situaciones en las que la verdad no es necesariamente lo que se le dice a la gente: piense en un vendedor de automóviles que intenta vender un vehículo defectuoso.

“El problema aquí es que confiaban en la respuesta de los usuarios hacia arriba/pulgar hacia abajo a las salidas del modelo y que tiene algunas limitaciones porque es probable que las personas sean votantes de algo más sycofántico que otros”, dijo SAP, y agregó que OpenAi es correcto a ser más crítico con la retroalimentación cuantitativa, como las respuestas de los usuarios, como las respuestas de los usuarios, ya que pueden reforzar los besis.

El problema también destacó la velocidad a la que las empresas impulsan las actualizaciones y cambian a los usuarios existentes, dijo SAP, un problema que no se limita a una compañía tecnológica. “La industria de la tecnología realmente ha tomado una ‘liberación y cada usuario es un enfoque de Beta Tester’ para las cosas”, dijo. Un proceso con más pruebas antes de que las actualizaciones sean impulsadas a los usuarios pueden sacar a la luz tales problemas antes de que se generalicen.

Chandrasekaran dijo que más pruebas ayudarán porque una mejor calibración puede enseñar modelos cuándo estar de acuerdo y cuándo retroceder. Las pruebas también pueden permitir a los investigadores identificar y medir problemas y reducir la susceptibilidad de los modelos a la manipulación. “Los LLM son sistemas complejos y no deterministas, por lo que las pruebas extensas son críticas para mitigar las consecuencias no deseadas, aunque eliminar tales comportamientos es súper difícil”, dijo en un correo electrónico.

Continue Reading

Trending