En la gran cantidad de campos donde se ha probado la IA generativa, la ley es quizás su punto de falla más evidente. Herramientas como ChatGPT de OpenAi se han sancionado a los abogados y los expertos se avergonzan públicamente, produciendo informes basados en casos inventados y citas de investigación inexistentes. Entonces, cuando mi colega Kylie Robison obtuvo acceso a la nueva función de “investigación profunda” de Chatgpt, mi tarea fue clara: hacer que esta herramienta supuestamente superpoderadora escriba sobre una ley que los humanos se equivocan constantemente.
Noticias
Práctico con el sistema de investigación profunda de Chatgpt
Published
1 mes agoon

Compile una lista de fallos de la Corte Federal y la Corte Suprema de los últimos cinco años relacionados con la Sección 230 de la Ley de Decencia de ComunicacionesLe pedí a Kylie que lo contara. Resume cualquier desarrollo significativo sobre cómo los jueces han interpretado la ley.
Le estaba pidiendo a ChatGPT que me diera un resumen del estado de lo que comúnmente se llaman las 26 palabras que crearon Internet, un tema en constante evolución del que sigo El borde. La buena noticia: ChatGPT seleccionó adecuadamente y resumió con precisión un conjunto de decisiones judiciales recientes, todas las cuales existen. La noticia So-So: perdió algunos puntos más amplios que un experto humano competente podría reconocer. La mala noticia: ignoró las decisiones legales de un año completo, que, desafortunadamente, volcó el estado de la ley.
La investigación profunda es una nueva característica de OpenAI destinada a producir informes complejos y sofisticados sobre temas específicos; Obtener más que el acceso “limitado” requiere el nivel profesional de $ 200 por mes de ChatGPT. A diferencia de la forma más simple de CHATGPT, que se basa en los datos de capacitación con una fecha de corte, este sistema busca en la web información nueva para completar su tarea. Mi solicitud se sintió consistente con el Spirit of ChatGPT, que solicitó un resumen de las tendencias minoristas en los últimos tres años. Y debido a que no soy abogado, alisté al experto legal Eric Goldman, cuyo blog es una de las fuentes más confiables de noticias de la Sección 230, para revisar los resultados.
La experiencia de investigación profunda es similar al uso del resto de ChatGPT. Ingresa una consulta y ChatGPT hace preguntas de seguimiento para aclarar: en mi caso, si quería centrarme en un área específica de las decisiones de la Sección 230 (no); o incluir análisis adicionales sobre la legislación (también no). Utilicé el seguimiento para lanzar otra solicitud, pidiéndole que señale dónde no están de acuerdo con los diferentes tribunales sobre lo que significa la ley, lo que podría requerir que la Corte Suprema intervenga. Es una arruga legal que es importante pero a veces difícil mantenerse al tanto – El tipo de cosas que pude imaginar obteniendo de un informe automatizado.
Se supone que la investigación profunda tomará entre cinco y 30 minutos, y en mi caso, fueron alrededor de las 10 (el informe en sí está aquí, por lo que puede leer todo si está inclinado). El proceso ofrece enlaces web de notas al pie como así como una serie de explicaciones que proporcionan más información sobre cómo ChatGPT rompió el problema. El resultado fue aproximadamente 5,000 palabras de un texto que era denso pero formateado con encabezados útiles y bastante legible si está acostumbrado al análisis legal.
Lo primero que hice con mi informe, obviamente, fue verificar el nombre de cada caso legal. Varios ya estaban familiarizados, y verifiqué el resto fuera del chatgpt, todos parecían reales. Luego, se lo pasé a Goldman por sus pensamientos.
“Podría discutir con algunos matices en toda la pieza, pero en general el texto parece ser en gran medida preciso”, me dijo Goldman. Estuvo de acuerdo en que no había casos inventados, y los chatgpt seleccionados eran razonables de incluir, aunque no estuvo de acuerdo con lo importante que indicaba que eran algunos. “Si armé mis principales casos de ese período, la lista se vería diferente, pero eso es una cuestión de juicio y opinión”. Las descripciones a veces pasaban por alto las distinciones legales notables, pero en formas que no son poco comunes entre los humanos.
Menos positivamente, Goldman pensó que Chatgpt ignoró el contexto que un experto humano encontraría importante. La ley no se hace en el vacío; Es decidido por los jueces que responden a tendencias más grandes y fuerzas sociales, incluidas las simpatías cambiantes contra las empresas tecnológicas y un bombardeo político conservador contra la Sección 230. No le dije a ChatGPT que discutiera una dinámica más amplia, pero un objetivo de la investigación es identificar preguntas importantes que No se les pregunta: una ventaja de experiencia humana, aparentemente, por ahora.
Pero el mayor problema era que ChatGPT no siguió el elemento más claro de mi solicitud: dime qué pasó en los últimos cinco años. El título del informe de Chatgpt declara que cubre 2019 a 2024. Sin embargo, el último caso que menciona se decidió en 2023, después de lo cual concluye que la ley sigue siendo “un escudo robusto” cuyos límites están siendo “refinar[d]. ” Un laico podría pensar fácilmente que eso significa que no pasó nada el año pasado. Un lector informado se daría cuenta de que algo estaba muy mal.
“2024 fue un año de reverencia para la sección 230”, señala Goldman. Este período produjo una decisión de tercer circuito fuera del azul contra la otorgación de las protecciones de la ley a Tiktok, más varios más que podrían reducir drásticamente la forma en que se aplica. El propio Goldman declaró a mediados de año que la Sección 230 se estaba “desvaneciendo rápidamente” en medio de la avalancha de casos y ataques políticos más grandes. A principios de 2025, escribió que estaría “sorprendido si sobrevive para ver 2026”. No todos parecen este pesimista, pero he hablado con múltiples expertos legales en el último año que creen que el escudo de la Sección 230 se está volviendo menos acérrimo. Por lo menos, opiniones como el caso Tiktok del Tercer Circuito deberían “definitivamente” cifre en “cualquier contabilidad adecuada” de la ley durante los últimos cinco años, dice Goldman.
El resultado es que la salida de ChatGPT se sintió un poco como un informe sobre las tendencias de los teléfonos celulares de 2002 a 2007 que terminan con el surgimiento de BlackBerry: los hechos no están equivocados, pero las omisiones seguramente cambian qué historia cuentan.
Casey Newton de Juego de plataformas señala que, como muchas herramientas de IA, la investigación profunda funciona mejor si ya está familiarizado con un tema, en parte porque puede saber dónde está arruinando las cosas. (El informe de Newton, de hecho, cometió algunos errores que consideró “vergonzoso”.) Pero donde encontró una forma útil de explorar más a fondo un tema que ya entendió, sentí que no entendí lo que pedí.
Al menos dos de mi Borde Los colegas también obtuvieron informes que omitieron información útil del año pasado, y pudieron solucionarla pidiéndole a ChatGPT que volviera a ejecutar específicamente los informes con datos de 2024. (No hice esto, en parte porque no vi el año perdido inmediatamente y en parte porque incluso el nivel profesional tiene un grupo limitado de 100 consultas al mes). Normalmente atribuiría el problema a un corte de datos de capacitación, excepto que ChatGPT es claramente capaz de acceder a esta información, y el propio ejemplo de OpenAi de profundidad La investigación lo solicita.
De cualquier manera, esto parece un tema más simple para remediar que las decisiones legales inventadas. Y el informe es un logro tecnológico fascinante e impresionante. La IA generativa ha pasado de producir una lógica de los sueños serpenteantes a un resumen legal convincente, aunque imperfecto, que deja a algunos legisladores federales educados en la Liga Ivy en el polvo. De alguna manera, se siente mezquino quejarse de que tengo que molestarlo para que haga lo que le pido.
Si bien muchas personas documentan decisiones de la Sección 230, podría ver que una herramienta de investigación competente basada en ChatGPT es útil para temas legales oscuros con menos cobertura humana. Sin embargo, eso parece muy lejos. Mi informe se inclinó fuertemente en el análisis e informes secundarios; ChatGPT no está (que yo sé) no está conectado a fuentes de datos especializadas que facilitarían la investigación original como la tarea sobre las presentaciones judiciales. Openai reconoce que persisten los problemas de alucinación, por lo que también debe verificar cuidadosamente su trabajo.
No estoy seguro de cuán indicativa es mi prueba de la utilidad general de la investigación profunda. Hice una solicitud más técnica y menos abierta que Newton, quien preguntó cómo el Fediverse de las Redes Sociales podría ayudar a los editores. Las solicitudes de otros usuarios pueden ser más como suyas que las mías. Pero Chatgpt posiblemente cedió las crujientes explicaciones técnicas: no logró completar el panorama general.
Por ahora, es simplemente molesto si tengo que mantener una aplicación de computación comercial de $ 200 por mes en la tarea como un niño distractor. Estoy impresionado por la investigación profunda como tecnología. Pero desde mi punto de vista limitado actual, aún podría ser un producto para las personas que quieren creer en él, no para aquellos que solo quieren que funcione.
You may like
Noticias
Acabo de probar Chatgpt vs. Géminis con 5 indicaciones: aquí está el ganador
Published
2 horas agoon
22 marzo, 2025
En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.
Ambos pesos pesados están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.
Noticias
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Published
9 horas agoon
21 marzo, 2025
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Noticias
¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai
Published
13 horas agoon
21 marzo, 2025
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
Related posts


































































































































































































































Trending
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo