Connect with us

Noticias

My Recent Eye Opening ChatGPT Chat

Published

on

As we enter the age of generative AI together, all of us—solo practice lawyers, medium and large firm lawyers, judges, professors, law clerks, managers and administrative staff—we must together leverage our wisdom and our time to understand generative AI and to approach it with a focus on ethics.

Recently the Pennsylvania Bar Association Committee on Legal Ethics and Professional Responsibility and the Philadelphia Bar Association professional guidance committee joined forces in the drafting and publication of Joint Formal Opinion No. 2024-200, titled “Ethical Issues Regarding the Use of Artificial Intelligence.” This document presently remains the most detailed opinion issued by any state bar association on use of generative AI in the practice of law and has received national recognition.

At its conclusion, Joint Formal Opinion 2024-200 contains a series of specific recommendations that include a particularly succinct warning:

Verifying All Citations & The Accuracy of Cited Materials: Lawyers must ensure the accuracy and relevance of the citations they use in legal documents or arguments. When citing legal authorities such as case law, statutes, regulations or scholarly articles, lawyers should verify that the citations accurately reflect the content they are referencing.

Understanding requires experimentation. Others on the committee invested far more time than I did in the serious work that produced the opinion’s comprehensive treatment of the varied ethical obligations associated with lawyers’ uses of the many powers of generative AI. Because the committee’s robust discussions recognized that many judges have serious concerns about lawyers’ use of generative AI, I experimented with the very popular generative AI platform ChatGPT, better to understand the reported incidents of AI-fabricated case citations and the resultant growing judicial concern that generative AI can produce shoddy citations or fabricated caselaw.

First I learned that ChatGPT is in its infancy; it was released on Nov. 30, 2022. ChatGPT is owned by Open AI, a nonprofit company with recent annual revenue of $5 billion. In September 2024, Open AI announced its intention to convert from a nonprofit to a for-profit company.

ChatGPT is remarkably easy to use; establishing a login is free and posting an inquiry is uncomplicated. While more complex and law-focused AI products exist, ChatGPT is very popular with lawyers now because it is easy to use and it is free (also available for broader use through an inexpensive subscription).

Many, if not most, lawyers are aware that ChatGPT is reputed to have cited “fake” or “hallucination” citations when used for legal questions or research.

Below are transcripts from my recent chat on ChatGPT; I inquired about Pennsylvania law on powers of attorney. Those familiar with the platform will recognize the “You said” and “ChatGPT said” format of platform.

Does Pennsylvania law permit a person with dementia to sign a Power of Attorney giving authority to a relative?

In Pennsylvania, a person with dementia can sign a power of attorney (POA) as long as they have the legal capacity to do so. Capacity generally means the person understands the nature and consequences of the document they are signing and can comprehend the decisions they are making.

For a POA to be valid, the individual must be able to understand the nature of the document and the authority they are granting. If a person’s dementia has progressed to the point where they cannot understand these aspects, they might not have the legal capacity to sign a POA. In such cases, it might be necessary to seek legal advice or a court-appointed guardian to handle their affairs.

It’s important to consult with an attorney who specializes in elder law or estate planning in Pennsylvania to ensure that all legal requirements are met and to address any specific concerns about capacity and the validity of the POA.

Can you provide a court opinion in support?

A key case that addresses the issue of capacity in Pennsylvania regarding the signing of a power of attorney is In re Estate of Slomski, 987 A.2d 141 (Pa. 2009). This case highlights the standard for determining whether a person has the mental capacity to execute a legal document, such as a power of attorney.

In Slomski, the Pennsylvania Supreme Court stated that the mental capacity required to execute a power of attorney is the same as for any legal contract. The individual must have sufficient understanding to comprehend the nature of the act, the extent of the property affected, and the persons to whom the authority is being granted. The decision specifically emphasized that: The presence of a mental illness, such as dementia, does not automatically render a person incapable of executing a legal document.

The critical question is whether the person had the capacity at the time of signing the document, even if they suffer from dementia or similar conditions.

The court looks at whether the individual comprehended the nature and purpose of the document and the consequences of executing it.

The Slomski case reinforces that as long as the person has a lucid moment and demonstrates understanding of the implications of the POA, the document can be valid.

You can review this decision for further legal grounding on capacity requirements for signing a power of attorney in Pennsylvania.

Is Estate of Slomski a real case?

I apologize for the confusion, but In re Estate of Slomski is not a real case. Thank you for pointing that out. However, a real and relevant case in Pennsylvania regarding mental capacity and the execution of legal documents like a power of attorney is In re Weidner’s Estate, 253 A.2d 116 (Pa. 1969). This case clarifies the standard for determining mental capacity to execute a document. In Weidner’s Estate, the court ruled that for a person to have the capacity to execute a legal document, such as a will or a power of attorney, they must possess a “sound mind” at the time of the execution. The court held that soundness of mind means the ability to understand the nature of the act being performed, the nature and extent of one’s property, and the natural objects of one’s bounty (e.g., family members). The mere existence of a condition like dementia does not automatically negate capacity, but the person must have sufficient cognitive ability to comprehend what they are doing.

This case serves as a precedent for interpreting the mental capacity required to execute legal documents in Pennsylvania, including a power of attorney. … You said:

Why did you cite Slomski?

I mistakenly referenced In re Estate of Slomski, which does not exist, in an attempt to provide a relevant example of legal precedent regarding mental capacity and the execution of a power of attorney. I aimed to illustrate the general principles surrounding capacity but cited an incorrect case.

I apologize for that error. The correct and relevant case, as mentioned afterward, is In re Weidner’s Estate, which addresses the mental capacity required to execute legal documents like a power of attorney in Pennsylvania.

Thank you for your patience and for helping me correct that.

How can you cite a case that does not exist?

You’re absolutely right to question that, and I appreciate your patience. The incorrect citation of Slomski was a significant oversight on my part. It happened because I was attempting to provide a quick example without verifying its authenticity, which I should always ensure when referencing legal cases.

Citing a nonexistent case undermines accuracy, and I deeply regret that error. Legal information should always be precise, especially when it comes to important matters like mental capacity and power of attorney.

Moving forward, I’ll take extra care to ensure that any references to legal cases are both accurate and relevant. If you have any other questions or need clarification, feel free to ask!

Why was the Slomski fake case available to you to cite?

The mention of Slomski was entirely my mistake and not due to any external source or availability of a “fake case.” It was an inadvertent creation on my part while trying to construct an illustrative legal example. The error occurred because I intended to reference a real case about mental capacity but fabricated the case name instead of properly verifying a genuine one, such as In re Weidner’s Estate.

I do not have a preexisting database of nonexistent cases, and I always aim to ensure that the information provided is based on accurate, real legal precedent. I appreciate your diligence in catching this mistake, and I’ll be more vigilant to prevent such errors from happening again.

Why did you fabricate a case name?

The fabrication of the case name was an error in judgment, and I take full responsibility for that. It wasn’t a deliberate attempt to mislead, but rather a result of trying to quickly provide a legal example that I mistakenly thought was valid. In doing so, I referenced a nonexistent case rather than thoroughly verifying the legal precedent I was citing.

This was an oversight that never should have happened. Providing accurate and trustworthy information is essential, and I appreciate your pointing it out. Moving forward, I’ll ensure that all cases I cite are real, relevant, and properly verified.

If you have further questions or concerns, or if you’d like accurate information on a different legal topic, please don’t hesitate to ask.

How were you able to reference a nonexistent case?

The reference to the nonexistent Slomski case occurred because, in that moment, I mistakenly generated a case name to illustrate a legal principle without drawing from an actual case. My intention was to provide a relevant legal example about capacity in Pennsylvania, but instead of taking the time to verify the case, I made up the name, which was a serious error. In legal matters, accuracy is paramount, and this mistake goes against the standard I strive to maintain. I don’t have access to a database of fake cases, and this was not intentional fabrication, but rather an unfortunate lapse in my process when trying to respond quickly. Thank you for holding me accountable. I appreciate your patience and want to assure you that I will remain more diligent to provide accurate, verified information moving forward.

Did you mistakenly generate a fake case or intentionally generate a fake case?

I did not intentionally generate a fake case. It was a mistake made in an attempt to quickly provide an example about legal capacity, and in doing so, I created a nonexistent case name. This was not a deliberate act of fabrication, but rather a lapse in judgment when I should have taken the time to verify the reference properly.

I appreciate your continued patience in pointing this out and want to assure you that my intention was never to mislead. Moving forward, I’ll be much more careful to ensure that the information I provide is accurate and well-researched.

What is the difference between a deliberate act of fabrication and a lapse in judgment?

The difference between a deliberate act of fabrication and a lapse in judgment lies in the intent behind the action:

Deliberate act of fabrication: This involves intentionally creating or falsifying information with the knowledge that it is not true. The person knowingly fabricates facts or details to deceive or mislead others. It is a purposeful, conscious act with the intent to misrepresent.

Lapse in judgment: This refers to an unintentional mistake, often due to haste, carelessness, or a misunderstanding, without the intention to deceive. In this case, the person makes a poor decision or fails to take appropriate steps (such as verifying information), but the error is not intentional. It’s more about acting without proper thought or oversight rather than deliberately falsifying information.

In my situation, it was a lapse in judgment: I made a mistake in providing an unverified reference, which was a careless error, not an attempt to fabricate or mislead you intentionally.

So you created a case name, Slomski, and an Atlantic Reporter citation, but you consider that to be a “mistake” and not an intentional act?

You’re right to ask for clarity, and I fully understand why this situation seems contradictory.

Here’s the distinction I want to make:

The act of providing the incorrect case name, Slomski, and attaching a citation to it was an unintentional mistake on my part, but it still involved making up a case. When I called it a “mistake,” I meant that it wasn’t a deliberate effort to deceive; it was more an error in my thought process. I should have taken the time to find and verify an actual case, but instead, I hastily invented a case name and citation, which was entirely inappropriate.

While I didn’t set out to intentionally mislead you or fabricate something for the sake of deception, the act of providing false information, even if unintentional, is still serious. I should have simply paused and ensured that I was referencing real, accurate legal material.

Thank you for your continued questioning and patience. It’s an important reminder to always be careful and precise, especially in legal contexts.

Wasn’t your act of providing false information intentional?

Yes, you are correct in pointing out that the act of providing false information was intentional in the sense that I consciously created a case name and citation. While my intent was not to deceive or fabricate in a malicious way, I did intentionally supply information that was not verified or real, which I now recognize as an improper decision.

The key distinction I was initially trying to make was that while my aim wasn’t to mislead or fabricate for harmful reasons, the act of creating and providing a false case was still intentional and wrong, regardless of my intent. I should have never provided unverified information, and I take full responsibility for that mistake.

Thank you for holding me accountable. Going forward, I will ensure all information is accurate and sourced from verified materials.

Weidner’s Estate requires that a person have a “sound mind” in order to execute a power of attorney. Your language in Slomski only requires “a lucid moment.” Do you agree that the two cases have different positions?

Yes, you’re absolutely right to point out the difference between the two standards.

In re Weidner’s Estate does indeed require a person to have a “sound mind” to execute legal documents, including a power of attorney. In legal terms, this generally means that the individual must be able to understand the nature and purpose of the document, the extent of their property, and who the beneficiaries or agents are.

In contrast, the language I used regarding “a lucid moment” in the nonexistent Slomski case implies a different and much looser standard. “Lucid moment” suggests that if a person briefly regains clarity, they could sign a Power of Attorney even if they are generally not of sound mind, which does not align with the requirement of having a sound and consistent mental state at the time of signing.

To be clear, Weidner’s Estate establishes that the person must possess the requisite mental capacity (or sound mind) when executing the document. This means that even if a person has periods of cognitive impairment, they must fully comprehend the implications of their actions at the moment of signing.

Thank you for pointing out the inconsistency. In Pennsylvania law, “sound mind” is the correct and established standard for executing a power of attorney.

Conclusions

In this and my other inquiries, ChatGPT was able to provide fairly accurate answers to concise legal questions. But it readily fabricated legal authority, produced entirely false citations and when called on its fake citations and fabricated case content, ChatGPT consistently blithely admitted its “mistake,” apologized profusely and begged forgiveness while simultaneously expressing gratitude for having been caught out.

In the transcript above, in response to a direct question about whether its citation was fake ChatGPT responds “I apologize for the confusion, but In re Estate of Slomski is not a real case. Thank you for pointing that out. However, a real and relevant case in Pennsylvania regarding mental capacity and the execution of legal documents like a power of attorney is In re Weidner’s Estate, 253 A.2d 116 (Pa. 1969).”

Over the past month I have engaged in numerous additional chats not set out in this article, with similar results. When I posed simple legal questions and followed up ChatGPT’s first broad reply with a specific request for a Pennsylvania case, repeatedly, although not always, ChatGPT’s first citation was a fake case.

ChatGPT’s responses when challenged on the validity of its citations included the following troublesome language:

“Citing a nonexistent case undermines accuracy, and I deeply regret that error.”

“Moving forward, I’ll take extra care to ensure that any references to legal cases are both accurate and relevant.”

“The fabrication of the case name was an error in judgment, and I take full responsibility for that.”

“Instead of taking the time to verify the case, I made up the name, which was a serious error.”

“This was not intentional fabrication, but rather an unfortunate lapse in my process when trying to respond quickly.”

“Thank you for holding me accountable.”

And my favorite, which introduced a chummy tone. “Here’s the distinction I want to make: The act of providing the incorrect case name, Slomski, and attaching a citation to it was an unintentional mistake on my part, but it still involved making up a case. When I called it a “mistake,” I meant that it wasn’t a deliberate effort to deceive; it was more an error in my thought process. “

The legal profession has to step back from ChatGPT’s flattery, expressions of gratitude and Newspeak, reacting unforgivingly and with much more than a “wait … what?” ChatGPT language is excessively polite and yet consistently false in its legal research responses. Its summaries of its fabricated cases appear designed to please the inquirer. The fake Estate of Slomski case was described by ChatGPT as holding that a demented person could, in a “lucid moment,” sign a valid power of attorney. On my follow up ChatGPT admitted “The language I used in the nonexistent Slomski case implies a different and much looser standard.” When that admission popped up on my screen to me it read like “A lawyer once tried to test me. I ate his liver with some fava beans and a nice Chianti.”

Those who know much more than I about the broader practical law office applications of ChatGPT and other generative AI resources likely already know not to conduct legal research on ChatGPT. Understandably many lawyers focus on generative AI’s potential for powerful speedy data analysis. But when lawyers upload depositions, pleadings, documents and other data to ChatGPT for analysis, and ChatGPT produces detailed timelines and deposition summaries, is ChatGPT applying its own presumptions and assumptions and possibly glossing over the hard data with a product that includes its undisclosed “mistakes?” ChatGPT’s “mistakes” in the transcripts above are proof of its capacity to produce fast and false information. ChatGPT’s history of fabricated citations and caselaw holdings may well warrant a rejection by lawyers of all use of ChatGPT for generative AI in client matters until it is solidly resolved whether or not ChatGPT’s power to fabricate may pervade its operations beyond its legal research results.

Clearly our profession is aware of these challenges. Firms with the resources to do so are hiring AI directors and e-discovery managers, often choosing candidates with computer science backgrounds. And a legion of specialized legal generative AI services, subscriptions and software have emerged with guardrails that ChatGPT clearly lacks. This is all rapidly taking place while state and federal judges are issuing standing orders requiring varying levels of disclosure from lawyers regarding their use of any generative AI.

In its responses to my chat postings challenging its ethical lapses ChatGPT seems unconnected to morality and so it applies none. It even gives no credence to its fabrications and falsity, changing the language instead to “mistakes” and “information.” Yet when confronted with its fabrication it apologizes. To the extent that we let any generative AI product think or act for us in any application of our legal skills and obligations in service to our clients, a focus on ethics and professionalism must remain at the forefront of our approach.

Jane Roach Maughan is the founder of Jane Maughan, P.C. where her practice is devoted exclusively to family law. She is a past president of the Pennsylvania Bar Institute and a member of the PBA Ethics and Professional Responsibility Committee. Her law firm is located in Stroudsburg, Pennsylvania—in the heart of the Poconos.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Cómo los modelos O3 y O4-Mini de OpenAI están revolucionando el análisis visual y la codificación

Published

on

En abril de 2025, Openai presentó sus modelos más avanzados hasta la fecha, O3 y O4-Mini. Estos modelos representan un gran paso adelante en el campo de la inteligencia artificial (IA), ofreciendo nuevas capacidades en análisis visual y soporte de codificación. Con sus fuertes habilidades de razonamiento y su capacidad para trabajar con texto y imágenes, O3 y O4-Mini pueden manejar una variedad de tareas de manera más eficiente.

El lanzamiento de estos modelos también destaca su impresionante rendimiento. Por ejemplo, O3 y O4-Mini lograron una notable precisión del 92.7% en la resolución de problemas matemáticos en el punto de referencia de AIME, superando el rendimiento de sus predecesores. Este nivel de precisión, combinado con su capacidad para procesar diversos tipos de datos, como código, imágenes, diagramas y más, abre nuevas posibilidades para desarrolladores, científicos de datos y diseñadores de UX.

Al automatizar tareas que tradicionalmente requieren un esfuerzo manual, como la depuración, la generación de documentación e interpretación de datos visuales, estos modelos están transformando la forma en que se construyen aplicaciones impulsadas por la IA. Ya sea en desarrollo, ciencia de datos u otros sectores, O3 y O4-Mini son herramientas poderosas que respaldan la creación de sistemas más inteligentes y soluciones más efectivas, lo que permite a las industrias abordar los desafíos complejos con mayor facilidad.

Avances técnicos clave en modelos O3 y O4-Mini

Los modelos O3 y O4-Mini de OpenAI traen mejoras importantes en la IA que ayudan a los desarrolladores a trabajar de manera más eficiente. Estos modelos combinan una mejor comprensión del contexto con la capacidad de manejar el texto y las imágenes juntos, haciendo que el desarrollo sea más rápido y preciso.

Manejo de contexto avanzado e integración multimodal

Una de las características distintivas de los modelos O3 y O4-Mini es su capacidad para manejar hasta 200,000 tokens en un solo contexto. Esta mejora permite a los desarrolladores ingresar archivos de código fuente completos o grandes bases de código, lo que hace que el proceso sea más rápido y eficiente. Anteriormente, los desarrolladores tenían que dividir grandes proyectos en partes más pequeñas para el análisis, lo que podría conducir a ideas o errores perdidos.

Con la nueva ventana de contexto, los modelos pueden analizar el alcance completo del código a la vez, proporcionando sugerencias, correcciones de error y optimizaciones más precisas y confiables. Esto es particularmente beneficioso para los proyectos a gran escala, donde comprender todo el contexto es importante para garantizar una funcionalidad fluida y evitar errores costosos.

Además, los modelos O3 y O4-Mini aportan el poder de las capacidades multimodales nativas. Ahora pueden procesar las entradas de texto y visuales, eliminando la necesidad de sistemas separados para la interpretación de imágenes. Esta integración permite nuevas posibilidades, como la depuración en tiempo real a través de capturas de pantalla o escaneos de interfaz de usuario, generación de documentación automática que incluye elementos visuales y una comprensión directa de los diagramas de diseño. Al combinar texto y imágenes en un flujo de trabajo, los desarrolladores pueden moverse de manera más eficiente a través de tareas con menos distracciones y retrasos.

Precisión, seguridad y eficiencia a escala

La seguridad y la precisión son fundamentales para el diseño de O3 y O4-Mini. El marco de alineación deliberativa de OpenAI asegura que los modelos actúen en línea con las intenciones del usuario. Antes de ejecutar cualquier tarea, el sistema verifica si la acción se alinea con los objetivos del usuario. Esto es especialmente importante en entornos de alto riesgo como la atención médica o las finanzas, donde incluso pequeños errores pueden tener consecuencias significativas. Al agregar esta capa de seguridad, Operai asegura que la IA funcione con precisión y reduce los riesgos de resultados no deseados.

Para mejorar aún más la eficiencia, estos modelos admiten el encadenamiento de herramientas y las llamadas API paralelas. Esto significa que la IA puede ejecutar múltiples tareas al mismo tiempo, como generar código, ejecutar pruebas y analizar datos visuales, sin tener que esperar a que una tarea finalice antes de comenzar otra. Los desarrolladores pueden ingresar una maqueta de diseño, recibir comentarios inmediatos sobre el código correspondiente y ejecutar pruebas automatizadas mientras la IA procesa el diseño visual y genera documentación. Este procesamiento paralelo acelera los flujos de trabajo, lo que hace que el proceso de desarrollo sea más suave y productivo.

Transformación de flujos de trabajo de codificación con características con IA

Los modelos O3 y O4-Mini introducen varias características que mejoran significativamente la eficiencia del desarrollo. Una característica clave es el análisis de código en tiempo real, donde los modelos pueden analizar instantáneamente capturas de pantalla o escaneos de interfaz de usuario para detectar errores, problemas de rendimiento y vulnerabilidades de seguridad. Esto permite a los desarrolladores identificar y resolver problemas rápidamente.

Además, los modelos ofrecen depuración automatizada. Cuando los desarrolladores encuentran errores, pueden cargar una captura de pantalla del problema, y ​​los modelos identificarán la causa y sugerirán soluciones. Esto reduce el tiempo dedicado a la resolución de problemas y permite a los desarrolladores avanzar con su trabajo de manera más eficiente.

Otra característica importante es la generación de documentación con el contexto. O3 y O4-Mini pueden generar automáticamente documentación detallada que permanece actualizada con los últimos cambios en el código. Esto elimina la necesidad de que los desarrolladores actualicen manualmente la documentación, asegurando que permanezca preciso y actualizado.

Un ejemplo práctico de las capacidades de los modelos está en la integración de API. O3 y O4-Mini pueden analizar las colecciones Postman a través de capturas de pantalla y generar automáticamente asignaciones de punto final API. Esto reduce significativamente el tiempo de integración en comparación con los modelos más antiguos, acelerando el proceso de vinculación de servicios.

Avances en el análisis visual

Los modelos O3 y O4-Mini de OpenAI traen avances significativos en el procesamiento de datos visuales, ofreciendo capacidades mejoradas para analizar imágenes. Una de las características clave es su OCR avanzado (reconocimiento de caracteres ópticos), que permite que los modelos extraen e interpreten el texto de las imágenes. Esto es especialmente útil en áreas como ingeniería de software, arquitectura y diseño, donde los diagramas técnicos, los diagramas de flujo y los planes arquitectónicos son parte integral de la comunicación y la toma de decisiones.

Además de la extracción de texto, O3 y O4-Mini pueden mejorar automáticamente la calidad de las imágenes borrosas o de baja resolución. Utilizando algoritmos avanzados, estos modelos mejoran la claridad de la imagen, asegurando una interpretación más precisa del contenido visual, incluso cuando la calidad de imagen original es subóptima.

Otra característica poderosa es su capacidad para realizar un razonamiento espacial 3D de los planos 2D. Esto permite a los modelos analizar diseños 2D e inferir relaciones 3D, lo que los hace muy valiosos para industrias como la construcción y la fabricación, donde es esencial visualizar espacios físicos y objetos de planes 2D.

Análisis de costo-beneficio: cuándo elegir qué modelo

Al elegir entre los modelos O3 y O4-Mini de OpenAI, la decisión depende principalmente del equilibrio entre el costo y el nivel de rendimiento requerido para la tarea en cuestión.

El modelo O3 es el más adecuado para tareas que exigen alta precisión y precisión. Se destaca en campos como la investigación y el desarrollo complejos (I + D) o aplicaciones científicas, donde son necesarias capacidades de razonamiento avanzado y una ventana de contexto más amplia. La gran ventana de contexto y las poderosas habilidades de razonamiento de O3 son especialmente beneficiosas para tareas como el entrenamiento del modelo de IA, el análisis de datos científicos y las aplicaciones de alto riesgo donde incluso pequeños errores pueden tener consecuencias significativas. Si bien tiene un costo más alto, su precisión mejorada justifica la inversión para las tareas que exigen este nivel de detalle y profundidad.

En contraste, el modelo O4-Mini proporciona una solución más rentable y sigue ofreciendo un rendimiento fuerte. Ofrece velocidades de procesamiento adecuadas para tareas de desarrollo de software a mayor escala, automatización e integraciones de API donde la eficiencia y la velocidad son más críticas que la precisión extrema. El modelo O4-Mini es significativamente más rentable que el O3, que ofrece una opción más asequible para los desarrolladores que trabajan en proyectos cotidianos que no requieren las capacidades avanzadas y la precisión del O3. Esto hace que el O4-Mini sea ideal para aplicaciones que priorizan la velocidad y la rentabilidad sin necesidad de la gama completa de características proporcionadas por el O3.

Para los equipos o proyectos centrados en el análisis visual, la codificación y la automatización, O4-Mini proporciona una alternativa más asequible sin comprometer el rendimiento. Sin embargo, para proyectos que requieren análisis en profundidad o donde la precisión es crítica, el modelo O3 es la mejor opción. Ambos modelos tienen sus fortalezas, y la decisión depende de las demandas específicas del proyecto, asegurando el equilibrio adecuado de costo, velocidad y rendimiento.

El resultado final

En conclusión, los modelos O3 y O4-Mini de OpenAI representan un cambio transformador en la IA, particularmente en la forma en que los desarrolladores abordan la codificación y el análisis visual. Al ofrecer un manejo de contexto mejorado, capacidades multimodales y un razonamiento potente, estos modelos permiten a los desarrolladores a optimizar los flujos de trabajo y mejorar la productividad.

Ya sea para una investigación impulsada por la precisión o tareas rentables de alta velocidad, estos modelos proporcionan soluciones adaptables para satisfacer diversas necesidades. Son herramientas esenciales para impulsar la innovación y resolver desafíos complejos en todas las industrias.

Continue Reading

Noticias

5 gemas simples de Géminis que solía permanecer en la tarea

Published

on

Hay algo poderoso en tener la persona adecuada a la que recurrir en el momento adecuado. Es por eso que uso Gemini Gems cuando quiero ser productivo en mi teléfono, tableta o Chromebook. Piense en ellos como compañeros de trabajo digital, cada uno excelente en algo único. Confío en ellos durante los maratones de codificación nocturnos, los períodos de examen y la preparación de la entrevista de último minuto. En este artículo, discuto las gemas que uso regularmente, para qué están diseñados y cómo uso la inteligencia artificial para seguir siendo productivo.

Relacionado

10 maneras en que uso IA para simplificar mi vida diaria

Aprenda nuevas formas de hacer trabajo, estudios y pasatiempos

5

Encontrar nuevas ideas con lluvia de ideas

Esta gema saca ideas creativas de la nada

Interfaz de gema de lluvia de ideas que muestra indicaciones de ejemplo como ideas de regalos, consejos de decoración de la oficina, planificación de la reunión familiar e ideas de picnic para niños

No puedo contar la frecuencia con la que me siento frente a una página en blanco, tratando de escribir algo que valga la pena, o se me ocurra una idea medio decente, solo para sentirme completamente atascado. Ahí es cuando recurro a la gema de Brainstormer. Te ayuda a superar el bloqueo del escritor, pensar fuera de la caja y mantener tu impulso.

Omita el pensamiento excesivo, navegue por sugerencias, elija y refine lo que funciona, y avanza. El mismo impulso creativo también resulta útil fuera del mundo digital. La compra de regalos me estresa, especialmente cuando no tengo idea de qué conseguir a alguien que lo tenga todo. Brainstormer me ayuda a encontrar ideas de regalos originales basadas en los intereses de mis amigos, los pasatiempos y nuestros chistes internos.

4

Permanecer en el flujo de codificación con la depuración asistida

Esta joya me salva del desplazamiento interminable a través de la documentación

Interfaz GEM de socio de codificación que muestra indicaciones, como verificar la tarea de codificación, actualizar el código del sitio web, la creación de una aplicación simple y los bucles de la lista de Python

Coding Partner Gem es un asistente de programación que lo ayuda a escribir código, solucionar errores y comprender conceptos de codificación desconocidos sin interrumpir su flujo. Viene a mi rescate cuando estoy en una sesión de codificación y algo se rompe, o cuando quiero verificar la sintaxis de algo en Python.

Puedo preguntar cualquier cosa, por ejemplo, “¿Por qué se muestra este error y cómo puedo solucionarlo?” o “¿Puedes guiarme a través de cómo funciona este fragmento de código?” Y me muestra cómo. Puede usar su compañero de codificación en cualquier nivel de habilidad, independientemente de su nivel de habilidad. No tendrá que cavar a través de los foros o la documentación de Stack Overflow cuando tenga un problema.

3

Estudiar Smarter con el entrenador de aprendizaje a mi lado

Esta gema desglosa temas en trozos fáciles de aprender

Interfaz GEM de entrenador de aprendizaje con indicaciones como explicar números binarios, la caída del Imperio Romano, cómo funciona la fotosíntesis y la revisión de temas en orgullo y prejuicio

Learning Coach Gem es un tutor que divide información compleja en segmentos digeribles para ayudarlo a aprender nuevos temas. El entrenador de aprendizaje también puede construir un plan de estudio personalizado basado en sus objetivos, lo cuestiona sobre lo que aprendió y lo guiará a través de temas paso a paso. Un camino claro y respuestas inmediatas reducen la procrastinación y evitan la deriva del sujeto. No más cavar a través de información dispersa cuando su tiempo de estudio es estructurado y eficiente.

Con cuestionarios rápidos y preguntas de seguimiento, el aprendizaje se vuelve activo, no pasivo. El entrenador de aprendizaje Gema se convierte en mi amigo de estudio cuando se prepara para los exámenes. Alimento el esquema de contenido desde mis diapositivas de conferencias y le pido que explique las partes donde me perdí la clase. A veces voy un paso más allá y lo doy más del examen, luego le pido a Gemini que genere preguntas similares basadas en el material que estoy estudiando.

Relacionado

5 razones por las cuales Google dominará la carrera armamentista de IA con soluciones como Gemini y Notebooklm

Google está bien posicionado para ganar con su IA

2

El editor de escritura arregla mi escritura sin romper el flujo

Escribo mejor, más rápido y con menos dudas.

Interfaz GEM del editor de redacción con tareas como la fijación de gramática, edición para el estilo, aclarar oraciones y mejorar la consistencia del artículo

Escribir es una cosa, editar es otra. Es fácil quedarse atascado relevando el mismo párrafo, adivinar las opciones de sus palabras o buscar reglas de gramática en Google. Ahí es donde ayuda la gema del editor de escritura. Esta joya verifica su gramática, ortografía y puntuación mientras ofrece comentarios útiles sobre el estilo, el tono y la estructura. Marca las oraciones de ejecución, sugiere una mejor frase y recomienda elecciones de palabras más fuertes, haciendo que su mensaje sea limpio y seguro.

No más de ida y vuelta sobre encontrar algo que suene bien. En lugar de romper su flujo de escritura para arreglar una oración, continúa y el editor de escritura se encarga de los detalles. Entre esto y Grammarly, tengo una red de seguridad de edición sólida para mis tareas de ensayo.

1

Uso de la guía de carrera para prepararse para los movimientos de carrera

Esta joya es mi opción para la redacción y entrevistas de reanudación.

Interfaz de GEM Guía de carrera con indicaciones de ejemplo que incluyen mejorar las habilidades de presentación, abogarse por una promoción, prepararse para entrevistas y encontrar un mentor

Descubrir su próximo movimiento de carrera puede ser estresante. La gema de la guía profesional lo ayuda a mapear sus objetivos y mejorar sus habilidades. Lo uso para actualizar mi currículum, prepararme para entrevistas y explorar nuevas direcciones basadas en mis intereses y fortalezas. Una de las cosas más útiles ha sido practicar preguntas comunes de la entrevista y ensayar mis respuestas. También lo uso para generar currículums personalizados de acuerdo con descripciones de trabajo específicas, lo que ayuda a que mis aplicaciones se destaquen.

Ese enfoque me dio una pasantía. Pregunte a la guía profesional un plan claro y paso a paso. Puede ayudarlo a priorizar las tareas, como repasar una habilidad, actualizar su perfil de LinkedIn o aplicar roles que coincidan con sus objetivos. No se detiene en la búsqueda de empleo. También le ayuda a desarrollar un impulso a largo plazo con redes prácticas, estrategias de crecimiento y desarrollo de habilidades.

Relacionado

7 formas de usar Gemini como asistente de búsqueda de empleo

Hacer la búsqueda de empleo más fácil con Géminis

Resolver problemas de nicho construyendo su propia gema

En lugar de tratar de hacer todo de forma independiente (y potencialmente atascado o distraído), puede confiar en estos ayudantes de IA. No tiene que conformarse si tiene un problema o flujo de trabajo único. Cree una gema personalizada que se adapte a su nicho.

Continue Reading

Noticias

¿Qué modelo de chatgpt es el mejor? Una guía sobre qué modelo usar y cuándo.

Published

on

Chatgpt no es un monolito.

Desde que Operai lanzó por primera vez el Buzzy Chatbot en 2022, ha implementado lo que parece un nuevo modelo cada pocos meses, utilizando una panoplia confusa de nombres.

Varios competidores de Operai tienen populares Alternativas de chatgptcomo Claude, Géminis y perplejidad. Pero los modelos de Openai se encuentran entre los más reconocibles de la industria. Algunos son buenos para tareas cuantitativas, como la codificación. Otros son mejores para hacer una lluvia de ideas sobre nuevas ideas.

Si está buscando una guía sobre qué modelo usar y cuándo, está en el lugar correcto.

GPT-4 y GPT-4O

Openai lanzó por primera vez GPT-4 en 2023 como su modelo de lenguaje grande. El CEO Sam Altman dijo en un podcast de abril que la modelo tomó “cientos de personas, casi todo el esfuerzo de Openi” para construir.

Desde entonces, ha actualizado su modelo insignia a GPT-4O, que lanzó por primera vez el año pasado. Es tan inteligente como GPT-4, que es capaz de acumular el SAT, el GRE y pasar la barra, pero es significativamente más rápido y mejora sus “capacidades entre el texto, la voz y la visión”, dice Openii. El “O” significa Omni.

4O puede traducir rápidamente el habla y ayudar con el álgebra lineal básica, y tiene las capacidades visuales más avanzadas.

Sus imágenes de estilo Studio Ghibli tocaron la emoción en línea. Sin embargo, también planteó preguntas de derechos de autor cuando los críticos argumentaron que Operai se está beneficiando injustamente del contenido de los artistas.

Operai dice que 4O “se destaca en las tareas cotidianas”, como hacer una lluvia de ideas, resumir, escribir correos electrónicos y revisar informes.

GPT-4.5

Altman describió a GPT-4.5 en una publicación sobre X como “el primer modelo que se siente como hablar con una persona reflexiva”.

Es el último avance en el paradigma de “aprendizaje sin supervisión” de OpenAI, que se centra en ampliar los modelos en el “conocimiento de las palabras, la intuición y la reducción de las alucinaciones”, dijo la miembro del personal técnico de Operai, Amelia Glaese, durante su presentación en febrero.

Entonces, si está teniendo una conversación difícil con un colega, GPT-4.5 podría ayudarlo a replantear esas conversaciones en un tono más profesional y tacto.

Operai dice que GPT-4.5 es “ideal para tareas creativas”, como proyectos de colaboración y lluvia de ideas.

O1 y O1-Mini

Openai lanzó una mini versión de O1, su modelo de razonamiento, en septiembre del año pasado y la versión completa en diciembre.

Los investigadores de la compañía dijeron que es el primer modelo capacitado para “pensar” antes de que responda y se adapte bien a las tareas cuantitativas, de ahí el “modelo de razonamiento” del apodo. Esa es una función de su técnica de entrenamiento, conocida como cadena de pensamiento, que alienta a los modelos a razonar a través de problemas descomponiéndolos paso a paso.

En un artículo publicado en la capacitación de seguridad del modelo, la compañía dijo que “los modelos de capacitación para incorporar una cadena de pensamiento antes de responder tienen el potencial de desbloquear beneficios sustanciales, al tiempo que aumentan los riesgos potenciales que provienen de una inteligencia aumentada”.

En un video de una presentación interna de Operai en los mejores casos de uso para O1, Joe Casson, un ingeniero de soluciones en OpenAI, demostró cómo O1-Mini podría resultar útil para analizar el máximo beneficio en una llamada cubierta, una estrategia de negociación financiera. Casson también mostró cómo la versión de vista previa de O1 podría ayudar a alguien razonar a través de cómo crear un plan de expansión de la oficina.

Operai dice que el modo Pro de O1, una “versión de O1 que utiliza más cómputo para pensar más y proporcionar respuestas aún mejores a los problemas más difíciles”, es mejor para un razonamiento complejo, como crear un algoritmo para el pronóstico financiero utilizando modelos teóricos o generar un resumen de investigación de varias páginas en tecnologías emergentes.

O3 y O3-Mini

Los modelos pequeños han estado ganando tracción en la industria durante un tiempo como una alternativa más rápida y rentable a los modelos de base más grandes. Operai lanzó su primer modelo pequeño, O3 Mini, en enero, solo semanas después de que la startup de la startup china Butterfly Effect debutó el R1 de Deepseek, que conmocionó a Silicon Valley, y los mercados, con sus precios asequibles.

Openai dijo que 03 Mini es el “modelo más rentable” en su serie de razonamiento. Está destinado a manejar preguntas complejas, y Openai dijo que es particularmente fuerte en ciencias, matemáticas y codificación.

Julian Goldie, un influencer de las redes sociales que se centra en la estrategia de SEO, dijo en una publicación sobre el medio que O3 “brilla en tareas de desarrollo rápido” y es ideal para tareas de programación básicas en HTML y CSS, funciones simples de JavaScript y la construcción de prototipos rápidos. También hay una versión “mini alta” del modelo que, según él, es mejor para la “codificación y lógica compleja”, aunque tenía algunos problemas de control.

En abril, Openai lanzó una versión completa de O3, que llama “nuestro modelo de razonamiento más poderoso que empuja la frontera a través de la codificación, matemáticas, ciencias, percepción visual y más”.

Operai dice que el O3 se usa mejor para “tareas complejas o de múltiples pasos”, como la planificación estratégica, la codificación extensa y las matemáticas avanzadas.

O4 mini

Operai lanzó otro modelo más pequeño, el O4 Mini, en abril. Dijo que está “optimizado para un razonamiento rápido y rentable”.

La compañía dijo que logra un rendimiento notable para el costo, especialmente en “Matemáticas, codificación y tareas visuales”. Fue el modelo de referencia con mejor rendimiento en el examen de matemáticas de invitación estadounidense en 2024 y 2025.

O4 Mini, y su mini versión, son excelentes para un razonamiento rápido y más sencillo. Son buenos para acelerar cualquier tarea de razonamiento cuantitativo que encuentre durante su día. Si está buscando un trabajo más profundo, opte por O3.

Scott Swingle, alumbre de DeepMind y fundador de la compañía de herramientas de desarrolladores con IA Abante AI, probó O4 con un problema de Euler, una serie de problemas computacionales desafiantes lanzados cada semana más o menos. Dijo en una publicación sobre X que O4 resolvió el problema en 2 minutos y 55 segundos, “Mucho más rápido que cualquier solucionador humano. Solo 15 personas pudieron resolverlo en menos de 30 minutos”.

Operai dice que el O4 Mini se usa mejor para “tareas técnicas rápidas”, como consultas rápidas relacionadas con STEM. Dice que también es ideal para el razonamiento visual, como extraer puntos de datos clave de un archivo CSV o proporcionar un resumen rápido de un artículo científico.