Noticias
¿La IA reemplazará a los abogados? O1 de OpenAI y el panorama legal en evolución
Un paso de “pensamiento, rápido y lento” hacia la IA neurosimbólica
Mientras los cuerpos se presionaban contra las barreras de acero, 97 personas perdieron la vida en medio de una aglomeración de aficionados al fútbol. El desastre de Hillsborough de 1989, la tragedia deportiva más mortífera de Gran Bretaña, provocó una avalancha de juicios: se culpó a los hooligans del fútbol, el azote de los deportes ingleses en la década de 1980. Fueron necesarias décadas de batallas legales para revelar que la verdadera causa fue la mala gestión policial, no el comportamiento de los fanáticos.
Esta culpa inicial es la que el premio Nobel Daniel Kahneman, en Pensar, rápido y lentollamado pensamiento “Sistema 1 (rápido)”, que es intuitivo. “La intuición es pensar que sabes sin saber por qué lo sabes”, escribió.
Pero la verdad salió a la luz gracias a las familias que exigieron respuestas. Años de batallas legales descubrieron evidencia de mala gestión policial. Este análisis metódico (el pensamiento del “Sistema 2 (lento)” de Kahneman) finalmente exoneró a los fanáticos.
La profesión jurídica exige tanto una intuición rápida como un razonamiento cuidadoso. Los abogados frecuentemente dependen de juicios rápidos para evaluar los casos, pero el análisis detallado es igualmente importante, reflejando cómo pensar con lentitud fue vital para descubrir la verdad en Hillsborough. Ahora, la IA está evolucionando para emular esta dualidad, lo que podría remodelar el trabajo jurídico.
Aquí es donde entra en juego la IA neurosimbólica: un enfoque híbrido que combina las fortalezas de las redes neuronales (intuición) con la precisión de la IA simbólica (lógica).
Pero, ¿qué es exactamente la IA neurosimbólica y en qué se diferencia de la que tenemos ahora?
IA neurosimbólica: fusionando intuición y lógica
Las redes neuronales aprenden analizando patrones en grandes cantidades de datos, como las neuronas del cerebro humano, que sustentan los sistemas de inteligencia artificial que utilizamos a diario, como ChatGPT y la Búsqueda de Google.
Este procesamiento basado en datos se alinea con el “pensamiento rápido” de Kahneman: pensamiento rápido e intuitivo. Si bien las redes neuronales destacan por encontrar patrones y tomar decisiones rápidas, a veces pueden provocar errores, conocidos como “alucinaciones” en el mundo de la IA, debido a sesgos o datos insuficientes.
A diferencia del enfoque intuitivo y basado en patrones de las redes neuronales, la IA simbólica opera según la lógica y las reglas (“pensar lento”). Este procesamiento deliberado y metódico es esencial en ámbitos que exigen un estricto cumplimiento de reglas y procedimientos predefinidos, muy parecido al análisis cuidadoso necesario para descubrir la verdad en Hillsborough.
Watson de IBM es un ejemplo de esto, al derrotar a los grandes maestros del ajedrez Garry Kasparov y Vladimir Kramnik. El ajedrez, con sus reglas intrincadas y sus vastos movimientos posibles, necesita un enfoque estratégico impulsado por la lógica: precisamente la fuerza de la IA simbólica.
De manera similar, el software de preparación de impuestos como TurboTax y H&R Block depende en gran medida de la IA simbólica para navegar por la intrincada red de regulaciones legales y garantizar cálculos precisos. Este enfoque meticuloso y basado en reglas garantiza que cada paso se ejecute de acuerdo con las pautas establecidas.
Cadena de pensamientos: cómo o1-preview imita el razonamiento humano
El modelo o1 de OpenAI no es técnicamente una IA neurosimbólica, sino más bien una red neuronal diseñada para “pensar” más tiempo antes de responder. Utiliza indicaciones de “cadena de pensamiento” para dividir los problemas en pasos, como lo haría un humano. Aunque parezca pensar, o1 no es consciente ni sintiente. Está ejecutando algoritmos complejos para producir este razonamiento similar al humano, lo que resulta en mayores capacidades de resolución de problemas.
Según OpenAI, o1 “se desempeña de manera similar a los estudiantes de doctorado en tareas desafiantes de referencia en física, química y biología”. En un examen de calificación simulado para la Olimpiada Internacional de Matemáticas, o1 resolvió correctamente el 83 % de los problemas, una mejora espectacular con respecto a la tasa de éxito del 13 % de GPT-4.
El o1 de OpenAI no sólo demuestra un razonamiento avanzado sino que también insinúa el potencial futuro de la inteligencia artificial general. AGI se refiere a sistemas de IA que pueden comprender, aprender y aplicar inteligencia de manera amplia, al igual que los humanos.
Además, o1 muestra elementos de IA agente, donde los sistemas pueden actuar de forma independiente para lograr objetivos. Esto significa que, en lugar de limitarse a responder a indicaciones, los agentes de IA pueden establecer objetivos, planificar pasos y actuar para alcanzarlos.
Al analizar los problemas sistemáticamente, o1 imita los procesos de pensamiento humano, considerando estrategias y reconociendo errores. En última instancia, esto conduce a una capacidad más sofisticada para analizar información y resolver problemas complejos.
En esencia, o1 aprende a razonar con el ejemplo, paso a paso. Sirve como puente entre los conceptos de Kahneman de pensar rápido y pensar lento, con el objetivo de ofrecer un mejor razonamiento con menos errores. Este enfoque allana el camino para sistemas más avanzados como AlphaGeometry que realmente fusionan enfoques neuronales y simbólicos.
El salto neurosimbólico de DeepMind al razonamiento deductivo
Si bien OpenAI ha atraído una amplia atención con su nuevo sistema híbrido de IA, Google DeepMind también está dando pasos significativos en este campo con AlphaGeometry, anunciado a principios de 2024 en Nature.
En las pruebas, AlphaGeometry resolvió el 83% de los problemas de geometría de la Olimpiada Internacional de Matemáticas, igualando el desempeño de o1 y casi alcanzando el de los medallistas de oro humanos.
A diferencia de o1, que es una red neuronal que emplea razonamiento extendido, AlphaGeometry combina una red neuronal con un motor de razonamiento simbólico, creando un verdadero modelo neurosimbólico. Su aplicación puede ser más especializada, pero este enfoque representa un paso crítico hacia modelos de IA que pueden razonar y pensar más como humanos, capaces tanto de intuición como de análisis deliberado.
De la geometría a la justicia: la próxima frontera de la IA neurosimbólica
El éxito de AlphaGeometry subraya el potencial más amplio de la IA neurosimbólica, extendiendo su alcance más allá del ámbito de las matemáticas hacia dominios que exigen lógica y razonamiento intrincados, como el derecho. Así como los abogados descubrieron meticulosamente la verdad en Hillsborough, la IA neurosimbólica puede aportar tanto una intuición rápida como una deliberación cuidadosa a las tareas legales.
Este enfoque innovador, que combina la precisión de la IA simbólica con la adaptabilidad de las redes neuronales, ofrece una solución convincente a las limitaciones de las herramientas legales de IA existentes.
El análisis de contratos hoy en día es un proceso tedioso plagado de posibilidades de error humano. Los abogados deben analizar minuciosamente los acuerdos, identificar conflictos y sugerir optimizaciones, una tarea que requiere mucho tiempo y que puede dar lugar a descuidos. La IA neurosimbólica podría abordar este desafío analizando meticulosamente los contratos, identificando activamente conflictos y proponiendo optimizaciones.
Al comprender las interdependencias lógicas dentro de los acuerdos, propone estructuras que se alinean perfectamente tanto con los requisitos legales como con los objetivos comerciales.
En el ámbito del análisis de precedentes jurídicos, podría captar los principios jurídicos subyacentes, hacer interpretaciones matizadas y predecir resultados con mayor precisión. El resultado sería una evaluación más consciente del contexto y lógicamente coherente, mejorando la calidad de la toma de decisiones legales.
El elemento humano en la era de la IA: pensar, rápido y lento
A medida que las tecnologías de inteligencia artificial automatizan la investigación y el análisis jurídico, es fácil sucumbir a juicios rápidos (pensar rápido), suponiendo que la profesión jurídica se remodele hasta quedar irreconocible. Sin embargo, como sugiere Kahneman, “Nada en la vida es tan importante como crees cuando piensas en ello”. Al tomarnos un momento para reflexionar deliberadamente, podríamos darnos cuenta de que tal vez la transformación no sea tan trascendental como parece, o tal vez lo sea.
De cualquier manera, un enfoque mesurado es aconsejable. Sin duda, será crucial que los abogados dominen las herramientas de inteligencia artificial, pero estas herramientas son más efectivas cuando las manejan aquellos con fortalezas exclusivamente humanas.
John J. Hopfield y Geoffrey E. Hinton, pioneros en redes neuronales y ganadores del Premio Nobel de Física 2024 por sus contribuciones a la IA, se hacen eco de esta advertencia.
El Dr. Hinton, a menudo llamado el “padrino de la IA”, advierte que a medida que los sistemas de IA comienzan a exceder las capacidades intelectuales humanas, enfrentamos desafíos sin precedentes para controlarlos. Compara el impacto de la IA con el de la Revolución Industrial y enfatiza la necesidad de una supervisión cuidadosa.
El Dr. Hopfield destaca que los avances tecnológicos como la IA pueden traer consigo importantes beneficios y riesgos. Sus ideas subrayan la importancia del juicio humano y las consideraciones éticas, especialmente en campos críticos como el derecho, donde hay mucho en juego.
El futuro del derecho en la era de la IA neurosimbólica está lleno de posibilidades. Si bien no podemos predecir exactamente lo que sucederá, una cosa es segura: requerirá tanto la lógica aguda de las máquinas como la comprensión matizada de los humanos.
Después de todo, como observó el ex juez de la Corte Suprema de los Estados Unidos, Oliver Wendell Holmes Jr., hace más de un siglo: “Un buen abogado conoce la ley; un gran abogado conoce al juez”.
Esta sabiduría sigue siendo pertinente en la era de la IA, a menos, por supuesto, que el juez sea una máquina.