The best players in NFL history get a lot of attention, and rightfully so, as they changed the game of football as we know it. Fans also enjoy talking about the worst players ever, too. Defining what makes a bad player isn’t easy, though. Arguably, a bad player is someone who makes a lot of mistakes on the football field, and their NFL journey becomes short-lived because of it.
However, we asked ChatGPT to rank the worst players in NFL history, and artificial intelligence instead gave us a lot of players who most would describe as draft busts instead. These players certainly weren’t good, though, and because expectations were so high for them, they severely hurt the teams they played for.
So, check out the gallery to see ChatGPT’s list. The AI provided a summary of why the rankings came out the way they did, but we also provided some additional analysis of our own.
1. Ryan Leaf, QB
Peter Brouillet-Imagn Images
ChatGPT summary:The second overall pick in the 1998 NFL Draft, Ryan Leaf was expected to be a franchise quarterback. However, his career was a disaster. His poor decision-making, lack of leadership, and inability to grasp the NFL’s complexity led to one of the biggest draft busts in history. Leaf’s career stats — 14 touchdowns and 36 interceptions — speak for themselves, and his infamous meltdowns with the media didn’t help his reputation.
ClutchPoints’ analysis: At one point, Ryan Leaf or Peyton Manning was a legitimate debate. Manning, who was drafted first overall in 1998, went on to become one of the best NFL players ever. Leaf, who was the second pick that year, ended up becoming a massive draft bust, and it was largely self inflicted.
Leaf cared more about partying than he did improving as a football player, and he even had run-ins with the law. That included time in prison after his football career was over. That career only lasted four seasons, though, one of which he missed in its entirety because of injury.
Overall, Leaf had a career 14-36 touchdown-to-interception ratio, and two of his three seasons where he saw time as a starter saw him throw fewer than three touchdown passes. Leaf was a poor decision maker (on and off the field), and he was horribly inaccurate, as evident by his 45.3 completion percentage his rookie season. It doesn’t help that he seemed to blame everyone else for his shortcomings, either.
2. JaMarcus Russell, QB
Kirby Lee-Imagn Images
ChatGPT summary:Russell was drafted first overall in the 2007 NFL Draft and was supposed to lead the Raiders out of their decades-long slump. However, he struggled with work ethic, conditioning, and poor mechanics. His lack of success was epitomized by his infamous “3rd-and-8” throw to no one, as well as his inability to stay in shape. Russell threw for only 18 touchdowns and 23 interceptions during his career, a far cry from what was expected of him.
ClutchPoints’ analysis: JaMarcus Russell received our vote for the biggest NFL Draft bust in history, so his placement amongst the worst players in NFL history is justifiable. Despite having all of the physical traits, a selfish personality and a poor work ethic led to Russell failing at the NFL level for the Oakland Raiders.
Russell infamously was given blank tapes for watching film as a test by his coaches, and he failed that test when he returned them and tried to play it off like he watched film. He also bloomed to nearly 300 pounds at one point in his career, which just isn’t acceptable for a quarterback.
In three years as the Raiders starter, Russell only had 4,083 yards and 18 touchdowns. To make matters worse, he was also signed to a mega deal worth $61 million over six years, as the rookie wage scale wasn’t put in place until the following year after he held out and demanded a massive contract.
3. David Carr, QB
David Butler II-Imagn Images
ChatGPT summary:The first overall pick in the 2002 draft, David Carr was supposed to be the face of the expansion Houston Texans. However, he struggled behind a porous offensive line, which led to him being sacked an NFL-record 76 times in his rookie season. Although he had a decent arm and good athleticism, Carr never developed into a quality starter. His lack of mobility and tendency to panic in the pocket resulted in an unimpressive career.
ClutchPoints’ analysis: David Carr, the brother of Derek Carr, was the first pick in Houston Texans franchise history. Unfortunately, lofty expectations were placed on his shoulders, and he didn’t have a lot of help around him. With a poor offensive line in front of him, Carr struggled.
Carr was sacked 76 times because of this, but he didn’t help his case, either. The Texans wanted to make Carr work out, as they kept him in place as the starter for five seasons, but he just didn’t have what it took to be a franchise signal-caller. Carr’s career high in passing touchdowns was 16, and he twice threw for fewer than double digit touchdowns. He was limited to a backup role after leaving Houston.
Although Carr had a bad offensive line in front of him, the Texans did eventually draft Andre Johnson: arguably the best player in franchise history and one of the best receivers ever. Still, not even Johnson could save Carr from going down as one of the worst NFL players ever.
4. Gino Torretta, QB
RVR Photos-Imagn IMages
ChatGPT summary:Torretta won the 1992 Heisman Trophy at the University of Miami but was an abysmal pro quarterback. His lack of arm strength, poor decision-making, and inability to adjust to the NFL made his transition a complete failure. Torretta’s best year came as a backup with Miami, but he failed to make any lasting impact and finished his career with just 7 touchdowns and 11 interceptions.
ClutchPoints’ analysis: Gino Torretta won the Heisman Trophy in 1992, as well as two national championships. However, NFL scouts found it obvious that he was a college quarterback whose skillset wasn’t translatable to the professional game. That is why he wasn’t drafted until the seventh-round in 1993.
Because of this, you can’t really consider him a draft bust. You can certainly consider him one of the worst NFL players in history, though. Torretta was what everybody thought he was, and that was a backup quarterback. He never started a game, and he only subbed in twice. ChatGPT was wrong in saying he had seven touchdowns, as he only had one touchdown pass in his career.
5. Ki-Jana Carter, RB
Matthew Emmons-Imagn Images
ChatGPT summary: Taken as the first overall pick in the 1995 NFL Draft, Ki-Jana Carter was expected to be a franchise running back for the Bengals. However, injuries derailed his career, and he never lived up to the hype. Despite having incredible athletic potential, Carter was plagued by knee injuries, and his career total of 1,144 rushing yards and 7 touchdowns is far from what was expected of him.
ClutchPoints’ analysis: Ki-Jana Carter was a classic case of a failed NFL career due to injuries. From 1996 to 2004 (with two fully missed seasons in between), Carter only started 14 total games. His career amounted to 1,144 total yards on the ground. The injury that set Carter back occurred in his first preseason game, so he is truly one of the biggest what-ifs in NFL history.
Carter actually was somewhat productive as a scorer during his playing days. He racked up 20 rushing touchdowns in limited time.
6. Charles Rogers, WR
Julian H. Gonzales-Imagn Images
Related NewsArticle continues below
ChatGPT summary:Rogers was drafted second overall in the 2003 NFL Draft and was expected to be a star wide receiver for the Detroit Lions. He showed flashes of brilliance in his first season but struggled with injuries and off-field issues. Rogers was also suspended twice for violating the NFL’s substance abuse policy. He finished his career with just 36 catches and 4 touchdowns in three seasons, a massive disappointment for a top pick.
ClutchPoints’ analysis: The Detroit Lions once took a receiver in the first round of the NFL Draft in three straight seasons and in four out of five years. The reason they were forced into doing this is because of how bad Charles Rogers – the first receiver taken in that stretch – was.
Receiver was a clear need for the Lions, but Andre Johnson was selected one pick after Rogers was taken. The Michigan State product only collected 36 catches for 440 yards in three seasons before a substance abuse suspension, poor play, and clavicle injuries forced him out of the league.
7. Tavon Austin, WR
Bob Self-Imagn Images
ChatGPT summary:Tavon Austin was drafted 8th overall in the 2013 NFL Draft with the expectation that his blazing speed and playmaking ability would make him a dynamic weapon. However, Austin never found a consistent role in the NFL. While he had some success as a return man and occasional deep threat, he never became a reliable starting receiver and ended his career with modest statistics (1,241 yards and 11 touchdowns).
ClutchPoints’ analysis: The most famous highlight reel ever is Tavon Austin’s from his time at West Virginia. Austin was dynamic as a receiver, making big play after big play when catching the football. In the NFL, though, he was more of a gadget player and return man.
Even so, ranking Austin among the worst NFL players ever seems a little unfair. After all, he was still explosive with the ball in his hands, and he wasn’t terrible as a receiver either. Austin caught 181 balls in his first four NFL seasons, and he stuck around in the league for nine total years.
8. Akili Smith, QB
Gary Landers-Imagn Images
ChatGPT summary:Akili Smith was drafted 3rd overall in the 1999 NFL Draft and was expected to be the Bengals’ franchise quarterback. However, he struggled with accuracy, decision-making, and reading defenses. Smith played only 22 games over his career, throwing just 5 touchdowns and 13 interceptions. His failure to adjust to the pro game led to an early exit from the league.
ClutchPoints’ analysis: The 1999 NFL Draft was one of the best draft classes ever, but that was despite the third overall pick and not because of him. That pick was Akili Smith, a quarterback out of Oregon who was taken by the Cincinnati Bengals. Despite the urgency the Bengals had in making him work, he only was able to throw five touchdown passes.
There were five quarterbacks taken in 1999, but the Bengals certainly got the wrong one. Smith was a risky pick from the get-go, considering he only had one good collegiate season. He was a raw project, and he never developed into much of anything as an NFL player.
9. Justin Blackmon, WR
Bob DeChiara-Imagn Images
ChatGPT summary:Blackmon was drafted 5th overall in the 2012 NFL Draft with hopes of becoming a top-flight wide receiver. He showed promise in his first two seasons with Jacksonville, accumulating over 1,000 yards and 6 touchdowns. However, off-field issues, including multiple suspensions for violating the league’s substance abuse policy, led to his early exit from the league. Blackmon’s career was cut short, and he never came close to fulfilling his potential.
ClutchPoints’ analysis: Fifth overall picks are supposed to last a long time in the NFL and play at a high level. Justin Blackmon had the talent to accomplish the latter, but he was out of the league after only 20 games. Blackmon looked like a future star during his rookie season. That year, he caught 236 yards in a single game (third most ever for a rookie) en route to 64 receptions for 864 yards overall.
Then, off-the-field issues derailed his career. Blackmon was suspended for the first four games of his sophomore campaign because of a DUI before he was suspended indefinitely for again violating the NFL’s substance abuse policy. Blackmon never pursued reinstatement.
10. Morris Claiborne, CB
Matthew Emmons-Imagn Images
ChatGPT summary:Claiborne was selected 6th overall in the 2012 NFL Draft, and the Cowboys expected him to be a shutdown cornerback. While he had some solid seasons, he was often inconsistent and struggled with injuries. Despite his athleticism and potential, Claiborne’s career never lived up to the hype, and his struggles with both on-field performance and health have cemented him as one of the biggest cornerback busts of the past decade.
ClutchPoints’ analysis: Morris Claiborne is somewhat of a surprise entry on this list. While he didn’t live up to the expectations of a number six overall draft pick, he actually had some decent seasons and was a solid cover corner. Not to mention, his name recognition as a “bad player” isn’t as prominent as a lot of the other players on this list.
Claiborne lasted eight years in the NFL, including four years with the Dallas Cowboys team that drafted him. While he was far from perfect there, he wasn’t usually considered a bad player. Regardless, Claiborne only once had more than one interception in a season, and he regularly dealt with injuries throughout his career. Claiborne did end up as a Super Bowl champion with the Kansas City Chiefs, though, although he didn’t play in Super Bowl LIV.
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.
La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.
Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.
Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.
Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.
“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.
Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.
Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus
La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.
“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.
Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.
Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.
“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.
Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.
Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.
Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.
“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.
Cómo podría ser el plan de acción de AI final
La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.
“Cómo termina este plan, uno solo puede imaginar”, dijo.
Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.
“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.
El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.
La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.
Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.
“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.
Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.