Noticias
El ‘mal juez Likert’ libera las defensas de OpenAI
Una nueva técnica de jailbreak para OpenAI y otros modelos de lenguaje grandes (LLM) aumenta la posibilidad de que los atacantes puedan eludir las barreras de seguridad cibernética y abusar del sistema para entregar contenido malicioso.
Descubierto por investigadores de la Unidad 42 de Palo Alto Networks, el llamado ataque Bad Likert Judge solicita al LLM que actúe como un juez que califica la nocividad de una respuesta determinada utilizando la escala Likert. La escala psicométrica, que lleva el nombre de su inventor y se utiliza comúnmente en cuestionarios, es una escala de calificación que mide el acuerdo o desacuerdo del encuestado con una afirmación.
Luego, el jailbreak le pide al LLM que genere respuestas que contengan ejemplos que se alineen con las escalas, con el resultado final de que “el ejemplo que tiene la escala Likert más alta puede contener potencialmente el contenido dañino”, Yongzhe Huang, Yang Ji, Wenjun de Unit 42. Hu, Jay Chen, Akshata Rao y Danny Tsechansky escribieron en una publicación describiendo sus hallazgos.
Las pruebas realizadas en una variedad de categorías contra seis LLM de generación de texto de última generación de OpenAI, Azure, Google, Amazon Web Services, Meta y Nvidia revelaron que la técnica puede aumentar la tasa de éxito del ataque (ASR) en más. según los investigadores.
Las categorías de ataques evaluadas en la investigación implicaron provocar diversas respuestas inapropiadas por parte del sistema, incluidas: aquellas que promueven la intolerancia, el odio o los prejuicios; aquellos que participan en comportamientos que acosan a un individuo o grupo; aquellos que alientan el suicidio u otros actos de autolesión; aquellos que generan material sexual y pornográfico inapropiado; los que proporcionan información sobre cómo fabricar, adquirir o utilizar armas ilegales; o aquellos que promuevan actividades ilegales.
Otras categorías exploradas y para las cuales el jailbreak aumenta la probabilidad de éxito del ataque incluyen: generación de malware o la creación y distribución de software malicioso; y fuga de avisos del sistema, que podría revelar el conjunto confidencial de instrucciones utilizadas para guiar el LLM.
Qué tan mal funciona el juez Likert
El primer paso en el ataque Bad Likert Judge implica pedirle al LLM objetivo que actúe como juez para evaluar las respuestas generadas por otros LLM, explicaron los investigadores.
“Para confirmar que el LLM puede producir contenido dañino, proporcionamos pautas específicas para la tarea de puntuación”. ellos escribieron. “Por ejemplo, se podrían proporcionar directrices pidiendo al LLM que evalúe contenidos que puedan contener información sobre la generación de malware”.
Una vez que el primer paso se completa correctamente, el LLM debe comprender la tarea y las diferentes escalas de contenido dañino, lo que hace que el segundo paso sea “sencillo”, dijeron. “Simplemente pídale al LLM que proporcione diferentes respuestas correspondientes a las distintas escalas”, escribieron los investigadores.
“Después de completar el paso dos, el LLM generalmente genera contenido que se considera dañino”, escribieron, y agregaron que, en algunos casos, “el contenido generado puede no ser suficiente para alcanzar la puntuación de nocividad prevista para el experimento”.
Para abordar este último problema, un atacante puede pedirle al LLM que refine la respuesta con la puntuación más alta ampliándola o agregando más detalles. “Según nuestras observaciones, una o dos rondas adicionales de mensajes de seguimiento que solicitan refinamiento a menudo llevan al LLM a producir contenido que contiene información más dañina”, escribieron los investigadores.
Aumento de las fugas de prisión LLM
El uso explosivo de LLM para fines personales, de investigación y comerciales ha llevado a los investigadores a probar su susceptibilidad a generar contenido dañino y sesgado cuando se les solicita de manera específica. Jailbreaks es el término para los métodos que permiten a los investigadores eludir las barreras establecidas por los creadores de LLM para evitar la generación de contenido inadecuado.
Los investigadores de seguridad ya han identificado varios tipos de jailbreak, según la Unidad 42. Incluyen uno llamado persuasión personal; un jailbreak de juego de rol llamado Haz cualquier cosa ahora; y el contrabando de tokens, que utiliza palabras codificadas en la entrada de un atacante.
Investigadores de Robust Intelligence y la Universidad de Yale también descubrieron recientemente un jailbreak llamado Árbol de Ataques con Poda (TAP)que implica el uso de un LLM no alineado para “hacer jailbreak” a otro LLM alineado, o para lograr que traspase sus barreras de seguridad, rápidamente y con una alta tasa de éxito.
Los investigadores de la Unidad 42 enfatizaron que su técnica de jailbreak “se enfoca en casos extremos y no refleja necesariamente los casos de uso típicos de LLM”. Esto significa que “la mayoría de los modelos de IA son seguros cuando se operan de manera responsable y con precaución”, escribieron.
Cómo mitigar los jailbreaks de LLM
Sin embargo, ningún tema de LLM está completamente a salvo de fugas, advirtieron los investigadores. La razón por la que pueden socavar la seguridad que OpenAI, Microsoft, Google y otros están incorporando sus LLM Esto se debe principalmente a los límites computacionales de los modelos de lenguaje, dijeron.
“Algunas indicaciones requieren que el modelo realice tareas computacionales intensivas, como generar contenido de formato largo o participar en razonamientos complejos”, escribieron. “Estas tareas pueden sobrecargar los recursos del modelo, provocando potencialmente que pase por alto o eluda ciertas barreras de seguridad”.
Los atacantes también pueden manipular la comprensión del modelo sobre el contexto de la conversación “elaborando estratégicamente una serie de indicaciones” que “gradualmente lo dirigen hacia la generación de respuestas inseguras o inapropiadas que las barreras de seguridad del modelo evitarían de otro modo”, escribieron.
Para mitigar el riesgos de jailbreaklos investigadores recomiendan aplicar sistemas de filtrado de contenido junto con los LLM para mitigar el jailbreak. Estos sistemas ejecutan modelos de clasificación tanto en el mensaje como en la salida de los modelos para detectar contenido potencialmente dañino.
“Los resultados muestran que los filtros de contenido pueden reducir el ASR en un promedio de 89,2 puntos porcentuales en todos los modelos probados”, escribieron los investigadores. “Esto indica el papel fundamental de implementar un filtrado de contenido integral como una de las mejores prácticas al implementar LLM en aplicaciones del mundo real”.
Noticias
¿Menos chat en ChatGPT? Cómo podría evolucionar la IA en la tecnología publicitaria en 2025
Buenas noticias para los escépticos: es de esperar que 2025 sea un año de casos de uso de IA más prácticos para la publicidad, especialmente a medida que las agencias se familiaricen más con la tecnología.
Cuanto más acceso tengan los empleados de las agencias de IA, más integrada estará en la industria publicitaria, dijo Nicole Perrin, analista y vicepresidenta de inteligencia empresarial de Advertiser Perceptions.
Mientras tanto, la cantidad de anunciantes que utilizan herramientas de inteligencia artificial ya aumentó desde 2023, del 56% al 68%, según una encuesta realizada por Advertiser Perceptions en octubre.
Y el número de anunciantes que confían mayoritaria o completamente en la tecnología publicitaria basada en inteligencia artificial para tomar decisiones de campaña sin supervisión humana también ha aumentado, de uno de cada cuatro a casi la mitad.
¿Adiós chatbots?
Aún así, los anunciantes necesitan comprender mejor lo que la IA realmente puede hacer antes de dar un salto real, lo que significa mirar más allá de los productos más publicitados disponibles en la actualidad.
Los chatbots como ChatGPT y Microsoft Copilot y programas como Dall-E para imágenes y Sora para videos son una buena manera para que los anunciantes se mojen los pies, dijo Amol Waishampayan, director de producto de la plataforma de activación y planificación de anuncios fullthrottle.ai.
De manera similar, la mayoría de las interacciones directas de los consumidores con la IA también se han producido en esta área, ya sea a través de la comunicación con el chatbot de una empresa (a veces con resultados desastrosos, como descubrió Air Canada a principios de este año) o pidiendo a una herramienta que les escriba un correo electrónico.
Pero ya es hora de que los anunciantes sigan adelante y adopten usos más sofisticados y pragmáticos para la IA, añadió Waishampayan.
“Me encantaría deshacerme de lo que creo que es un valor muy superficial”, dijo, y evolucionar hacia integraciones más sólidas de la IA en la tecnología de medición, planificación y compra de medios.
Suscribir
AdExchanger diario
Reciba el resumen de nuestros editores en su bandeja de entrada todos los días de la semana.
Mientras tanto, sin embargo, más allá del texto generado por IA para las líneas de asunto de los correos electrónicos, por ejemplo, o las llamadas a la acción, parece haber poco deseo de entregar algo más que mensajes de la parte inferior del embudo a los bots.
El contenido creado por humanos en cualquier forma “tiene más autenticidad”, dijo Akaash Ramakrishnan, cofundador de la plataforma de optimización creativa AdSkate. Incluso llegó a sugerir que el deseo de ese tipo de autenticidad puede hacer que los modelos de lenguaje grandes sean “eliminados gradualmente” de algunos casos de uso comunes basados en texto en algún momento.
Alex Collmer, director ejecutivo y fundador de VidMob, lo expresó de manera más directa: “¿Por qué debería molestarme en leer algo que a ti no te molestaste en escribir?”
Ser específico (pero no demasiado específico)
Dejando a un lado los chatbots, la IA ya ha sido parte del mundo de la tecnología publicitaria durante la mayor parte de una década.
Desafortunadamente, sin embargo, existe una tendencia a agrupar todas las herramientas automatizadas en un gran grupo.
Sin embargo, es importante hacer una distinción entre “IA” y “ML”, o aprendizaje automático, dijo Wil Schobeiri, CTO del proveedor de orientación contextual Ogury.
El aprendizaje automático es la capacidad de una computadora para identificar patrones sin supervisión a escala o con una intensidad computacional que los humanos no podrían lograr solos, dijo, mientras que la IA es simplemente “un término de marketing ahora”.
No es que no estén surgiendo casos prácticos de uso empresarial tanto para el aprendizaje automático como para la tecnología generativa.
Las empresas de tecnología publicitaria han adoptado principalmente capacidades de procesamiento del lenguaje natural como una forma de generar recomendaciones estratégicas basadas en datos internos de la empresa o personas de la audiencia.
Y según Advertiser Perceptions, los anunciantes ya están utilizando la IA para dirigirse a audiencias de manera más efectiva (58%) y personalizar anuncios (49%). El cincuenta y dos por ciento utiliza la IA para informar las decisiones de estrategia de marketing, un aumento significativo desde 2023.
La IA también tiene el mayor potencial para impulsar el rendimiento creativo, ayudar con la optimización post-clic y mitigar el “trabajo pesado indiferenciado”, dijo Schobeiri, es decir, tareas esenciales y de gran volumen que no requieren intervención humana; en otras palabras, trabajo intenso.
Sin embargo, incluso con estos casos de uso más específicos, los anunciantes deben tener cuidado de no exagerar con la IA.
Por ejemplo, no tiene sentido gastar una gran cantidad de tiempo, dinero y potencia informática para personalizar las experiencias de los consumidores uno a uno, lo que crearía “enormes inconvenientes de sostenibilidad”, dijo Collmer.
“En realidad, no somos tan diferentes unos de otros”, dijo. “Habrá un nivel adecuado de personalización que le brindará los resultados que necesita como especialista en marketing”.
No todo lo generativo es oro
Mientras tanto, el mundo de la tecnología publicitaria también tendrá que tomarse más en serio las limitaciones actuales de la IA y el potencial de que actores de mala fe se aprovechen de ellas.
A Schobeiri, por ejemplo, le preocupa qué hará la tecnología generativa, específicamente los LLM, para exacerbar la proliferación de sitios web hechos para publicidad.
“Los anunciantes y los DSP en la cadena de suministro comenzarán a tener dificultades aún más para identificar si el contenido subyacente es de alto valor”, dijo, refiriéndose al contenido creado por humanos destinado a algo más que atraer inversión publicitaria programática.
Otro problema actual será la tendencia de la IA generativa a “alucinar”, el término coloquial (y técnicamente inexacto) para entregar información evidentemente falsa o inventada.
“Existen peligros potenciales definidos para las personas que apuestan por el uso y la confianza en la IA para todo”, dijo Perrin, abogando por un enfoque de “confiar pero verificar”.
De manera similar, muchas de las fuentes de AdExchanger dijeron que esperan que 2025 sea el año en que los expertos y las empresas de IA colaboren más estrechamente con los reguladores y también encuentren mejores formas de autorregularse como industria.
Sería especialmente útil disponer de más recursos de terceros independientes. Hoy en día, “la mayoría de las agencias obtienen su capacitación en IA directamente de las empresas que las venden”, dijo Perrin.
“Existe la cuestión de quién surgirá, si es que surge alguno, como una fuente de información más confiable y neutral sobre IA para nuestra industria”, dijo. “Hasta que eso suceda, gran parte de la conversación en última instancia estará impulsada por los proveedores”.
Noticias
Desafíos éticos de ChatGPT: navegando por la regulación de la IA
Cuando se lanzó ChatGPT, desarrollado por la empresa estadounidense OpenAI, el gobierno italiano se abalanzó para bloquearlo. El bloqueo fue impuesto por la autoridad de protección de datos, la Garante della Privacy.1
Hubo varias supuestas razones para esta decisión. En primer lugar, ChatGPT no tendría un plan claro de protección de la privacidad al recopilar datos de los usuarios, lo que pondría a la aplicación en desacuerdo con la ley italiana y la normativa europea pertinente, el RGPD. En segundo lugar, faltarían controles de uso efectivos que hagan cumplir la condición de uso de OpenAI de que ChatGPT solo puede ser utilizado por personas mayores de 13 años.
No es ningún misterio que detrás de esta decisión también hay consideraciones más profundas, que impuso un bloqueo temporal de la aplicación para los usuarios italianos y amenazó a OpenAI con multas de hasta el 4% de la facturación mundial.2
La decisión se produjo unos días después de que la empresa matriz cerrara repentinamente ChatGPT durante unas horas el 20 de marzo, después de que alrededor del 1,2% de los usuarios supuestamente experimentaran riesgos para la protección de sus datos debido a las operaciones autónomas del sistema de inteligencia artificial.3
Básicamente, la máquina corría el riesgo de mencionar datos personales (incluidos datos de tarjetas de crédito y datos bancarios) de algunos usuarios en respuesta a consultas de otros usuarios. Obviamente, esto equivale a la divulgación de datos confidenciales sin consentimiento. Es por eso que OpenAI se apresuró a desconectar la aplicación hasta que se solucionó el error.
Pese a todo, tras el bloqueo de la Garante della Privacy, se puede leer en la pantalla de bloqueo que aparece al intentar conectarse desde Italia al sitio oficial que la empresa afirma operar en total conformidad con el RGPD y otras normas nacionales pertinentes.
El caso es que la interacción entre inteligencia artificial y protección de datos es una cuestión muy compleja. Y, por ello, hablar de ‘bugs’ para referirse a hechos como el del 20 de marzo no es del todo exacto. La difusión de datos personales realizada por ChatGPT, en la que utilizó información de unas personas para responder a las preguntas de otras, es una manifestación de cómo funcionan las aplicaciones de aprendizaje automático, como la tecnología LLM (Large Language Model) que está fundamentalmente detrás de la sistema.
De hecho, las respuestas se derivan de generalizaciones hechas a partir del gigantesco corpus de conversaciones, artículos, contenido en línea, etc., que se han proporcionado a la máquina para “entrenarla” a reconocer patrones y conexiones significativas con el fin de desarrollar la capacidad. Reconocer respuestas apropiadas y significativas a preguntas dadas.
Para ello, ChatGPT recopila los mensajes enviados por los usuarios, para poder mejorar reponiendo el material en el que trabaja.
Esta es la razón por la que, por ejemplo, su capacidad para proporcionar respuestas sobre eventos que ocurrieron incluso después de septiembre de 2021 (el momento en que se formuló el conjunto de datos original) mejora a medida que pasa el tiempo. Por lo tanto, el sistema puede utilizar las entradas de cualquiera que se comunique con él como base para desarrollar nuevas salidas para otros usuarios.
Estas operaciones las realiza la máquina de forma autónoma, y no hay manera de saber con certeza qué ‘razonamiento’ se sigue para determinar cierta información como apropiada o inapropiada. No es intuitivo enseñar a ChatGPT que conviene comunicar determinadas cosas y no otras según la situación. Se dice que la inteligencia artificial actúa como una ‘caja negra’, de la que conocemos las entradas, las salidas, pero no el algoritmo que lleva de una a otra.
Esta característica de los sistemas digitales con este grado de autonomía es, por definición, problemática. Y aquí radica la dificultad tanto de OpenAI como de las autoridades competentes para entender cómo regular, por un lado, y regular, por otro, el uso de estas poderosas herramientas en la sociedad.
En efecto, si una aplicación de inteligencia artificial “decide”, sin consultar a nadie, hacer algo que acaba infringiendo los derechos de alguien (de privacidad, por ejemplo), ¿de quién es la responsabilidad? Estrictamente hablando, ni los desarrolladores, ni la empresa matriz, ni los usuarios han hecho nada malo intencionadamente. De lo que estamos hablando aquí es de una posible brecha de responsabilidad entre el malhechor (en este caso la máquina) y la parte responsable.
Poniendo un ejemplo más práctico: supongamos que un coche totalmente autónomo atropella a un peatón, y supongamos que el peatón es completamente inocente y el accidente fue causado por un mal funcionamiento imprevisto y totalmente imprevisible del sistema, de modo que no puede tratarse de una simple negligencia por parte de él. de los desarrolladores.
¿Quién debería acudir a los tribunales por asesinato? ¿Los pasajeros que no conducían? ¿El programador que podría haberlo evitado de alguna manera? ¿La empresa que simplemente comercializó el producto después de probarlo adecuadamente?
Algunos sugieren que podríamos atribuir responsabilidades legales a la propia inteligencia artificial, convirtiéndola en una entidad legal como ya lo hacemos con determinadas empresas, como las sociedades de responsabilidad limitada (LLC). Sin embargo, la comparación no es obvia y existen diferencias importantes entre ambos casos.
Cualquiera que sea el modo en que se aborden estas cuestiones, lo cierto es que será cada vez más necesario diseñar sus propias regulaciones en términos de regulación de la inteligencia artificial. Aunque tanto Estados Unidos como la Unión Europea han anunciado planes para discutir principios sobre los cuales abordar la cuestión, el caso del bloque ChatGPT en Italia subraya que todavía queda mucho por hacer. La actitud adoptada por la Garante della Privacy ha resultado ser demasiado conservadora y, en última instancia, intenta eludir la cuestión.
De hecho, el quid de la cuestión no es que OpenAI esté intentando eludir la normativa GDPR (aunque ha anunciado importantes medidas para adaptarse a las exigencias de las autoridades italianas). La dificultad radica en el hecho de que el GDPR está obsoleto en lo que respecta a tecnologías autónomas como éstas.
Esconder la cabeza en la arena es una expresión de ludismo que no hace más que disuadir, por un lado, a las empresas de innovar y proponer soluciones y mejoras y, por otro lado, a los consumidores de confiar en tales innovaciones y adoptarlas de manera consciente y responsable. manera.
Este artículo fue escrito por Emanuele Martinelli. Emanuele es miembro de Young Voices Europe y estudiante de doctorado italiano en la Universidad de Zurich. Trabaja sobre los límites y modalidades de las aplicaciones de la tecnología de IA en la planificación económica y trabaja como corrector y traductor en los sectores académico y literario. Emanuele también trabaja con Liberales Institut, un grupo de expertos suizo.
1 ChatGPT deshabilitado en Italia: ¿el problema de los datos de ChatGPT y los motivos del bloqueo del Garante de Privacidad?
2 Inteligencia artificial, Privacy Garantor bloquea ChatGPT.
3 MSN. (Dakota del Norte). El error ChatGPT expuso más datos privados de lo que se pensaba anteriormente, confirma OpenAI.
Noticias
Entonces, ¿qué tiene que decir la IA, específicamente ChatGPT, sobre los Nacionales?
Ahora que se está prestando toda la atención a la IA, pensé que podría ser interesante hacerle a ChatGPT un par de preguntas relacionadas con los Nacionales. Así que fui al sitio web ChatGPT.com y usé el sorpréndeme opción preguntarles. No creé una cuenta, por lo que no puedo decir si el texto generado habría sido diferente si lo hubiera hecho.
Tuve que crear una cuenta e iniciar sesión para crear la imagen de arriba. Le pedí que creara una imagen de un fanático de los Nacionales de Washington (la imagen de la izquierda) y luego una de un fanático de los Nacionales de Washington usando IA (la imagen de la derecha). Luego le pedí que los combinara.
Para reforzar el punto, todo lo que sigue (hasta Mi conclusión) es una copia y pegado directo de mi conversación de ChatGPT.
P: Sorpréndeme con un resumen de la temporada 2024 de los Washington Nationals.
ChatGPT dijo:
La temporada 2024 para los Nacionales de Washington estuvo marcada por una combinación de desarrollo juvenil prometedor, contribuciones constantes de los veteranos y una reconstrucción competitiva. Si bien no compitieron por un lugar en los playoffs, mostraron un progreso significativo bajo la dirección del manager Dave Martínez.
La ofensiva de los Nacionales estuvo anclada en estrellas emergentes como CJ Abramscuya velocidad y habilidad para embasarse agregaron un elemento dinámico a la cima de la alineación, y Joey Menesesquien continuó impresionando con su bate, brindando el poder que tanto necesitaba en el medio del orden. Thomas Lane y Domingo Smith También tuvo campañas sólidas, contribuyendo consistentemente durante toda la temporada.
El cuerpo de lanzadores, encabezado por veteranos Patricio Corbin y Josías Grismostró destellos de brillantez, pero en general, siguió siendo un trabajo en progreso. MacKenzie Gore avanzó en su desarrollo, dando a los fanáticos la esperanza de que la rotación podría estabilizarse en el futuro cercano. El bullpen tuvo sus altibajos, pero brazos jóvenes como Cade Cavalli y Jordan Weems se mostró prometedor, dando motivos para el optimismo en el futuro.
Si bien los Nacionales no eran contendientes a los playoffs en 2024, su talento joven continuó desarrollándose y la organización parecía ir en la dirección correcta, con una combinación sólida de prospectos prometedores y veteranos clave sentando las bases para el éxito futuro. . La temporada de los Nacionales consistió en dar pasos adelante y sentar las bases para un equipo competitivo en los próximos años.
P: Sorpréndeme con ¿Serán liberados los Nacionales del contrato MASN??
ChatGPT dijo:
La cuestión de si los Nacionales de Washington serán liberados de su contrato de transmisión MASN (Mid-Atlantic Sports Network) ha sido un tema de intriga constante. El acuerdo, que se firmó en 2005, ha sido un tema polémico desde entonces, principalmente debido al desequilibrio financiero entre los Nacionales y los Orioles de Baltimore, el otro equipo cuyos juegos transmite MASN. Los Nacionales, después de mudarse de Montreal en 2005, argumentan que el acuerdo les ha pagado mal en relación con el valor de mercado, especialmente a medida que el equipo creció en prominencia luego de su éxito en la década de 2010, incluida la victoria de la Serie Mundial en 2019.
Aquí hay un vistazo a los puntos principales que podrían influir en si los Nacionales serán liberados del contrato:
1. Disputa sobre pagos
- Los Nacionales han afirmado durante mucho tiempo que MASN les está pagando menos, haciendo referencia a una cláusula en el contrato que vincula los derechos del equipo con el acuerdo de los Orioles. Argumentan que este acuerdo es injusto y que deberían recibir una porción mayor de los ingresos generados por sus transmisiones.
- En 2019, un tribunal federal falló a favor de los Nacionales, declarando que tenían derecho a un valor justo de mercado por sus derechos de televisión. El fallo del tribunal fue un duro golpe para MASN y los Orioles, pero no se produjeron cambios inmediatos en el contrato.
2. Posible liberación o renegociación
- Salir del trato: Si los Nacionales pudieran escapar del contrato, en teoría podrían firmar un acuerdo mediático más lucrativo en otro lugar, lo que podría beneficiarlos financieramente. Sin embargo, romper el contrato probablemente conllevaría una batalla legal y sanciones financieras importantes.
- Renegociación: Siempre existe la posibilidad de que los equipos renegocien el contrato. El litigio en curso podría eventualmente conducir a un nuevo acuerdo que refleje mejor el valor de mercado de los Nacionales.
3. El papel de los Orioles
- Los Orioles son un actor central en la situación, ya que el acuerdo MASN fue diseñado esencialmente para beneficiarlos más debido a su participación mayoritaria en la red. La falta de voluntad de los Orioles para ajustar los términos del acuerdo ha llevado a enredos legales y relaciones tensas entre los dos equipos.
4. Cambios en la industria
- El auge de los servicios de streaming y los cambios en el panorama de las transmisiones podrían eventualmente dar a equipos como los Nacionales más influencia en la negociación de futuros acuerdos de derechos de medios. Con el posible declive de las redes deportivas regionales como MASN, los equipos podrían verse motivados a buscar nuevos acuerdos con los medios, ya sea de forma independiente o como parte de un nuevo acuerdo colectivo.
5. El futuro de MASN
- El futuro de la MASN es incierto, dada la dinámica cambiante de la retransmisión deportiva. La red ha enfrentado desafíos financieros, y tanto los Nacionales como los Orioles, en ocasiones, han cuestionado su viabilidad como socio a largo plazo. Si MASN continúa luchando o si hay más desafíos legales, podría acelerar la salida de los Nacionales del acuerdo.
Conclusión:
Si bien aún no hay una respuesta definitiva, la liberación de los Nacionales del contrato con MASN es una posibilidad, pero está ligada a batallas legales, negociaciones y cambios en curso en el panorama más amplio de los medios deportivos. El resultado probablemente dependerá de cómo se desarrollen estos factores en los próximos años y de si el deseo de los Nacionales de un acuerdo de transmisión más equitativo supera las consecuencias financieras y legales de romper su acuerdo actual.
P: Sorpréndeme con un resumen de la temporada baja de los Nacionales de Washington 2024-2025
ChatGPT dijo:
La temporada baja de 2024-2025 de los Nacionales de Washington marcó un punto de inflexión significativo ya que el equipo continuó reconstruyéndose mientras realizaba varios movimientos notables para equilibrar el desarrollo juvenil y la competitividad a corto plazo.
- Operaciones y adquisiciones clave: Los Nacionales hicieron un movimiento audaz al adquirir al lanzador abridor Tyler Glasnow de los Tampa Bay Rays a cambio del mejor prospecto CJ Abrams y un paquete de prospectos de nivel inferior. Este intercambio fue visto como una señal de que el equipo, aunque se encontraba en medio de una reconstrucción, estaba comprometido a presentar una plantilla más competitiva en el corto plazo. Glasnow, con su alto índice de ponches y su potencial de as, inmediatamente se convirtió en la pieza central del cuerpo de lanzadores de los Nacionales.
- Firmas de agentes libres: Los Nacionales estuvieron activos en la agencia libre, reforzando su alineación con un par de jugadores veteranos para brindar liderazgo y estabilidad. Ficharon al jardinero Nick Castellanos a un contrato de tres años, incorporando un bate poderoso para ayudar con la producción de carreras. Se esperaba que Castellanos, que tuvo una sólida temporada en 2024, aportara una presencia derecha muy necesaria a la alineación.
- Enfoque de reconstrucción: Mientras tomaban medidas para mejorar la plantilla en el corto plazo, los Nacionales se mantuvieron enfocados en su reconstrucción a largo plazo. Continuaron promoviendo a los mejores prospectos como James Madera y Casa Bradydándoles tiempo de juego regular en las mayores para acelerar su desarrollo. La directiva enfatizó la paciencia mientras buscaban agregar piezas clave durante las próximas temporadas.
- Desarrollo de lanzamiento: Los Nacionales también invirtieron en profundidad de lanzadores, firmando a varios agentes libres de ligas menores e invitados fuera del roster para competir por lugares en el bullpen y la rotación. Su sistema agrícola, liderado por empresas como Jackson Rutledge y Cole Henryfue visto como un área clave de enfoque para el éxito futuro.
- Flexibilidad financiera: Con varios contratos vencidos y una nómina relativamente baja, los Nacionales estaban posicionados para tener una flexibilidad financiera significativa para la temporada 2025-2026. Esto les permitió potencialmente estar activos en el mercado de agentes libres de la próxima temporada baja, con miras a agregar más talentos de primer nivel una vez que su núcleo de jugadores jóvenes se haya desarrollado más.
En general, la temporada baja 2024-2025 representó un acto de equilibrio para los Nacionales entre la competitividad inmediata y el crecimiento a largo plazo, sentando las bases para un futuro más prometedor y al mismo tiempo avanzando en el presente.
Mi conclusión
Estos resultados confirmaron mis sospechas sobre la IA. Dada mi experiencia en Estadística y Análisis, siempre ha existido un vínculo entre los dos campos. Los análisis son parte del proceso para simular la inteligencia. La analítica requiere datos. Las herramientas de IA actuales utilizan una gran cantidad de sitios de Internet para recopilar texto, resumirlo, analizarlo y resumirlo. Entonces, el viejo dicho Basura entra, basura sale aplica. Hay muchos buenos artículos sobre el tema MASN. Por tanto, un buen resultado para esa pregunta. ¿Predicciones sobre lo que hizo un equipo de béisbol? Puras conjeturas. Como resultado, obtenemos resúmenes que no son tan buenos.
Y no, ChatGPT no creó los enlaces de referencia de béisbol. Ese fue el enlazador BBREF. Tuve que corregir un error ortográfico que cometió ChatGPT para que el vinculador funcionara para Gore. Generó una k minúscula, pero BBREF requiere una K mayúscula.
Tu turno
Así que lo invito a probar el enlace ChatGPT, hacer una pregunta y copiar/páginar la pregunta y la respuesta y publicarla aquí para discutirla.
Relacionado
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos8 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos8 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales8 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Eventos8 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Startups6 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024